DE102013105102A1 - Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten - Google Patents

Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten Download PDF

Info

Publication number
DE102013105102A1
DE102013105102A1 DE201310105102 DE102013105102A DE102013105102A1 DE 102013105102 A1 DE102013105102 A1 DE 102013105102A1 DE 201310105102 DE201310105102 DE 201310105102 DE 102013105102 A DE102013105102 A DE 102013105102A DE 102013105102 A1 DE102013105102 A1 DE 102013105102A1
Authority
DE
Germany
Prior art keywords
sensor
distance
optics
light
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201310105102
Other languages
English (en)
Inventor
Auf Nichtnennung Antrag
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Werth Messtechnik GmbH
Original Assignee
Werth Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Werth Messtechnik GmbH filed Critical Werth Messtechnik GmbH
Priority to DE201310105102 priority Critical patent/DE102013105102A1/de
Publication of DE102013105102A1 publication Critical patent/DE102013105102A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • G01B11/007Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines feeler heads therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung bezieht sich ein Verfahren und eine Vorrichtung zur Bestimmung von Merkmalen an einem Messobjekt mit einem optischen Sensorsystem, welches vorzugsweise in ein Koordinatenmessgerät integriert ist, wobei das Sensorsystem aus einem Bildverarbeitungssensor und einem Abstandsensor besteht. Dabei ist die Möglichkeit gegeben, dass der dem Bildverarbeitungssensor zugeordnete, zweidimensional ausgedehnte, aus mehreren lichtempfindlichen Bereichen bestehende Empfänger wahlweise zur Aufnahme von Bildern für den Bildverarbeitungssensor oder zur Erzeugung des Messsignals des Abstandssensors eingesetzt wird.

Description

  • Die Erfindung bezieht sich auf ein Verfahren und auf eine Vorrichtung zur Bestimmung von Merkmalen an Messobjekten unter Verwendung eines optischen Sensorsystems, bestehend aus einem Bildverarbeitungssensor und einem Abstandssensor.
  • Insbesondere bezieht sich die Erfindung auf ein Verfahren zur Bestimmung von Merkmalen an einem Messobjekt mit einem optischen Sensorsystem, welches vorzugsweise in ein Koordinatenmessgerät integriert ist, wobei das Sensorsystem aus einem Bildverarbeitungssensor und einem Abstandsensor, vorzugsweise nach einem Triangulationsprinzip wie Foucaultschen Schneidenprinzip arbeitend, besteht. Auch nimmt die Erfindung Bezug auf eine Vorrichtung zur Bestimmung von Merkmalen an einem Messobjekt mit einem optischen Sensorsystem, welches vorzugsweise in ein Koordinatenmessgerät integriert ist, wobei das Sensorsystem aus einem Bildverarbeitungssensor und einem Abstandsensor, vorzugsweise nach einem Triangulationsprinzip wie Foucaultschen Schneidenprinzip arbeitend, besteht.
  • Bildverarbeitungssensoren und Abstandssensoren werden beispielsweise in der Koordinatenmesstechnik eingesetzt, um Messpunkte an einem Messobjekt zu bestimmen und daraus die Abmessungen von Merkmalen zu ermitteln. Hierzu sind entsprechende Sensoren in Koordinatenmessgeräten integriert.
  • Auch werden Bildverarbeitungssensoren und Abstandssensoren mit einem zumindest teilweise gemeinsamen Strahlengang ausgeführt, wie dies die EP 0330901 A1 zeigt, um einen kompakten Aufbau zu ermöglichen, den gleichen Bereich auf dem Objekt zu erfassen und den für beide Sensoren gemeinsam verfügbaren Messbereich im Koordinatenmessgerät möglichst wenig zu beschränken. Die Signalauswertung des Abstandssensors erfolgt, getrennt vom Bildverarbeitungssensor, mittels einer Empfängeranordnung aus einer Differenzdiode.
  • Klassische Abstandssensoren basieren auf der Triangulation, wie beispielsweise das Foucaultsche Schneidenprinzip. Der an einer Schneide beschnittene Messstrahl einer meist punktförmigen Lichtquelle wird dabei mittels einer Optik auf das Messobjekt abgebildet, dort reflektiert und mit der Optik auf eine Empfängeranordnung aus zwei in Differenz geschalteten Photodiodenbereichen, auf eine sogenannte Differenzdiode abgebildet. Abhängig von der Entfernung zwischen Messobjekt und Sensor wird der Messstrahl versetzt und trifft mal mehr auf die eine und mal mehr auf die andere Seite der Differenzdiode. Die Messbereichsmitte wird zumeist durch den Abstand zum Messobjekt definiert, in dem das Differenzsignal Null ist, bzw. einen Nulldurchgang durchläuft.
  • Ist solch ein Abstandssensor in den Strahlengang eines Bildverarbeitungssensors integriert, ist ein zusätzlicher optischer Teiler notwendig, um die Abbildung auf die Differenzdiode zu realisieren, wie bereits in der EP 0330901 A1 beschrieben.
  • Die Justierung solcher Differenzdioden ist recht schwierig und die Langzeitstabilität der eingestellten Position recht schlecht. Zudem ist der Messbereich des Abstandssensors, also der Bereich der Entfernung zwischen Sensor und Messobjekt, der noch vom Abstandssensor erfasst und ggf. gemessen werden kann, und die Genauigkeit der Abstandsmessung unter anderem durch die Größe der Differenzdiode begrenzt. Eine kleine Differenzdiodenfläche wird von einem kleinen Strahlquerschnitt des Messstrahls schon bei geringer Abweichung von der Messbereichsmitte nicht mehr auf den beiden in Differenz geschalteten Bereichen bestrahlt, und das Differenzsignal kann nicht mehr zur Auswertung verwendet werden, da es den Gültigkeitsbereich der Kennlinie verlässt. Verwendet man jedoch einen großen Strahlquerschnitt, so treffen stets große Teile der Messstrahlung gar nicht auf die Differenzdiode. Das Signal-Rausch-Verhältnis ist niedrig und die Messgenauigkeit gering. Große Differenzdiodenanordnungen führen ebenfalls zu geringerer Messgenauigkeit, u. a aufgrund stärker ausgeprägten Rauschverhaltens.
  • Ein weiterer Nachteil der bekannten Differenzdioden ist, dass der Messstrahl nicht direkt am dem Empfänger beobachtet werden kann. Dies erschwert die Justierung und macht eine Auswertung des Messstrahls mit Bildverarbeitungsalgorithmen wie auch Filtern unmöglich.
  • Zudem ist die Kennlinie von Differenzdioden von der Gesamtmessstrahlintensität abhängig. Dies führt dazu, dass die Intensität der eingesetzten Lichtquelle geregelt, und beispielsweise gepulst werden muss. Dies muss für unterschiedliche Oberflächeneigenschaften des Messobjektes ermöglicht werden. Die Kennlinien sind daher messobjektabhängig.
  • Aufgabe der vorliegenden Erfindung ist es, die Nachteile des Standes der Technik zu vermeiden, insbesondere auch größere Messbereiche für Abstandssensoren bei hoher Genauigkeit zu erzielen.
  • Die Aufgabe löst die vorliegende Erfindung im Wesentlichen dadurch, dass der dem Bildverarbeitungssensor zugeordnete, zweidimensional ausgedehnte, aus mehreren lichtempfindlichen Bereichen, wie Pixeln, bestehende Empfänger, wie CCD-Matrix-Kamera oder CMOS-Matrix-Kamera, wahlweise zur Aufnahme von Bildern für den Bildverarbeitungssensor, aber auch zur Erzeugung des Messsignals des Abstandssensors eingesetzt wird, ohne dass eine Differenzdiode benötigt wird.
  • Es wird also die Fläche eines Matrixsensors wie Kamera verwendet, um eine Differenzdiodenanordnung quasi zu simulieren (Differenzmethode). Da die Empfängerfläche von Kameras zumeist deutlich größer ist, ca. 3 mm bis ca. 30 mm Kantenlänge, sind deutlich größere Messbereiche möglich als bei Differenzdioden, die beispielsweise nur einige Zehntel Millimenter Empfängerfläche besitzen und entsprechend detektierbare Verlagerungen des Messstrahls erlauben.
  • Ein weiterer Vorteil des erfindungsgemäßen Verfahrens ist, dass der gesamte Messstrahl des Abstandssensors stets mit dem Empfänger detektiert wird. Dies erlaubt eine Bestimmung der Gesamtmessstrahlintensität, wodurch ein normiertes Messsignal zur Verfügung gestellt wird, das unabhängig von der Stabilität der Lichtquellen und den Reflexionseigenschaften der Messobjektoberfläche ist. Die Kennlinie wird damit unabhängig vom Messobjekt und unabhängig von der Lichtquelle. Eine Intensitätsregelung oder pulsen kann entfallen.
  • Zudem wird eine kompaktere Anordnung für ein Sensorsystem bestehend aus Bildverarbeitungs- und Abstandssensor erreicht, da auf das Ausspiegeln des Strahlengangs des Abstandssensors aus dem Strahlengang des Bildverarbeitungssensors und eine Differenzdiode verzichtet wird. Dies spart zudem Kosten.
  • Die Simulation der Differenzdiodenfunktion wird erreicht, indem die Fläche der Kamera in beispielsweise zwei aneinandergrenzende Bereiche aufgeteilt wird. Die von den jeweils bestrahlten Pixeln gemessenen Intensitäten werden je Bereich aufsummiert und dann die Differenz zwischen beiden Bereichen gebildet. Die beiden Bereiche können durch das Setzen von Fenstern im angezeigten Bild leicht manuell oder automatisch festgelegt werden.
  • Verlässt der Messstrahl jedoch einen Bereich vollständig, so ist das Differenzsignal nicht mehr geeignet, einen Abstandswert zu ermitteln, das Gültigkeitsintervall bzw. der Eindeutigkeitsbereich des Differenzsignals ist verlassen. Um dennoch einen Messwert zu erhalten und gegebenenfalls eine Veränderung des Abstandes zwischen Messobjekt und Sensorsystem derart zu regeln, dass der Messstrahl in Richtung zur Messbereichsmitte zurückkehrt, wie dies beispielsweise beim scannenden Einsatz von Abstandssensoren notwendig sein kann, wird erfindungsgemäß vorgeschlagen, den Ort des Strahlschwerpunktes auf dem Empfänger zu ermitteln (Strahlschwerpunktsmethode). In Messbereichsmitte würde der Strahlschwerpunkt genau mittig zwischen den beiden definierten Bereichen liegen, die für die Simulation der Differenzdiodenfunktion benutzt werden, der Messbereichsrand reicht aber nun bis zum Rand des Empfängers, wodurch der Messbereich bzw. der Regelbereich deutlich vergrößert wird. Die Strahlschwerpunktsmethode ist im Allgemeinen etwas ungenauer, da das Verfahren der photometrischen Mitte weniger empfindlich ist, also eine flachere Kennlinie besitzt, und wird deshalb bevorzugt zum Zurückregeln in Richtung der Messbereichsmitte verwendet, um dann wieder nach der Differenzmethode zu messen.
  • Für das Umschalten zwischen beiden Methoden, das beispielhaft an den Grenzen des Gültigkeitsintervalls, besser jedoch am Rand des linearen Bereiches der Kennlinie, des Differenzsignals erfolgt, werden beispielhafte zwei Möglichkeiten vorgeschlagen. Zum einen kann festgestellt werden, ob die Position des Strahlschwerpunktes einen vorgegebenen Teilbereich auf dem Empfänger verlässt, also eine vorgegebene Entfernung zur Messbereichsmitte vorliegt. Es kann aber auch das auf die gesamte Messstrahlintensität normierte Differenzsignal beurteilt werden. Fällt es unter einen festgelegten unteren Schwellwert oder übersteigt es einen festgelegten oberen Schwellwert, wird auf die Schwerpunktsmethode umgeschaltet.
  • Eine mögliche Strahlschwerpunktsmethode ist die Bestimmung der photometrischen Mitte. Andere Verfahren unter Verwendung von Bilderkennungs- oder Bildverarbeitungsalorithmen sind ebenso einsetzbar, wie beispielsweise Schwellwert basierte Verfahren.
  • Damit beide Sensoren des Sensorsystems, Bildverarbeitung und Abstandssensor, im gleichen Koordinatenmesssystem messen können, werden sie zueinander bzw. zum Geräte-Koordinatensystem eingemessen. Dies ist mit der vorliegenden Erfindung besonders einfach und genau, da der gleiche Empfänger verwendet wird. Zudem wird eine etwa auftretende Drift zwischen beiden Sensoren deutlich verringert, da nicht nur große Teile des Strahlengangs gemeinsam verwendet werden, sondern eben auch der Empfänger. Messgrößen, aus den Messwerten beider Sensoren kombiniert, besitzen damit eine besonders hohe Genauigkeit.
  • Um die zueinander eingemessenen Messbereichsmitten werden die jeweiligen Kennlinien des Abstandssensors aufgezeichnet, also die Änderung des vom Empfänger nach der jeweiligen Auswertemethode (Differenzmethode oder Strahlschwerpunktsmethode) generierten Messsignals in Abhängigkeit zum Abstand bzw. der Abstandsänderung bzgl. der Messbereichsmitte. Unabhängigkeit von der Lichtleistung der Lichtquelle und von den Reflexionseigenschaften der Messobjektoberfläche wird durch Verwendung des auf die gesamte Messstrahlintensität normierten Differenzsignals als Messsignal erreicht.
  • Neben dem erhöhten Messbereich für den Abstandssensor, durch die größere zur Verfügung stehende Empfängerfläche, bei gleicher oder erhöhter Genauigkeit, sinkt zudem der Justieraufwand. Der reflektierte Messstrahl des Abstandssensors ist direkt auf der Kamera beobachtbar, zudem kann auf eine genaue Justierung auf die Mitte des Empfängerbereiches der Kamera auch verzichtet werden. Die vorliegende Position des Messstrahles in Messbereichsmitte kann vorzugsweise gespeichert werden, um beim späteren Messen als Vergleich zu dienen.
  • Weiterer Vorteil der Erfindung ist die gute Beobachtbarkeit des reflektierten Messstrahls des Abstandssensors. Hierdurch können für sämtliche Bereiche des Strahlquerschnitts, sämtliche Abstände und damit Messpositionen auf der Kamera und sämtliche Reflexionseigenschaften unterschiedlicher Messobjekte eine Beurteilung des reflektierten Messstrahls erfolgen. Dies wird erfindungsgemäß beispielsweise ausgenutzt, um zu verhindern, dass Überstrahlungen einzelner Kamerapixel auftreten. Hierdurch würden Messfehler durch Nichtlinearitäten, ausgelöst durch die Sättigung der Kamerapixel, auftreten. Erfindungsgemäß wird deshalb die Belichtungs- bzw. Integrationszeit der Kamera entsprechend verringert bzw. angepasst, um Überstrahlungen zu vermeiden, abhängig von den sich ändernden Oberflächeneigenschaften des Messobjekts oder sich ändernder Lichtleistung der Lichtquelle. Eine interne Intensitätsregelung der Lichtquelle oder pulsen kann damit entfallen. Es ergibt sich zudem die Möglichkeit, mit möglichst hoher Intensität der Messstrahlung zu arbeiten, also maximaler Lichtintensität der Lichtquelle des Abstandssensors. Dies führt zu geringeren Messabweichungen durch verbessertes Signal-Rausch-Verhältnis aufgrund geringerem Photoelektronenrauschen in der Kamera. Zudem sind höhere Messgeschwindigkeiten, also höhere Abtastfrequenzen möglich, wodurch beim Einsatz zum Scannen schnellere Messbewegungen ermöglicht werden. Vorteilhaft ist die kurze Integrationszeit der Kamera hierbei auch, um Verzerrungen durch die Bildaufnahme während der Bewegung, sogenannte Bewegungsunschärfe, zu verringern.
  • Erfindungsgemäß lässt sich die Kameraintegrationszeit noch weiter verringern oder noch bessere Signal-Rausch-Verhältnisse erzielen, indem mehrere nacheinander aufgenommene Bilder überlagert werden. Hierzu werden die Intensitäten der einzelnen Pixel der mehreren Bilder addiert. Um Bewegungsunschärfe zu vermeiden, werden vorzugsweise zusätzlich die einzelnen Bilder vor der Überlagerung entsprechend ihrer Aufnahmepositionen zueinander ausgerichtet, also verschoben und vorzugsweise mittels Resampling in ein gemeinsames Pixelraster überführt. Dies setzt voraus, dass die Aufnahmeposition jedes Bildes bestimmt wird oder ermittelbar ist, beispielsweise durch zur Bildaufnahme zeitgleiches Auslesen der Achspositionen des Koordinatenmessgerätes, durch Interpolation aus den Positionen räumlich benachbarter Bilder oder mittels Korrelationsverfahren zwischen den Bildern.
  • Insbesondere wird die der Erfindung zugrunde liegende Aufgabe durch ein Verfahren zur Bestimmung von Merkmalen an einem Messobjekt mit einem optischen Sensorsystem, welches vorzugsweise in ein Koordinatenmessgerät integriert ist, wobei das Sensorsystem aus einem Bildverarbeitungssensor und einem Abstandsensor, vorzugsweise nach einem Triangulationsprinzip wie Foucaultschen Schneidenprinzip arbeitend, besteht, im Wesentlichen dadurch gelöst, dass der dem Bildverarbeitungssensor zugeordnete, zweidimensional ausgedehnte, aus mehreren lichtempfindlichen Bereichen, wie Pixeln, bestehende Empfänger, wie CCD-Matrix-Kamera oder CMOS-Matrix-Kamera, wahlweise zur Aufnahme von Bildern für den Bildverarbeitungssensor oder zur Erzeugung des Messsignals des Abstandssensors eingesetzt wird.
  • Bevorzugterweise ist vorgesehen, dass zur Abstandsmessung mit dem Abstandssensor die Position eines vom Messobjekt reflektierten Lichtstrahls oder Strahlenbündels auf dem Empfänger bestimmt wird, indem:
    • – ein Differenzsignal aus den Summensignalen, vorzugsweise Summensignalen der gemessenen Intensitäten der einzelnen lichtempfindlichen Elemente, aus zumindest zwei unterschiedlichen Bereichen des Empfängers, vorzugsweise in der Mitte des Empfängers aneinandergrenzenden gleich großen Bereichen, bestimmt wird und/oder
    • – der Strahlschwerpunkt, vorzugsweise photometrische Mitte, durch Auswertung der Intensitäten der einzelnen lichtempfindlichen Elemente zumindest eines Teilbereiches des Empfängers bestimmt wird.
  • Insbesondere zeichnet sich die Erfindung dadurch aus, dass der Nulldurchgang des Differenzsignals die Messbereichsmitte des Abstandssensors definiert und vorzugsweise zur Aufnahme von Messpunkten mit dem Abstandssensor das Messobjekt und das Sensorsystem durch die Bewegungsachsen des Koordinatenmessgerätes relativ zueinander so angeordnet werden, dass das Differenzsignal in einem vorgebbaren Bereich um den Nulldurchgang vorliegt.
  • Bevorzugterweise sieht die Erfindung vor, dass der Strahlschwerpunkt für die Abstandsmessung eingesetzt wird, wenn das Differenzsignal außerhalb eines vorgebbaren Intervalls wie Gültigkeitsintervalls oder linearen Bereichs liegt, wobei das Verlassen des Intervalls erkannt wird, wenn die Position des Strahlschwerpunktes einen vorgegebenen Teilbereich auf dem Empfänger verlässt oder wenn das normierte Differenzsignal einen oberen Schwellwert überschreitet oder einen unteren Schwellwert unterschreitet.
  • Hervorzuheben ist des Weiteren, dass zur Erzeugung des Lichtstrahls bzw. des Strahlenbündels für den Abstandssensor eine Lichtquelle, wie Laserdiode, LED oder Superlumineszenzdiode, verwendet wird, deren Licht an einer Schneide vorbei in den optischen Strahlengang des Bildverarbeitungssensors eingespiegelt wird.
  • Bevorzugterweise ist vorgesehen, dass die Intensität der Lichtquelle möglichst hoch eingestellt wird, und zwar so weit, das für keines der Pixel des Empfängers eine Überstrahlung vorliegt, wobei die Integrationszeit des Empfängers, also die Belichtungsdauer je Bildaufnahme, möglichst kurz eingestellt wird und vorzugsweise mehrere kurz belichtete Bilder überlagert werden, die vorzugsweise entsprechend ihrer Aufnahmeposition zueinander ausgerichtet wurden, vorzugsweise mittels Resampling-Verfahren.
  • Die Erfindung zeichnet sich auch dadurch aus, dass zur Erhöhung der Messfrequenz des Empfängers lediglich Teilbereiche des Empfängers, vorzugsweise die Teilbereiche, auf denen der Lichtstrahl bzw. das Strahlenbündel auftrifft, ausgelesen werden.
  • Insbesondere zeichnet sich die Erfindung dadurch aus, dass in Abhängigkeit der Intensität der Lichtquelle und/oder der Oberflächenreflektivität des Messobjektes die Integrationszeit des Empfängers so geregelt wird, dass die Summenintensität in einem vorgegebenen Teilbereich oder dem gesamten Bereich des Empfängers zwischen einem unteren und einem oberen Schwellwert liegt, wobei vorzugsweise die Integrationszeit zur Normierung der Summensignale bzw. Intensitäten der einzelnen lichtempfindlichen Elemente verwendet wird.
  • Eine erfindungsgemäße Vorrichtung zeichnet sich dadurch aus, dass zur Bestimmung von Merkmalen an einem Messobjekt mit einem optischen Sensorsystem, welches vorzugsweise in ein Koordinatenmessgerät integriert ist, wobei das Sensorsystem aus einem Bildverarbeitungssensor und einem Abstandsensor, vorzugsweise nach einem Triangulationsprinzip wie Foucaultschen Schneidenprinzip arbeitend, besteht, der dem Bildverarbeitungssensor zugeordnete, zweidimensional ausgedehnte, aus mehreren lichtempfindlichen Bereichen bestehende Empfänger, wie CCD-Matrix-Kamera oder CMOS-Matrix-Kamera, zur Aufnahme von Bildern für den Bildverarbeitungssensor und zur Erzeugung des Messsignals des Abstandssensors einsetzbar ist und keine getrennte Differenzphotodiodenanordnung zur Erzeugung des Messsignals des Abstandssensor eingesetzt wird.
  • Hervorzuheben ist insbesondere, dass zur Erzeugung des Lichtstrahls bzw. des Strahlenbündels für den Abstandssensor eine Lichtquelle, wie Laserdiode, LED oder Superlumineszenzdiode, eine Schneide und Mittel zur Einspiegelung in den optischen Strahlengang des Bildverarbeitungssensors, wie teildurchlässiger Umlenkspiegel oder Teilerwürfel, im Sensorsystem integriert sind.
  • Beim Einsatz von Abstandsensoren wird häufig eine schmalbandige Lichtquelle eingesetzt. Die zur Abbildung auf das Objekt eingesetzte Optik wird zu Erzielung genauer Ergebnisse auf die Wellenlänge der Lichtquelle korrigiert, wodurch Verzeichnungen oder andere Abbildungsfehler zumindest für einen eingeschränkten Wellenlängenbereich vermieden werden, für die anderen Wellenlängen jedoch zumeist vergrößert werden. Sollen Abstandsensor und ein Bildverarbeitungssensor zumindest teilweise einen gemeinsamen Strahlengang nutzen muss auch dieser auf die entsprechende Wellenlänge optimiert sein. Hierdurch entstehen für den für meist einen größeren Spektralbereich eingesetzten Bildverarbeitungssensor vergrößerte Abbildungsfehler für Wellenlängen verschieden von der der Lichtquelle des Abstandssensors. Insbesondere treten für die verschiedenen Wellenlängen unterschiedliche Fokuslängen und damit Arbeitsabstände auf, bezeichnet als chromatische Aberration. Insbesondere beim Messen an farbigen Bildern sind also einige Farben unscharf (sogenannte Farbfehler), wodurch Messfehler entstehen. Aber auch wenn Schwarz-Weiß-Bilder aufgenommen werden, sind unscharfe Anteile der nicht korrekt fokussierten Wellenlängen überlagert und es entstehen Messfehler.
  • Zur Lösung dieses Problems ist eigenerfinderisch vorgesehen, dass der Bildverarbeitungssensor eine Optik beinhaltet, die eine Zoomoptik mit von der Vergrößerung unabhängig einstellbarem Arbeitsabstand oder eine Optik mit festem Arbeitsabstand und fester Vergrößerung ist, wobei die Optik für eine vorgegebene Lichtwellenlänge optimiert ist, wobei die Wellenlänge vorzugsweise der Wellenlänge der Lichtquelle für den Abstandssensor entspricht.
  • Hierdurch ist es möglich, für die verschiedenen Wellenlängen der Beleuchtung auftretenden Fokuslängen durch Veränderung des Arbeitsabstandes der Zoomoptik, insbesondere durch Bewegung der in der Zoomoptik enthaltenen Linsengruppen, zu korrigieren oder durch Veränderung des Abstandes zwischen einer Optik mit festem Arbeitsabstand oder der Zoomoptik und dem Messobjekt einzustellen. Eine Zoomoptik mit variablem Arbeitsabstand ist beispielhaft in der EP 1071922 A1 beschrieben. Sie dient hierbei der Erzielung eines großen Messbereiches an Geometrien mit großen Unterschieden im Profilverlauf, nicht aber der Korrektur von Farbfehlern. Zudem ist sie nicht auf die Wellenlänge der Lichtquelle des Abstandssensors optimiert.
  • Der Erfindung zeichnet sich also auch dadurch aus, dass der Abstand zwischen Messobjekt und Sensorsystem entsprechend des abhängig von der Wellenlänge des erfassten Lichtes vorliegenden Arbeitsabstandes der Optik, eingestellt wird, also chromatische Aberrationen, sogenannte Farbfehler, reduziert werden.
  • Besonders hervorzuheben ist des Weiteren, dass als Beleuchtung für die Messung mit dem Bildverarbeitungssensor eine Durchlichtbeleuchtung und/oder eine Auflichtbeleuchtung wie Hellfeldauflichtbeleuchtung und/oder Dunkelfeldauflichtbeleuchtung wie Ringlicht, mit der Wellenlänge betrieben wird, für die die Optik optimiert ist.
  • Bevorzugterweise sieht die Erfindung vor, dass als Beleuchtung für die Messung mit dem Bildverarbeitungssensor eine Durchlichtbeleuchtung und/oder eine Auflichtbeleuchtung, wie Hellfeldauflichtbeleuchtung und/oder Dunkelfeldauflichtbeleuchtung wie Ringlicht, mit umschaltbarer Wellenlänge betrieben wird, vorzugsweise durch den Einsatz von Mehrfarben-LEDs wie RGB-LEDs mit getrennt ansteuerbaren Farbkanälen.
  • Hierdurch ist es möglich, eine Bild zu erzeugen, dass dem eines mit weißem Licht beleuchteten Bildes entspricht, bei dem die Optik für keine der Wellenlängen Abbildungsfehler aufweisen würde. Dies ist jedoch technisch mit einer einzigen Optik nicht möglich. Erfindungsgemäß wird daher eine Lichtquelle eingesetzt, die einzelne Wellenlängen bzw. Wellenlängenbereiche erzeugt, die überlagert weißes Licht ergeben würden. Es wird jedoch für jeden Wellenlängenbereich ein gesondertes Bild mittels einer Farbkamera als Empfänger aufgenommen und der entsprechend wellenlängenrichtige Abstand zwischen Sensor und Messobjekt eingestellt. Die Teilbilder werden anschließend fusioniert, um ein für alle Wellenlängen scharfes Farbbild zu erzeugen.
  • Alternativ wird das Farbbild aus Einzelaufnahmen bei stets weißer Beleuchtung, aber variierender Kamerawellenlängenempfindlichkeit erzeugt, wobei auch hier jeweils der wellenlängenrichtige Abstand zwischen Sensor und Messobjekt eingestellt wird.
  • Die Erfindung sieht also eigenerfinderisch vor, dass für Messungen mit einem Bildverarbeitungssensor der Abstand zwischen der dem Bildverarbeitungssensor zugeordneten Optik und der erfassten Oberfläche des Messobjektes und/oder der Arbeitsabstand der Optik entsprechend der jeweils ausgewerteten Wellenlänge der Beleuchtung so eingestellt wird, dass die Oberfläche des Messobjekts, abhängig von den Eigenschaften der Optik, jeweils im Scharfbereich der Optik angeordnet ist, wobei vorzugsweise nacheinander mehrere Bilder aufgenommen und zu einem Gesamtbild kombiniert werden, wobei jeweils unterschiedliche Wellenlängen der Beleuchtung ausgewertet werden und der Abstand und/oder Arbeitsabstand jeweils entsprechend eingestellt wird.
  • Des Weiteren zeichnet sich die Erfindung dadurch aus, dass dem Bildverarbeitungssensor eine Optik zugeordnet ist, die einen einstellbaren Arbeitsabstand besitzt, vorzugsweise eine Zoomoptik mit von der Vergrößerung unabhängig einstellbarem Arbeitsabstand, oder die eine Optik mit festem Arbeitsabstand und fester Vergrößerung ist, wobei der Abstand zwischen der Optik und der erfassten Oberfläche des Messobjektes durch Änderung des Arbeitsabstandes und/oder durch Bewegen des Sensorsystems und/oder des Messobjektes mittels des Koordinatenmessgeräts eingestellt wird.
  • Bevorzugterweise sieht die Erfindung vor, dass Messungen aus unterschiedlichen ausgewerteten Wellenlängen der Beleuchtung erzeugt werden, indem mehrere Bilder bei Beleuchtungen unterschiedlicher Wellenlänge und/oder unterschiedlicher Kamerawellenlängenempfindlichkeit aufgenommen werden, wobei vorzugsweise die einzelnen unterschiedlichen ausgewerteten Wellenlängen überlagert weißes Licht ergeben würden.
  • Insbesondere sieht die Erfindung also vor, dass zur Erzeugung eines Farbbildes als Empfänger eine Farbkamera eingesetzt wird und mehrere Bilder bei Beleuchtungen unterschiedlicher Wellenlänge und/oder bei unterschiedlichen Kamerawellenlängenempfindlichkeiten zu einer Gesamtaufnahme kombiniert werden, wobei für jede der verwendeten Wellenlängen der Arbeitsabstand der Zoomoptik und/oder durch Bewegen des Sensorsystems und/oder des Messobjektes mittels des Koordinatenmessgeräts der Abstand zwischen Messobjekt und Optik bzw. Zoomoptik so eingestellt wird, dass der der Wellenlänge der Beleuchtung bzw. höchsten Kameraempfindlichkeit zugeordnete Arbeitsabstand eingehalten wird, die Oberfläche des Messobjekts also jeweils im Scharfbereich der Optik angeordnet ist.
  • Des Weiteren zeichnet sich die Erfindung dadurch aus, dass die Kombination der mehreren Bilder zur Erzeugung eines Farbbildes durch kanalabhängige Überlagerung der Intensitäten der Einzelbilder erfolgt, wobei vorzugsweise die Kanäle farbselektiv sind, wie RGB-Kanäle oder CMYK-Kanäle, oder über die Komponenten Farbton, Sättigung und Hellwert (HSV/HSB) definiert sind oder durch andere Farbräume wie YUV, CIELab oder ähnliche definiert sind.
  • In einer weiteren alternativen erfindungsgemäßen Idee wird die Beleuchtung für die Messung mit dem Bildverarbeitungssensor mit umschaltbarer Wellenlänge betrieben und eine Schwarz-Weiß-Kamera zur Auswertung der Bilder bei unterschiedlichen Beleuchtungswellenlängen eingesetzt. Es wird nun wieder für jeden Wellenlängenbereich ein gesondertes Bild mittels einer Schwarz-Weiß-Kamera als Empfänger aufgenommen und der entsprechend wellenlängenrichtige Abstand zwischen Sensor und Messobjekt eingestellt. Die Teilbilder werden anschließend fusioniert, um ein für alle Wellenlängen scharfes Bild zu erzeugen. Dieses Bild ist zunächst ein Schwarz-Weiß-Bild, dass zur Auswertung verwendet werden kann. Im Vergleich zur herkömmlichen Aufnahme eines Einzelbildes mit einer Schwarz-Weiß-Kamera bei Verwendung einer einfarbigen oder mehrfarbigen bzw. weißen Beleuchtung besteht der Vorteil dieses Vorgehens darin, dass jeweils nur scharf abgebildete Anteile zur Bilderzeugung beitragen und trotzdem mehrere Wellenlängen der Beleuchtung eine vollständige Abbildung aller Details des Objektes, die unter Umständen nur bei ausgewählten Wellenlängen der Beleuchtung sichtbar sind, ermöglichen. Zusätzlich wird bei der Überlagerung der einzelnen Schwarz-Weiß-Bilder erfindungsgemäß jedes der Bilder in ein farbiges, vorzugsweise einfarbiges Bild, der Wellenlänge bzw. Wellenlängen umgewandelt, mit der die Beleuchtung das Objekt jeweils beleuchtet hat. Hierdurch entsteht bei Überlagerung der farbigen Einzelbilder wieder ein auswertbares bzw. anzeigbares Farbbild.
  • Die Erfindung sieht also auch vor, dass zur Erzeugung eines Schwarz-Weiß-Bildes und/oder eines Farbbildes als Empfänger eine Schwarz-Weiß-Kamera eingesetzt wird und mehrere Bilder bei Beleuchtungen unterschiedlicher Wellenlänge zu einer Gesamtaufnahme kombiniert werden, wobei für jede der verwendeten Wellenlängen der Arbeitsabstand der Zoomoptik und/oder durch Bewegen des Sensorsystems und/oder des Messobjektes mittels des Koordinatenmessgeräts der Abstand zwischen Messobjekt und Optik bzw. Zoomoptik so eingestellt wird, dass der der Wellenlänge der Beleuchtung zugeordnete Arbeitsabstand eingehalten wird, die Oberfläche des Messobjekts also jeweils im Scharfbereich der Optik angeordnet ist.
  • Da den mehreren Bildern mit den unterschiedlich ausgewerteten Wellenlängen jeweils der entsprechend eingestellte Arbeitsabstand bzw. Abstand zwischen Optik und Objekt zugeordnet ist, werden den jeweils ausgewerteten Bereichen auch Koordinaten in Abbildungsrichtung des Bildverarbeitungssensors zugeordnet. Mit Hilfe dieser Koordinaten wird sodann das Höhenprofil des Objektes bestimmt.
  • Bevorzugterweise sieht die Erfindung daher vor, dass aus den mehreren, bei unterschiedlichen ausgewerteten Wellenlängen aufgenommenen Bildern ein Höhenprofil des Messobjektes ermittelt wird, also der Abstand mehrerer Messpunkte auf dem Messobjekt zum Bildverarbeitungssensor.
  • Anstatt den entsprechend wellenlängenrichtigen Abstand zwischen Sensor und Messobjekt einzustellen ist es erfindungsgemäß auch möglich, die Fokussierung rechnerisch vorzunehmen. Für verschiedene ausgewertete Wellenlängen wird also der Abstand zwischen Optik und Objekt konstant gehalten und die Bilder jeweils durch Entfaltung in scharfe Bilder umgerechnet. Hierzu ist die Kenntnis der Abbildungseigenschaften der eingesetzten Optik notwendig.
  • In einer alternativen Idee sieht die Erfindung auch vor, dass für Messungen mit einem Bildverarbeitungssensor mehrere Bilder bei verschiedener ausgewerteter Wellenlänge der Beleuchtung aufgenommen werden und die Fokussierung zumindest eines der Bilder rechnerisch erfolgt, vorzugsweise durch Entfaltung, vorzugsweise unter Berücksichtigung der Abbildungseigenschaften der eingesetzten Optik.
  • Eine eigenerfinderische Vorrichtung sieht vor, dass der Bildverarbeitungssensor eine Optik beinhaltet, die eine Zoomoptik mit von der Vergrößerung unabhängig einstellbarem Arbeitsabstand oder eine Optik mit festem Arbeitsabstand und fester Vergrößerung ist, wobei die Optik für eine vorgegebene Lichtwellenlänge optimiert ist, wobei die Wellenlänge vorzugsweise der Wellenlänge der Lichtquelle für den Abstandssensor entspricht.
  • Bevorzugterweise ist vorgesehen, dass eine Durchlichtbeleuchtung und/oder eine Auflichtbeleuchtung, wie Hellfeldauflichtbeleuchtung und/oder Dunkelfeldauflichtbeleuchtung wie Ringlicht, mit dem Sensorsystem verbunden ist und mit der Wellenlänge betreibbar ist, für die die Optik optimiert ist.
  • Besonders hervorzuheben ist des Weiteren, dass eine Durchlichtbeleuchtung und/oder eine Auflichtbeleuchtung, wie Hellfeldauflichtbeleuchtung und/oder Dunkelfeldauflichtbeleuchtung wie Ringlicht, mit dem Sensorsystem verbunden ist und mit unterschiedlichen Wellenlänge betreibbar ist, wobei vorzugsweise Mehrfarben-LEDs wie RGB-LEDs mit getrennt ansteuerbaren Farbkanälen eingesetzt werden.
  • Eine erfindungsgemäße Vorrichtung sieht vor, dass für Messungen mit einem Bildverarbeitungssensor der Abstand zwischen der dem Bildverarbeitungssensor zugeordneten Optik und der erfassten Oberfläche des Messobjektes und/oder der Arbeitsabstand der Optik entsprechend der ausgewerteten Wellenlänge der Beleuchtung so einstellbar ist, vorzugsweise durch den Einsatz einer Optik mit einstellbaren Arbeitsabstand und/oder durch Bewegen des Sensorsystems und/oder des Messobjektes mittels des Koordinatenmessgeräts, dass die Oberfläche des Messobjekts, abhängig von den Eigenschaften der Optik, im Scharfbereich der Optik anordenbar ist, vorzugsweise Messungen mit unterschiedlichen ausgewerteten Wellenlängen der Beleuchtung kombinierbar sind, vorzugsweise eine Kamera wie Schwarz-Weiß-Kamera, oder Farbkamera mit unterschiedlichen einstellbaren Wellenlängenempfindlichkeit, verwendbar ist.
  • Die erfindungsgemäße Vorrichtung zeichnet sich auch dadurch aus, dass eine dispersive Optik mit chromatischer Aberration, also sogenannten Farbfehlern, eingesetzt wird, der Arbeitsabstand also von der Wellenlänge abhängig unterschiedlich ist.
  • In einer besonderen Ausgestaltung der Erfindung wird die durch die Optimierung der eingesetzten Optik oder Zoomoptik auf eine Wellenlänge, vorzugsweise die Wellenlänge der Lichtquelle des Abstandssensors, verstärkt vorliegende chromatische Aberration gezielt ausgenutzt, um das Prinzip eines chromatischen Abstandssensors einzusetzen. Chromatische Abstandssensoren nutzen die unterschiedlichen Fokuslängen der verwendeten breitbandigen Messstrahlung. Abhängig vom Abstand zwischen Sensor und Messobjekt wird also immer nur eine Wellenlänge scharf abgebildet. Dies bedeutet, dass für die entsprechende Wellenlänge die höchste Strahlleistungsdichte auf der Empfängeroberfläche vorliegt. Um diese Wellenlänge zu ermitteln und dadurch den Anstand zum Messobjekt zu bestimmen, existieren mehrere Möglichkeiten. Zunächst erfolgt zumeist durch Anordnen einer Konfokalblende im bildseitigen Strahlengang eine Schwächung der Intensität bzw. Ausblendung der Wellenlängen, die nicht auf die Messobjektoberfläche fokussiert sind. Nach dem Stand der Technik dient hierzu beispielsweise die Eintrittsöffnung einer Lichtleitfaser. Erfindungsgemäß wird eine gesonderte Blende in den Strahlengang eingebracht und für Messungen mit dem Bildverarbeitungssensor automatisch entfernt, z. B. ausgeschwenkt. Zudem lässt sich die Messgenauigkeit weiter erhöhen, wenn auch objektseitig eine Konfokalblende, meist direkt vor der Lichtquelle, eingesetzt wird. Nach Durchlaufen der bildseitigen Konfokalblende wird die verbleibende intensitätsstärkste Wellenlänge durch einen wellenlängenempfindlichen Detektor wie Spektrometer bestimmt. Hierzu wird beispielsweise ein Prima eingesetzt, um die einzelnen Wellenlängen örtlich aufzuspalten und auf einen Detektor wie CCD-Zeile oder ähnliches abzubilden. Die Position auf der CCD-Zeile mit der höchsten Intensität entspricht dann der gesuchten Wellenlänge. Hierzu ist lediglich eine Schwarz-Weiß-Kamera notwendig. Eine zweite Möglichkeit besteht darin, die intensitätsstärkste Wellenlänge mit einer Farbkamera direkt zu bestimmen, wodurch das Prisma eingespart wird und ein kompakter Aufbau erzielt wird. Die Ermittlung der gesuchten Wellenlänge erfolgt dadurch, dass die Intensitäten der einzelnen Farbkanäle der Farbkamera bestimmt und vorzugsweise ins Verhältnis gesetzt werden. Überwiegt beispielsweise der rote Kanal einer RGB-Kamera, so ist die gesuchte Frequenz nahe der Wellenlänge für Rot usw.
  • Um einen kompakten Aufbau zu erzielen wird eigenerfinderisch auch für den chromatischen Abstandssensor der Empfänger des Bildverarbeitungssensors eingesetzt.
  • Insbesondere zeichnet sich die Erfindung daher dadurch aus, dass der Empfänger des Bildverarbeitungssensors zusätzlich wahlweise zur Erzeugung des Messsignals eines chromatischen Abstandssensors eingesetzt wird, wobei dem chromatischen Abstandssensor eine breitbandige Lichtquelle wie Weißlichtquelle zugordnet ist, deren Licht in den optischen Strahlengang des Bildverarbeitungssensors eingespiegelt wird und vorzugsweise durch eine für die Bildverarbeitungsmessung ausschwenkbare Konfokalblende oder eine Vielzahl einzelner optischer Leiter, wie optischen Fasern, vorzugsweise Bildleiter verläuft.
  • Da für die chromatische Abstandsmessung prinzipbedingt, abhängig von der Apertur der eingesetzten Optik, hohe Genauigkeiten bei bevorzugten Arbeitsabständen auftreten, andererseits für die Bildverarbeitung aber zumeist abhängig von der Messaufgabe der Arbeitsabstand vom Bediener einstellbar bleiben soll, sieht die Erfindung auch vor, den Arbeitsabstand der eingesetzten Optik für die Bildverarbeitungsmessung und die chromatische Abstandsmessung unterschiedlich, also getrennt einzustellen.
  • Ein erfindungsgemäßes Verfahren sieht also vor, dass der Arbeitsabstand einer dem Bildverarbeitungssensor zugeordneten Optik, vorzugsweise Zoomoptik mit von der Vergrößerung unabhängig einstellbarem Arbeitsabstand, für die Messungen mit dem Bildverarbeitungssensor einerseits und für die Messung mit dem chromatischen Abstandssensor andererseits eingestellt wird, wobei vorzugsweise die Einstellung für den chromatischen Abstandssensor entsprechend der optimalen Apertur erfolgt.
  • Bevorzugterweise sieht die Erfindung vor, dass mittels des Empfängers des Bildverarbeitungssensors die Wellenlänge des Lichts mit der höchsten Intensität ermittelt wird, also der Wellenlänge, die beim jeweils vorliegenden Abstand zwischen Sensorsystem und Messobjektoberfläche mittels der Optik scharf abgebildet wird, um daraus den Abstand zu bestimmen.
  • Hervorzuheben ist des Weiteren, dass zur Ermittlung der Wellenlänge des Lichts mit der höchsten Intensität, das Licht durch ein wellenlängenselektives Mittel wie Prisma auf dem Empfänger örtliche aufgespalten wird und die Position der höchsten Intensität ermittelt wird, wobei als Empfänger vorzugsweise eine Schwarz-Weiß-Kamera eingesetzt wird, oder dass zur Ermittlung der Wellenlänge des Lichts mit der höchsten Intensität das Licht auf eine Farbkamera abgebildet wird und die Wellenlänge aus den Intensitäten oder dem Verhältnis der Intensitäten der Farbkanäle der Kamera berechnet wird.
  • Für alle eingesetzten Abstandssensoren ist es erwähntermaßen notwendig, eine Kennlinie einzumessen, die die Änderung des vom Empfänger generierten Messsignals in Abhängigkeit zum Abstand zum Messobjekt bzw. der Abstandsänderung bzgl. der Messbereichsmitte, angibt. Hierzu wird der Sensor bzw. das Messobjekt unter Zuhilfenahme der Bewegungsachsen des Koordinatenmessgerätes definiert aufeinanderzu und wieder weg bewegt.
  • Bevorzugterweise ist daher vorgesehen, dass der Zusammenhang zwischen dem Abstand zwischen Messobjektoberfläche und Sensorsystem und dem durch den Empfänger generierten Messsignal vorab, vorzugsweise für mehrere Wellenlängen der Beleuchtung getrennt, eingemessen wird, vorzugsweise indem der Abstand mittels des Koordinatenmessgeräts innerhalb des Messbereiches des Abstandsensors verändert wird und die Messpositionen des Koordinatenmessgerätes in die so erzeugte Kennlinie einfließen.
  • Eine erfindungsgemäße Vorrichtung zeichnet sich auch dadurch aus, dass eine dispersive Optik mit chromatischer Aberration, also sogenannten Farbfehlern, eingesetzt wird, der Arbeitsabstand also von der Wellenlänge abhängig unterschiedlich ist.
  • Eine eigenerfinderische Vorrichtung sieht vor, dass der Empfänger des Bildverarbeitungssensors zusätzlich wahlweise zur Erzeugung des Messsignals eines chromatischen Abstandssensors einsetzbar ist, wobei dem chromatischen Abstandssensor eine breitbandige Lichtquelle wie Weißlichtquelle und Mittel zur Einspiegelung des Lichts der Lichtquelle in den optischen Strahlengang des Bildverarbeitungssensors, wie teildurchlässiger Umlenkspiegel oder Teilerwürfel, und vorzugsweise eine für die Bildverarbeitungsmessung ausschwenkbare Konfokalblende oder eine Vielzahl einzelner optischer Leiter, wie optischen Fasern, vorzugsweise Bildleiter zugeordnet sind.
  • Die Vorrichtung zeichnet sich auch dadurch aus, dass der Arbeitsabstand einer dem Bildverarbeitungssensor zugeordneten Optik, vorzugsweise Zoomoptik mit von der Vergrößerung unabhängig einstellbarem Arbeitsabstand, für die Messungen mit dem Bildverarbeitungssensor einerseits und für die Messung mit dem chromatischen Abstandssensor andererseits einstellbar ist, wobei vorzugsweise die Einstellung für den chromatischen Abstandssensor entsprechend der optimalen Apertur erfolgt.
  • Hervorzuheben ist insbesondere, dass zur Ermittlung der Wellenlänge des Lichts mit der höchsten Intensität, ein wellenlängenselektives Mittel wie Prisma und eine Schwarz-Weiß-Kamera oder eine Farbkamera mit einzeln auslesbaren Farbkanälen dem chromatischen Abstandssensors zugeordnet sind.
  • In einer weiteren eigenerfinderischen Idee erfolgt die Ausbildung von Blenden zur Erzeugung eines konfokalen Strahlengangs durch den Einsatz optischer Leiter. Um möglichst kleine Blendendurchmesser zu erzielen, werden bevorzugt optische Fasern eingesetzt, beispielsweise Lichtleitfasern oder Bündel von Lichtleitfasern auch Bildleiter genannt. Diese Bündel sind vorzugsweise geordnet, es ist also bekannt oder bestimmbar, welche Faser eingangsseitig mit welcher Faser ausgangsseitig verbunden ist. Die Verwendung einer Vielzahl optischer Leiter ermöglicht es, eine konfokale Abbildung für mehrere Messpunkte eines Messfeldes zu realisieren. Sinnvoll ist es, die Anzahl der optischen Lichtleiter bis zur Anzahl der einzeln ansteuerbaren Elemente der erfindungsgemäß eingesetzten Lichtquelle oder der Anzahl der Empfängerelemente der eingesetzten Kamera zu erhöhen. Es ist jedoch auch eine noch größere Anzahl von Lichtleitern einsetzbar, wobei diese beispielsweise zu Gruppen zusammengeschaltet werden können.
  • Eine Aufgabe der Erfindung es ist, eine konfokale Bestimmung einer Vielzahl von Oberflächenmesspunkten an einem Messobjekt zu ermöglichen. Bevorzugt sollen die Messpunkte eng beieinander angeordnet in einem definierten Messfeld liegen.
  • Erfindungsgemäß wird diese Aufgabe gelöst, indem eine Vielzahl optischer Leiter verwendet wird, wobei jeder dieser Leiter einem Messpunkt zugeordnet wird.
  • Bisher ungelöst ist jedoch die Frage, wie die entstehende Vielzahl konfokaler Abbildungen ausgewertet werden soll. Nach dem Stand der Technik wird bei konfokalen Mikroskopen mittels einer rotierenden Nipkow-Scheibe eine sequentielle Abtastung der einzelnen Messpunkte realisiert. Die Nipkow-Scheibe enthält mehrere verteilt angeordnete Löcher, die als Konfokal-Blenden wirken. Durch die Rotation werden die Blenden an unterschiedliche Positionen gebracht und nacheinander Messpunkte aufgenommen. Das Messfeld wird dadurch abgerastert. Die getrennte Messung der einzelnen Messpunkte ist notwendig, um Überlagerungen bei der Abbildung räumlich benachbarter Messpunkte zu vermeiden. Nachteilig bei diesem Vorgehen ist, dass die bewegten Teile, also die rotierende Nipkow-Scheibe, Verschleiß unterliegen und die Messgeschwindigkeit durch die Mechanik begrenzt wird.
  • Die vorliegende Erfindung vermeidet die Nachteile, indem keine bewegten Teile für das Abrastern des Messfeldes verwendet werden. Um die angesprochene Überlagerung der Abbildung der einzelnen Messpunkte zu verhindern, werden die Messpunkte getrennt nacheinander beleuchtet. Dies erfolgt dadurch, dass den eingesetzten optischen Leitern einzelne oder mehrere Teilbereiche einer Lichtquelle zugeordnet werden, wobei diese Teilbereiche wie beispielsweise Pixel einer flächigen LCD- oder LED-Lichtquelle, wie beispielsweise in der Fernsehtechnik bzw. Displaytechnik eingesetzt, einzeln angesteuert, also ein- und ausgeschaltet bzw. in ihrer Intensität geregelt werden können. Hierzu können auch die aus der Projektortechnik bekannten Kippspiegel (Mikrospiegel-Array, beispielsweise DLP-Technik der Firma Texas Instruments oder ähnliches) eingesetzt werden. Hierdurch ist es also möglich, die einzelnen Messpunkte nacheinander zu beleuchten und auf einem Empfänger abzubilden. Dieser Empfänger besitzt ebenso mehrere einzeln auslesbare Elemente und ist vorzugsweise zweidimensional ausgebildet, beispielsweise in Form einer CCD- oder CMOS-Kamera. Eine eindimensionale Anordnung der einzelnen Empfängerelemente ist aber ohne Einschränkung der Erfindung ebenso möglich. Einzelnen Teilbereichen des Empfängers sind nun die einzelnen Messpunkte zugeordnet. Dies erfolgt, indem die optischen Leiter einzelnen Teilbereichen des Empfängers zugeordnet sind. Um Beleuchtungs- und Abbildungsstrahlengang zu vereinen bzw. wieder zu trennen, werden optische Teiler im Strahlengang angeordnet. Vorzugsweise befinden sich die optischen Leiter erst objektseitig des Teilers. Eine Fokussierung der Beleuchtung in die optischen Leiter wird dabei oft durch eine Fokussieroptik realisiert, die zwischen Teiler und bildseitigem Ende der optischen Leiter angeordnet ist. Weitere optische Leiter können auch zwischen dem Teiler und dem Empfänger bzw. dem Teiler und der Lichtquelle verlaufen. Objektseitig des Teilers und der optischen Leiter und der ggf. Fokussieroptik wird das Objekt angeordnet, vorzugsweise nach einer Abbildungsoptik. Alternativ kann der optische Leiter auch so ausgeführt werden, dass der Teiler und ggf. die Fokussieroptik entfallen, indem ein Y-Koppler im optischen Leiter integriert ist, und von den beiden bildseitigen Enden des optischen Teilers eines direkt zur Lichtquelle und eines direkt zum Empfänger führt.
  • Durch die getrennte Beleuchtung der einzelnen Messpunkte wird erwähntermaßen verhindert, dass es zu einer Überlagerung der Abbildungen mehrerer Messpunkte auf dem Empfänger kommt. Zusätzlich muss jedoch auch vermieden werden, dass unscharf abgebildetes Licht, welches also durch Lichtleiter verläuft, die nicht dem jeweils beleuchteten Messpunkt zugeordnet sind, auf dem Empfänger abgebildet wird. Hierzu wird erfindungsgemäß zunächst jeweils nur der Teilbereich des Empfängers ausgelesen, der dem jeweils beleuchteten Messpunkt zugeordnet ist. Nacheinander werden dann die unterschiedlichen Messpunkte des Messfeldes beleuchtet und gleichzeitig, also beispielsweise durch ein Triggerung synchronisiert, die jeweils zugeordneten Empfängerteilbereiche ausgelesen.
  • Es ist jedoch auch möglich, mehrere Messpunkte gleichzeitig aufzunehmen. Die dabei beleuchteten Messpunkte müssen lediglich auf dem Empfänger räumlich voneinander getrennt abgebildet werden, also versetzt sein, beispielsweise entsprechend eines Musters. Die einfachste Form eines solchen Musters besteht darin, das jeder beleuchtete Messpunkt in allen Richtungen von genau einem nicht beleuchteten Messpunkt umgeben ist, also jeweils in zwei Richtungen abwechselnd ein Messpunkt beleuchtet und der nächste unbeleuchtet ist. Hierdurch kann ein Viertel aller Messpunkte in einem Messtakt ermittelt werden. In den nächsten drei Takten wird das Muster in der ersten, dann der zweiten und schließlich in beiden Richtungen verschoben und jeweils zuvor unbeleuchtete Messpunkte beleuchtet und die zuvor beleuchteten nicht beleuchtet. Unter Umständen sind größere Abstände zwischen den beleuchteten Messpunkten möglich, es wird also eine größerer Abstand im Muster benötigt. Es sind dann mehr als vier Messungen mit dem jeweils verschobenen Muster notwendig, um alle Messpunkte zu erfassen. Die jeweils verschobenen Muster werden im weiteren auch als unterschiedliche Muster bezeichnet.
  • Für die konfokale Abbildung wird das objektseitige Ende der optischen Leiter in der bildseitigen Brennebene der Abbildungsoptik angeordnet.
  • Die Auswertung der jeweils ausgelesenen Teilbereiche des Empfängers kann nun auf verschiedene Weisen erfolgen. Zunächst ist eine Bildverarbeitungsmessung zur Bestimmung von Konturen in einem aus den nacheinander aufgenommenen Teilbereichen zusammen gesetzten Bild möglich. Es können erfindungsgemäß aber auch Oberflächenpunkte, die also auch Lageinformationen der Messpunkte entlang der optischen Abbildungsrichtung enthalten, bestimmt werden. Hierzu erfolgt die bekannte Helligkeitsauswertung entsprechend der Konfokaltechnik, wobei das Abrastern des Messfeldes in mehreren Abständen zwischen Sensor und Objekt wiederholt wird. Aus den Lageinformationen der Messpunkte entlang der optischen Abbildungsrichtung kann zudem ein sogenanntes Scharfbild berechnet werden. Auch die bereits beschriebene chromatische Auswertung ist möglich, beispielsweise, indem eine Farbkamera als Empfänger eingesetzt wird.
  • Ein unabhängiger Teil der Erfindung betrifft somit ein Verfahren, wobei zur Bestimmung von Messpunkten, wie Oberflächenpunkten und/oder Konturen, an einem Messobjekt, eine konfokale Abbildung mehrerer, vorzugsweise benachbarter, Bereiche der Oberfläche eines Objektes durch ein Vielzahl einzelner optischer Leiter, wie optischen Fasern, vorzugsweise Bildleiter, erfolgt, wobei die einzelnen Fasern als Konfokalblende je Messpunkt angeordnet sind.
  • Die Erfindung ist gekennzeichnet dadurch, dass die optischen Leiter jeweils unterschiedlichen Teilbereichen eines zweidimensional ausgedehnten, aus mehreren einzeln auslesbaren lichtempfindlichen Teilbereichen, wie Pixeln, bestehenden Empfänger, wie CCD-Matrix-Kamera oder CMOS-Matrix-Kamera zugeordnet sind.
  • Auch zeichnet sich die Erfindung dadurch aus, dass die optischen Leiter jeweils unterschiedlichen Teilbereichen einer zweidimensional ausgedehnten, aus mehreren einzeln ansteuerbaren Licht erzeugenden Teilbereichen bestehenden Lichtquelle, wie LCD- oder LED-Lichtquelle oder Lichtquelle mit zugeordnetem Mikrospiegel-Array mit einzeln ansteuerbaren Kippspiegelelementen, zugeordnet sind.
  • Besonders gekennzeichnet ist die Erfindung dadurch, dass für mehrere Messpunkte eine konfokale Abbildung erzeugt wird, indem das objektseitige Ende des optischen Leiters bildseitig der Optik, vorzugsweise in der bildseitigen Brennebene angeordnet ist.
  • Es ist vorgesehen, dass die Einkopplung des Lichts der Lichtquelle erfolgt, indem das bildseitige Ende des optischen Leiters in Richtung auf den Empfänger und/oder die Lichtquelle zu angeordnet ist, vorzugsweise bildseitig des optischen Leiters zumindest eine Teilerschicht und vorzugsweise eine optische Baugruppe zur Fokussierung des Lichts in das bildseitige Ende des optischen Leiters angeordnet ist oder vorzugsweise mittels Y-Verzweigung die beiden bildseitigen Enden direkt vor oder an den Empfänger und die Lichtquelle angeordnet werden.
  • Erfindungsgemäß ist auch vorgesehen, dass das Messsignal des Empfängers zur Bestimmung von Konturen einer Bildverarbeitungsauswertung unterzogen wird und/oder zur Bestimmung einer Vielzahl von Oberflächenpunkten einer Helligkeitsauswertung oder einer chromatischen Auswertung unterzogen wird.
  • Bevorzugterweise sieht die Erfindung vor, dass einer oder mehrere Oberflächenpunkte bestimmt werden, indem einer oder mehrere ausgewählte voneinander beabstandete Teilbereiche, vorzugsweise Pixel, der Lichtquelle angesteuert werden, wobei die Teilbereiche einem Muster entsprechen, und zumindest die den angesteuerten Teilbereichen der Lichtquelle zugeordneten Teilbereiche des Empfängers ausgelesen werden und vorzugsweise ein daraus resultierendes Teilbild gespeichert wird.
  • Hervorzuheben ist des Weiteren, dass nacheinander Oberflächenpunkte bestimmt werden, indem jeweils unterschiedliche Muster verwendet werden, vorzugsweise bis alle zur Messung verwendeten Teilbereiche der Lichtquelle mindestens einmal angesteuert wurden.
  • Auch zeichnet sich die Erfindung dadurch aus, dass aus den in den jeweiligen Teilbereichen des Empfängers aufgenommenen Messsignalen jeweils Oberflächenpunkte durch chromatische Auswertung berechnet werden, indem mit dem Empfänger, vorzugsweise Farbkamera, die Wellenlänge des Lichts mit der höchsten Intensität und daraus der Abstand zwischen Sensorsystem und Messobjektoberfläche ermittelt wird.
  • Es ist zudem vorgesehen, dass einer oder mehrere der zur Messung verwendeten Teilbereiche der Lichtquelle in mehreren sich unterscheidenden Abständen zwischen Sensorsystem und Messobjektoberfläche angesteuert werden, wobei vorzugsweise je Abstand bzw. Abstandsbereich ein Gesamtbild aus den Teilbildern zusammengesetzt wird, und der Abstand zwischen Sensorsystem und Messobjektoberfläche je Teilbereich ermittelt wird, indem zumindest die Lage des jeweiligen Teilbildes berücksichtigt wird, für das der jeweilige Teilbereich wie Pixel die höchsten Intensität bzw. Helligkeit besitzt.
  • Eine entsprechende unabhängige erfindungsgemäße Vorrichtung betrifft eine Vielzahl einzelner optischer Leiter, wie optischen Fasern, vorzugsweise Bildleiter, die als Konfokalblenden für mehrere Messpunkte auf der Oberfläche eines Objektes, angeordnet sind.
  • Auch zeichnet sich die erfindungsgemäße Vorrichtung dadurch aus, dass die optischen Leiter jeweils unterschiedlichen Bereichen eines zweidimensional ausgedehnten, aus mehreren einzeln auslesbaren lichtempfindlichen Bereichen, wie Pixeln, bestehenden Empfänger, wie CCD-Matrix-Kamera oder CMOS-Matrix-Kamera zugeordnet angeordnet sind.
  • Hervorzuheben ist des Weiteren, dass die optischen Leiter jeweils unterschiedlichen Bereichen einer zweidimensional ausgedehnten, aus mehreren einzeln ansteuerbaren Licht erzeugenden Bereichen bestehenden Lichtquelle, wie LCD- oder LED-Lichtquelle oder Lichtquelle mit zugeordnetem Mikrospiegel-Array mit einzeln ansteuerbaren Kippspiegelelementen, zugeordnet angeordnet sind.
  • Bevorzugterweise sieht die Erfindung vor, dass das objektseitige Ende des optischen Leiters bildseitig der Optik, vorzugsweise in der bildseitigen Brennebene angeordnet ist.
  • Erfindungsgemäß ist auch vorgesehen, dass das bildseitige Ende des optischen Leiters in Richtung auf den Empfänger und/oder die Lichtquelle zu angeordnet ist, vorzugsweise bildseitig des optischen Leiters zumindest eine Teilerschicht zur Einkopplung des Lichts der Lichtquelle und vorzugsweise eine optische Baugruppe zur Fokussierung des Lichts in das bildseitige Ende des optischen Leiters angeordnet ist oder vorzugsweise mittels Y-Verzweigung die beiden bildseitigen Enden direkt vor oder an den Empfänger und die Lichtquelle angeordnet werden.
  • Besonders gekennzeichnet ist die Erfindung dadurch, dass ein Empfänger und/oder eine Lichtquelle mit einzeln ansteuerbaren Teilbereichen eingesetzt wird, vorzugsweise jeweils einer oder mehrere Teilbereiche unterschiedliche Muster bilden.
  • Eine weitere Möglichkeit zur Bestimmung von Oberflächenmesspunkten ist der Einsatz der für die Bildverarbeitung eingesetzten Sensorik entsprechend des in der WO03052347A2 beschriebenen Verfahrens. Nachteilig dabei ist, dass eine Relativbewegung zwischen Messobjekt und Sensorsystem ausgeführt werden muss. Hierbei sind mitunter recht große Massen zu bewegen und die Dynamik begrenzt.
  • Eine eigenerfinderische Verbesserung wird dadurch erzielt, dass die zur Einstellung des Arbeitsabstandes verstellbaren Linsen einer erfindungsgemäßen Zoomoptik verwendet werden, um die Lage des Messobjektes in Richtung der optischen Achse der Optik des Sensorsystems relativ zur Scharfebene bzw. Fokusebene der Optik zu verstellen. Es wird also die Scharfebene der Optik verstellt, das Sensorsystem selbst aber bleibt unbewegt, genauso wie das Messobjekt. Aus den erfindungsgemäß aufgenommenen Bilder in den verschiedenen Abständen zwischen Sensor und Objekt kann wiederum ein Scharfbild berechnet werden und dieses zur weiteren Auswertung, wie bereits beschrieben, verwendet werden.
  • Eine eigenständige Erfindung bezieht sich daher auf ein Verfahren, wobei zur dreidimensionalen Messung einer Oberfläche eines Objektes nach dem Autofokusprinzip mittels eines Koordinatenmessgerätes, ein optischer Sensor eingesetzt wird, wobei ein für die Oberfläche charakteristischer Parameter wie Kontrastwert in mehreren in Richtung der optischen Achse des optischen Sensors variierenden Relativlagen zwischen Oberfläche und Fokusebene des Sensors durch Aufnahme zweidimensionaler Bilder bestimmt wird, wobei die Relativlage durch Verstellen zumindest einer Linse oder Linsengruppe des optischen Sensors erfolgt und aus der Relativlage und dem charakteristischen Parameter die entlang der optischen Achse vorliegende Koordinate zumindest eines Messpunktes bestimmt wird, wobei der durch die Bilder senkrecht zur optischen Achse bestimmte Messbereich in Teilbereiche unterteilt ist, für die der charakteristische Parameter und die daraus resultierende Koordinate während der Variation der Relativlage gleichzeitig oder im Wesentlichen gleichzeitig bestimmt wird, wobei die senkrecht zur optischen Achse vorliegende Koordinate aus der senkrecht zur optischen Achse vorliegenden Position des Teilbereiches im Bild und des optischen Sensors relativ zum Objekt bestimmt wird, und wobei der Sensor relativ zum Objekt nicht verstellt wird.
  • Das erfindungsgemäße Verfahren bezieht sich auch darauf, dass ein virtuelles 2D-Bild aus den ermittelten Maxima der Kontrastwerte erzeugt und vorzugsweise angezeigt wird, wobei jedem Pixel des 2D-Bildes eine Amplitude zugeordnet wird, die dem Pixel des zur Bildaufnahme eingesetzten Matrixsensors wie CCD- oder CMOS-Kamera bei maximalem Kontrast entspricht.
  • Erfindungsgemäß ist auch vorgesehen, dass das virtuelle 2D-Bild zur Auswertung mittels Bildverarbeitungsalgorithmen zur Verfügung gestellt wird, vorzugsweise Konturen berechnet werden, vorzugsweise 3D-Konturen unter Verwendung der den Pixeln zugeordneten Koordinate in Richtung der optischen Abbildungsrichtung.
  • Eine entsprechende unabhängige erfindungsgemäße Vorrichtung beinhaltet, dass die Optik eines in ein Koordinatenmessgerät integrierten optischen Sensors mit einer Linse oder Linsengruppe zur Verstellung des Arbeitsabstandes ausgerüstet ist und für die dreidimensionalen Messung einer Oberfläche eines Objektes nach dem Autofokusprinzip geeignet ist, wobei der Messbereich senkrecht zur optischen Achse in Teilbereiche unterteilt ist.
  • Weitere Einzelheiten, Vorteile und Merkmale der Erfindung ergeben sich nicht nur aus den Ansprüchen, den diesen zu entnehmenden Merkmale – für sich und/oder in Kombination – sondern auch aus der nachfolgenden Beschreibung der Figuren.
  • Es zeigen:
  • 1 einen in einen Bildverarbeitungssensor integrierten Abstandssensor nach dem Stand der Technik,
  • 2 die Kennlinie eines Abstandssensors nach dem Stand der Technik,
  • 3 eine erfindungsgemäße Anordnung eines in einen Bildverarbeitungssensor integrierten Abstandssensors,
  • 4 die erfindungsgemäße Anordnung eines in einen Bildverarbeitungssensor integrierten Abstandssensors im Detail,
  • 5 die Kennlinie eines Abstandssensors nach dem Stand der Technik und die Kennlinien nach dem erfindungsgemäßen Verfahren,
  • 6 die erfindungsgemäße Anordnung eines Abstandssensors nach dem chromatischen Prinzip,
  • 7 eine erste erfindungsgemäße Anordnung eines Sensors mit Lichtleitern,
  • 8 eine zweite erfindungsgemäße Anordnung eines Sensors mit Lichtleitern und
  • 9 das erfindungsgemäße Verfahren zum Auslesen der Sensorsignale und das Beleuchten bei einem Sensor mit Lichtleitern.
  • 1 zeigt einen Abstandssensor nach dem Foucaultprinzip nach dem Stand der Technik. Das Licht der Lichtquelle 1 wird durch die Foucault-Schneide 2 beschnitten und entlang der Pfeile 3 und 4 auf das Messobjekt 5 mittels der Optik 7 abgebildet und an diesem in Richtung der Pfeile 6 reflektiert. Mittels des optischen Teilers 8 wird die Messstrahlung dann entlang der Pfeile 9 und 10 durch die Optik 11 auf die Differenzdiode 12 abgebildet. Abhängig von der Entfernung zwischen Messobjekt 5 und Optik 7 verlagert sich der Intensitätsschwerpunkt der Messstrahlung 10 auf der Differenzdiode 12 entlang der Richtung des Pfeils 13. Mittels des optischen Teilers 14 erfolgt die Vereinigung mit dem Strahlengang eines Bildverarbeitungssensors, hier vereinfacht nur bestehend aus Optik 15 und Empfänger 16 wie Kamera dargestellt. Bekannte Beleuchtungsquellen wie Durchlicht, Auflicht, wie Dunkelfeldauflicht oder Hellfeldauflicht, sind nicht dargestellt.
  • Anhand der 2 wird die Kennlinie eines Abstandssensors nach dem Stand der Technik beschrieben. Das aus der Differenz der beiden Empfängerbereiche der Differenzdiode 12 ermittelte Messsignal S besitzt dabei in Abhängigkeit vom Abstand A zum Messobjekt die jeweilige Amplitude D. Der Nulldurchgang des Signals S am Schnittpunkt der Achsen A und D wird als Messbereichsmitte verwendet. Im Bereichen a bis b ist das Signal noch nicht in der Sättigung, aber nur der Bereich c bis d ist eindeutig, und wird daher als Gültigkeitsbereich bezeichnet, und kann zur Messung verwendet werden. Typischerweise wird nur der lineare Teil um den Nulldurchgang als Kennlinie verwendet.
  • 3 zeigt die erfindungsgemäße Anordnung eines in einen Bildverarbeitungssensor integrierten Abstandssensors, bei dem der gleiche Empfänger 16 zur Auswertung verwendet wird, der auch für die Bildverarbeitungsmessung dient. Das Licht der Lichtquelle 1 wird wiederum durch die Schneide 2 beschnitten und mittels Teiler 8 umgelenkt. Dieser dient zugleich dem Einspiegeln in den Bildverarbeitungsstrahlengang, hier beispielhaft vereinfacht dargestellt als Optik, bestehend aus den Linsengruppen 15, 15a und 15b, und Kamera 16. Die Teiler 8 und 14 nach dem Stand der Technik nach 1 fallen damit zusammen. Nach der Reflexion am Messobjekt 5 wird das Licht der Lichtquelle 1 des Abstandssensors auf den Empfänger 16 abgebildet. Dies ist in der 4 detailliert dargestellt. Die Optik 15, 15a und 15b des Bildverarbeitungssensors kann wahlweise eine Optik mit fester Brennweite, also festem Arbeitsabstand und fester Vergrößerung sein, dann entfallen die gestrichelt dargestellten Linsenanordnungen 15a und 15b, oder eine Zoomoptik, mit unabhängig voneinander veränderbarem Arbeitsabstand und Vergrößerung, dann werden die Linsen bzw. Linsengruppen 15a und 15b entlang der Pfeile 17 verschiebbar angeordnet.
  • 4 zeigt eine detaillierte Darstellung des Empfängers 16 des Bildverarbeitungssensors im Betrieb zur Messung mit dem Abstandssensor. Eine erste Auftreffposition des Messstrahls des Abstandssensors ist mit 21 bezeichnet. In einer ersten sogenannten Differenzmethode wir die Fläche des Matrixsensors 16, die aus einer Vielzahl lichtempfindlicher Elementen 18 besteht, in die beiden Bereiche 19 und 20 unterteilt. Die in den jeweiligen Bereichen vorliegenden Intensitäten der einzelnen lichtempfindlichen Elemente 18 werden addiert und die Differenz aus den beiden Summen ergeben das Differenzsignal, ähnlich wie bei einer Differenzdiode, das proportional zum Abstand x zur Mitte zwischen den beiden Bereichen 19 und 20 ist. Aus diesem Differenzsignal ergibt sich entsprechend einer Kennlinie, die prinzipiell der Kennlinie einer Differenzdiode aus 2 gleicht, der Abstandswert. Die zweite Methode, die Strahlschwerpunktmethode wird beispielsweise verwendet, wenn der Messstrahl des Abstandssensors nicht mehr vollständig auf den beiden Bereiche 19 und 20 liegt, wie beispielhaft mit dem Bezugszeichen 22 gekennzeichnet. Anhand der Intensitätsverteilung auf sämtlichen bestrahlten lichtempfindlichen Elementen 18 wird beispielsweise mittels des Verfahrens der photometrischen Mitte der Mittelpunkt 23 des Messstrahls des Abstandssensors bestimmt und der Abstand zur Bildmitte bzw. Mitte zwischen den beiden Bereichen 19 und 20 bestimmt. Dieser muss nun mittels einer entsprechenden Kennlinie für die zweite Methode in den Abstandswert umgerechnet werden. Die Kennlinien sind in 5 dargestellt. Da die Differenzmethode empfindlicher ist, wird sie bevorzugt eingesetzt und nur bei drohendem Verlassen eines der beiden Bereiche 19 und 20 bzw. bei Verlassen des linearen Bereiches der Kennlinie nach der Differenzmethode auf die Strahlschwerpunktmethode umgeschaltet.
  • Die Anwendung der erfindungsgemäßen Strahlschwerpunktmethode erlaubt vorteilhaft den Einsatz von Filtern, beispielsweise Bildverarbeitungsfiltern. Der auf dem Empfänger 16 abgebildete Messstrahl 21 bzw. 22 ist mitunter nicht glatt begrenzt oder inhomogen ausgeleuchtet. Mittel Bildverarbeitungsfiltern können diese Effekte reduziert bzw. vermieden werden und genauere Ergebnisse bei der Ermittlung des Strahlschwerpunktes erzielt werden.
  • Unter gewissen Umständen ist es möglich, dass nicht der gesamte Bereich aller lichtempfindlichen Elemente 18 des Empfängers 16 ausgelesen werden muss, wodurch eine höhere Auslesefrequenz erreicht wird. Dies liegt beispielsweise vor, wenn die Bereiche 19 und 20 nicht bis an den Rand des Empfängers 16 reichen und nicht zu erwarten ist, das größere Abstandswerte auftreten oder erkannt werden müssen, als durch die Bereiche 19 und 20 definiert, also der Messbereich eingeschränkt ist. Auch kann auf das komplette Auslesen erst dann umgeschaltet werden, wenn eine Annäherung an die Randbereiche erfolgt. Hierzu wird das Messsignal nach Methode 1 dauerhaft überwacht. Alternativ kann aber auch das Signal nach Methode 2 parallel berechnet und überwacht werden.
  • In der 5 sind die Kennlinien S1 für die Differenzdiode, S2 für Differenzmethode und S3 für die Strahlschwerpunktmethode dargestellt. Es ist erkennbar, dass das Messsignal S2 für die Differenzmethode im linearen Bereich um den Nulldurchgang (Schnittpunkt der Achse A des Abstandes und der Achse D der Amplitude) etwas die gleiche Empfindlichkeit, gekennzeichnet durch den Anstieg, besitzt wie das Messsignal S1 der Differenzdiode. Allerdings ist der Messbereich, also der messbare Abstand entlang der Achse A, für S2 deutlich größer, gekennzeichnet durch den Bereich c2 bis d2, als für S1, gekennzeichnet durch den Bereich c1 bis d1. Aber auch außerhalb des Abstandsbereiches zwischen c2 und d2 ist erfindungsgemäß noch eine Messung möglich, indem auf die Strahlschwerpunktmethode umgeschaltet wird. Die Kennlinie S3 ist zwar unempfindlicher, gekennzeichnet durch den geringen Anstieg im linearen Bereich um den Nulldurchgang, aber erlaubt eine Messung zwischen dem größeren Abstandsbereich c3 bis d3. Die Umschaltung auf die Strahlschwerpunktmethode erfolgt spätestens beim Verlassen des Eindeutigkeitsbereiches bzw. Gültigkeitsbereiches c2 bis d2 des Signals S2, vorteilhaft jedoch schon etwas eher, nämlich wenn der lineare Bereich von S2 um den Nulldurchgang zwischen c2' und d2', verlassen wird. Dies wird erkannt, indem der entsprechende Wert des Signals S3 im Bereich zwischen c2' und d2' permanent oder in etwas größeren Abständen als die Messfrequenz für S2, überwacht wird, also auf Verlassen des Bereiches D3 bis D3' der Signalamplitude von S3 geprüft wird. Verlässt also S3 den Amplitudenbereich zwischen D3 und D3', ist der lineare Bereich von S2 verlassen und es wird mit der Strahlschwerpunktmethode gemessen. Eine weitere bevorzugte Möglichkeit, diesen Umschaltpunkt zu erkennen besteht darin, das Differenzsignals S2 nach der Differenzmethode direkt zu überwachen. Überschreitet es den oberen Schwellwert D2 oder unterschreitet es den unteren Schwellwert D2', wird auf die Strahlschwerpunktmethode umgeschaltet. Hierzu ist es jedoch notwendig, mit dem auf die gesamte Messstrahlintensität normierten Differenzsignal S2 zu arbeiten. Dies wird erfindungsgemäß bevorzugt vorgeschlagen, um Unabhängigkeit der Kennlinien von der Strahlleistung der Lichtquelle und den Reflexionseigenschaften des Messobjektes zu erreichen.
  • 6 zeigt die erfindungsgemäße Anordnung eines Abstandssensors nach dem chromatischen Prinzip, bei dem wiederum der gleiche Empfänger 16 zur Auswertung verwendet wird, der auch für die Bildverarbeitungsmessung dient. Das Licht der Lichtquelle 1, hier einer breitbandigen Lichtquelle, die beispielsweise weißes Licht ausstrahlt, wird mittels Teiler 8 in den Bildverarbeitungsstrahlengang, hier beispielhaft vereinfacht dargestellt als Optik, bestehend aus den Linsengruppen 15c und 15d, und der Kamera 16, eingespiegelt und auf das Messobjekt 5 abgebildet. Die Linsengruppe 15c besitzt hierbei einen besonders ausgeprägten Farbfehler, also chromatische Aberrationen, wodurch die unterschiedlichen Wellenlängen der Lichtquelle 1 in unterschiedlichen Entfernungen fokussiert werden. Beispielhaft ist dies durch die Wellenlängen λ1 bis λ3 veranschaulicht. Nur die Wellenlänge λ2 wir im Beispiel genau auf die Oberfläche fokussiert. Nach der Reflexion am Messobjekt 5 wird das Licht der Lichtquelle 1 durch die Linsengruppe 15d auf den Empfänger 16 abgebildet. Hierbei durchläuft es die Konfokalblende 24. Diese sorgt dafür, dass für die Wellenlänge, die am besten auf das Messobjekt 5 fokussiert ist, im Beispiel also λ2, die höchste Intensität der Abbildung des Lichtes auf dem Empfänger 16, gekennzeichnet durch das Bezugszeichen 25, vorliegt. Diese Wellenlänge wird erfindungsgemäß vorzugsweise dadurch bestimmt, dass für die vom Licht bestrahlten lichtempfindlichen Elemente 18 im Bereiche 25 die Kanäle einer Farbkamera 16 getrennt ausgelesen werden. Aus den Intensitäten oder dem Verhältnis der Intensitäten der Farbkanäle wird die Wellenlänge λ2 ermittelt und aus dieser der Abstandsmesswert.
  • Für Bildverarbeitungsmessungen kann die Konfokalblende 24 vorzugsweise entlang der Richtung des Pfeiles 26 aus dem Strahlengang des Bildverarbeitungssensors herausbewegt werden.
  • Als Optik für den Bildverarbeitungssensor kann auch die Zoomoptik entsprechend 3 eingesetzt werden.
  • In der 7 wird eine erfindungsgemäße Anordnung gezeigt, bei der eine konfokale Abbildung für mehrere Messpunkte auf dem Messobjekt 5 mittels einer Vielzahl von Lichtleitern 27 erzielt wird. Das untere Ende 28 der Lichtleiter wird dazu in der Scharfebene der Abbildungsoptik 7, 15, 15c angeordnet. Für vom Messobjekt 5 reflektierte Messstrahlung 29 der Lichtquelle 1a wirkt das untere Ende 28 der Lichtleiter dann jeweils als Konfokalblende 24. Die Anzahl der Lichtleiter beträgt hier zur Vereinfachung nur fünf, es können jedoch deutlich mehr Lichtleiter eingesetzt werden. Sinnvoll ist es, die Anzahl der Lichtleiter bis zur Anzahl der Leuchtelemente 29 der Lichtquelle oder der Anzahl der Empfängerelemente 18 zu erhöhen.
  • Die Auswertung der vom Messobjekt reflektierten Messstrahlung erfolgt mittels des Empfängers 16, der einzeln auslesbare Teilbereiche 18 wie Pixel enthält, die hier zur Vereinfachung nur in einer Dimension verteilt dargestellt sind. Vorzugsweise werden flächige Empfänger wie CCD- oder CMOS-Flächen-Kameras eingesetzt, wie beispielsweise in 6 gezeigt.
  • Die Beleuchtung erfolgt mittels einer Lichtquelle 1a, die unabhängig voneinander ansteuerbare, also zum Beispiel einschaltbare, Elemente 29, wie beispielsweise LCD- oder LED-Display-Elemente, besitzt. Mittels des teildurchlässigen Umlenkspiegels 8, 14 und der Fokussieroptik 30 wird das von den Elementen 29 abgestrahlte Licht in einen oder mehrere Lichtleiter 27 eingeleitet. Je Element 29 oder Elementgruppe werden jeweils unterschiedliche Lichtleiter zugeordnet, wobei eine teilweise Überlappung zulässig ist. Ziel ist es, durch das Ansteuern unterschiedlicher Elemente 29 der Beleuchtung, unterschiedliche Lichtleiter und damit auch unterschiedliche Messpunkte bzw. Messstellen auf dem Messobjekt zu beleuchten.
  • Für die vom Messobjekt reflektierte Strahlung wirkt die jeweils zur Beleuchtung verwendete Lichtleitfaser als Konfokalblende. Nur das Licht, dass durch diese oder gegebenenfalls einige wenige benachbarte Lichtleiter in Richtung des Empfängers verläuft, wird zur Auswertung verwendet. Dazu sind die einzelnen Lichtleiter den Elementen 18 des Empfängers zugeordnet. Von jedem Lichtleiter werden also andere Elemente 18 auf dem Empfänger mittels der Fokussieroptik 30 beleuchtet. Auch hier ist eine teilweise Überlappung zulässig.
  • Eine alternative Anordnung zur 7 zeigt die 8. Hier wird die Zuordnung der Displayelemente 29, der Lichtleiter 27 und der Empfängerelemente 18 durch direktes Anordnen erzielt. Umlenkspiegel 8, 14 und Fokussieroptik 30 entfallen. Die Strahlteilung erfolgt dabei durch die als Y-Koppler ausgeführten Lichtleiter. Die gesamte Abbildung erfolgt entlang der Pfeile 31, 29 und dann 32.
  • Das Beleuchten und Auslesen erfolgt anhand mehrerer Muster für unterschiedliche Messpunkte bzw. Beleuchtungselemente 29 bzw. Empfängerelemente 18 zeitlich nacheinander. Die unterschiedlichen Muster sind in den 9a bis 9d beispielhaft gezeigt. Mit 32 sind dabei eingeschaltete Leuchtelemente 29 und mit 33 ausgeschaltete Leuchtelemente 29 beziffert. Jeweils zwei eingeschaltete Elemente sind immer durch mindestens ein ausgeschaltetes Element voneinander getrennt. Dies ist notwendig, damit die mittels der Lichtleiter 27 jeweils zu den Leuchtelementen 29 zugeordneten Empfängerelemente 18 getrennt voneinander behandelt werden können. Die jeweils zugeordneten Empfängerelemente 18 werden also eingesetzt, um das Licht des Messpunktes auszuwerten, dass von dem zugeordneten Leuchtelement 29 beleuchtet wurde. Es soll jedoch von benachbarten Messpunkten nicht beeinflusst werden. Daher dürfen benachbarte Messpunkte nicht beleuchtet werden und damit muss auch das entsprechend zugeordnete Leuchtelement 29 ausgeschaltet sein. Andererseits dürfen auch umgebende Empfängerelemente 18 nicht ausgelesen werden, um unscharf vom Messobjekt reflektiertes Licht nicht zur Auswertung heranzuziehen. Der Empfänger 16 wird deshalb mittels eines korrespondierenden Musters ausgelesen. Es werden also jeweils nur die den beleuchteten Lichtleitern zugeordneten Empfängerelemente 18 entsprechend des jeweils vorliegenden Musters ausgelesen. Um trotzdem alle Messpunkte zu erfassen, werden nacheinander die in den 9a bis 9d dargestellten Muster verwendet. Unter Umständen ist es sinnvoll, größere Abstände zwischen den beleuchteten Elementen 32 einzuhalten um eine bessere Trennung zu erreichen. Die Anzahl der Muster steigt dann entsprechend an. Das Beleuchten und Auslesen der entsprechenden Teilbereiche muss jeweils synchron ablaufen. Hierzu werden die zum Bild auslesen verwendete Kamera 16 und die zur Beleuchtung eingesetzte Lichtquelle 1a beispielsweise mit bekannten Triggerfunktionen bzw. -leitungen angesteuert. Die Zuordnung der Teilbereiche 18 und 29 kann beispielsweise vorab experimentell, also durch eine Art Einmessen, erfolgen. Erleichtert wird dies durch den Einsatz geordneter Lichtleiterbündel, bei denen auf beiden Seiten die Anordnung entsprechender Lichtleiter gleich ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • EP 0330901 A1 [0004, 0006]
    • EP 1071922 A1 [0036]
    • WO 03052347 A2 [0096]

Claims (55)

  1. Verfahren zur Bestimmung von Merkmalen an einem Messobjekt mit einem optischen Sensorsystem, welches vorzugsweise in ein Koordinatenmessgerät integriert ist, wobei das Sensorsystem aus einem Bildverarbeitungssensor und einem Abstandsensor, vorzugsweise nach einem Triangulationsprinzip wie Foucaultschen Schneidenprinzip arbeitend, besteht, dadurch gekennzeichnet, dass der dem Bildverarbeitungssensor zugeordnete, zweidimensional ausgedehnte, aus mehreren lichtempfindlichen Bereichen, wie Pixeln, bestehende Empfänger, wie CCD-Matrix-Kamera oder CMOS-Matrix-Kamera, wahlweise zur Aufnahme von Bildern für den Bildverarbeitungssensor oder zur Erzeugung des Messsignals des Abstandssensors eingesetzt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Abstandsmessung mit dem Abstandssensor die Position eines vom Messobjekt reflektierten Lichtstrahls oder Strahlenbündels auf dem Empfänger bestimmt wird, indem: – ein Differenzsignal aus den Summensignalen, vorzugsweise Summensignalen der gemessenen Intensitäten der einzelnen lichtempfindlichen Elemente, aus zumindest zwei unterschiedlichen Bereichen des Empfängers, vorzugsweise in der Mitte des Empfängers aneinandergrenzenden gleich großen Bereichen, bestimmt wird und/oder – der Strahlschwerpunkt, vorzugsweise photometrische Mitte, durch Auswertung der Intensitäten der einzelnen lichtempfindlichen Elemente zumindest eines Teilbereiches des Empfängers bestimmt wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Nulldurchgang des Differenzsignals die Messbereichsmitte des Abstandssensors definiert und vorzugsweise zur Aufnahme von Messpunkten mit dem Abstandssensor das Messobjekt und das Sensorsystem durch die Bewegungsachsen des Koordinatenmessgerätes relativ zueinander so angeordnet werden, dass das Differenzsignal in einem vorgebbaren Bereich um den Nulldurchgang vorliegt.
  4. Verfahren nach zumindest einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass der Strahlschwerpunkt für die Abstandsmessung eingesetzt wird, wenn das Differenzsignal außerhalb eines vorgebbaren Intervalls wie Gültigkeitsintervalls oder linearen Bereichs liegt, wobei das Verlassen des Intervalls erkannt wird, wenn die Position des Strahlschwerpunktes einen vorgegebenen Teilbereich auf dem Empfänger verlässt oder wenn das normierte Differenzsignal einen oberen Schwellwert überschreitet oder einen unteren Schwellwert unterschreitet.
  5. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Erzeugung des Lichtstrahls bzw. des Strahlenbündels für den Abstandssensor eine Lichtquelle, wie Laserdiode, LED oder Superlumineszenzdiode, verwendet wird, deren Licht an einer Schneide vorbei in den optischen Strahlengang des Bildverarbeitungssensors eingespiegelt wird.
  6. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Intensität der Lichtquelle möglichst hoch eingestellt wird, und zwar so weit, das für keines der Pixel des Empfängers eine Überstrahlung vorliegt, wobei die Integrationszeit des Empfängers, also die Belichtungsdauer je Bildaufnahme, möglichst kurz eingestellt wird und vorzugsweise mehrere kurz belichtete Bilder überlagert werden, die vorzugsweise entsprechend ihrer Aufnahmeposition zueinander ausgerichtet wurden, vorzugsweise mittels Resampling-Verfahren.
  7. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Erhöhung der Messfrequenz des Empfängers lediglich Teilbereiche des Empfängers, vorzugsweise die Teilbereiche, auf denen der Lichtstrahl bzw. das Strahlenbündel auftrifft, ausgelesen werden.
  8. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit der Intensität der Lichtquelle und/oder der Oberflächenreflektivität des Messobjektes die Integrationszeit des Empfängers so geregelt wird, dass die Summenintensität in einem vorgegebenen Teilbereich oder dem gesamten Bereich des Empfängers zwischen einem unteren und einem oberen Schwellwert liegt, wobei vorzugsweise die Integrationszeit zur Normierung der Summensignale bzw. Intensitäten der einzelnen lichtempfindlichen Elemente verwendet wird.
  9. Verfahren nach vorzugsweise einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Bildverarbeitungssensor eine Optik beinhaltet, die eine Zoomoptik mit von der Vergrößerung unabhängig einstellbarem Arbeitsabstand oder eine Optik mit festem Arbeitsabstand und fester Vergrößerung ist, wobei die Optik für eine vorgegebene Lichtwellenlänge optimiert ist, wobei die Wellenlänge vorzugsweise der Wellenlänge der Lichtquelle für den Abstandssensor entspricht.
  10. Verfahren nach zumindest Anspruch 9, dadurch gekennzeichnet, dass der Abstand zwischen Messobjekt und Sensorsystem entsprechend des abhängig von der Wellenlänge des erfassten Lichtes vorliegenden Arbeitsabstandes der Optik eingestellt wird.
  11. Verfahren nach zumindest einem der Ansprüche 9 oder 10, dadurch gekennzeichnet, dass als Beleuchtung für die Messung mit dem Bildverarbeitungssensor eine Durchlichtbeleuchtung und/oder eine Auflichtbeleuchtung, wie Hellfeldauflichtbeleuchtung und/oder Dunkelfeldauflichtbeleuchtung wie Ringlicht, mit der Wellenlänge betrieben wird, für die die Optik optimiert ist.
  12. Verfahren nach zumindest einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass als Beleuchtung für die Messung mit dem Bildverarbeitungssensor eine Durchlichtbeleuchtung und/oder eine Auflichtbeleuchtung, wie Hellfeldauflichtbeleuchtung und/oder Dunkelfeldauflichtbeleuchtung wie Ringlicht, mit umschaltbarer Wellenlänge betrieben wird, vorzugsweise durch den Einsatz von Mehrfarben-LEDs wie RGB-LEDs mit getrennt ansteuerbaren Farbkanälen.
  13. Verfahren nach vorzugsweise einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für Messungen mit einem Bildverarbeitungssensor der Abstand zwischen der dem Bildverarbeitungssensor zugeordneten Optik und der erfassten Oberfläche des Messobjektes und/oder der Arbeitsabstand der Optik entsprechend der jeweils ausgewerteten Wellenlänge der Beleuchtung so eingestellt wird, dass die Oberfläche des Messobjekts, abhängig von den Eigenschaften der Optik, jeweils im Scharfbereich der Optik angeordnet ist, wobei vorzugsweise nacheinander mehrere Bilder aufgenommen und zu einem Gesamtbild kombiniert werden, wobei jeweils unterschiedliche Wellenlängen der Beleuchtung ausgewertet werden und der Abstand und/oder Arbeitsabstand jeweils entsprechend eingestellt wird.
  14. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass dem Bildverarbeitungssensor eine Optik zugeordnet ist, die einen einstellbaren Arbeitsabstand besitzt, vorzugsweise eine Zoomoptik mit von der Vergrößerung unabhängig einstellbarem Arbeitsabstand, oder die eine Optik mit festem Arbeitsabstand und fester Vergrößerung ist, wobei der Abstand zwischen der Optik und der erfassten Oberfläche des Messobjektes durch Änderung des Arbeitsabstandes und/oder durch Bewegen des Sensorsystems und/oder des Messobjektes mittels des Koordinatenmessgeräts eingestellt wird.
  15. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass Messungen aus unterschiedlichen ausgewerteten Wellenlängen der Beleuchtung erzeugt werden, indem mehrere Bilder bei Beleuchtungen unterschiedlicher Wellenlänge und/oder unterschiedlicher Kamerawellenlängenempfindlichkeit aufgenommen werden, wobei vorzugsweise die einzelnen unterschiedlichen ausgewerteten Wellenlängen überlagert weißes Licht ergeben würden.
  16. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Erzeugung eines Farbbildes als Empfänger eine Farbkamera eingesetzt wird und mehrere Bilder bei Beleuchtungen unterschiedlicher Wellenlänge und/oder bei unterschiedlichen Kamerawellenlängenempfindlichkeiten zu einer Gesamtaufnahme kombiniert werden, wobei für jede der verwendeten Wellenlängen der Arbeitsabstand der Zoomoptik und/oder durch Bewegen des Sensorsystems und/oder des Messobjektes mittels des Koordinatenmessgeräts der Abstand zwischen Messobjekt und Optik bzw. Zoomoptik so eingestellt wird, dass der der Wellenlänge der Beleuchtung bzw. höchsten Kameraempfindlichkeit zugeordnete Arbeitsabstand eingehalten wird, die Oberfläche des Messobjekts also jeweils im Scharfbereich der Optik angeordnet ist.
  17. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kombination der mehreren Bilder zur Erzeugung eines Farbbildes durch kanalabhängige Überlagerung der Intensitäten der Einzelbilder erfolgt, wobei vorzugsweise die Kanäle farbselektiv sind, wie RGB-Kanäle oder CMYK-Kanäle, oder über die Komponenten Farbton, Sättigung und Hellwert (HSV/HSB) definiert sind oder durch andere Farbräume wie YUV, CIELab oder ähnliche definiert sind.
  18. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Erzeugung eines Schwarz-Weiß-Bildes und/oder eines Farbbildes als Empfänger eine Schwarz-Weiß-Kamera eingesetzt wird und mehrere Bilder bei Beleuchtungen unterschiedlicher Wellenlänge zu einer Gesamtaufnahme kombiniert werden, wobei für jede der verwendeten Wellenlängen der Arbeitsabstand der Zoomoptik und/oder durch Bewegen des Sensorsystems und/oder des Messobjektes mittels des Koordinatenmessgeräts der Abstand zwischen Messobjekt und Optik bzw. Zoomoptik so eingestellt wird, dass der der Wellenlänge der Beleuchtung zugeordnete Arbeitsabstand eingehalten wird, die Oberfläche des Messobjekts also jeweils im Scharfbereich der Optik angeordnet ist.
  19. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus den mehreren, bei unterschiedlichen ausgewerteten Wellenlängen aufgenommenen Bildern ein Höhenprofil des Messobjektes ermittelt wird, also der Abstand mehrerer Messpunkte auf dem Messobjekt zum Bildverarbeitungssensor.
  20. Verfahren nach vorzugsweise einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für Messungen mit einem Bildverarbeitungssensor mehrere Bilder bei verschiedener ausgewerteter Wellenlänge der Beleuchtung aufgenommen werden und die Fokussierung zumindest eines der Bilder rechnerisch erfolgt, vorzugsweise durch Entfaltung, vorzugsweise unter Berücksichtigung der Abbildungseigenschaften der eingesetzten Optik.
  21. Verfahren nach zumindest einem der Ansprüche 1 oder 9 oder 13 oder 20, dadurch gekennzeichnet, dass der Empfänger des Bildverarbeitungssensors zusätzlich wahlweise zur Erzeugung des Messsignals eines chromatischen Abstandssensors eingesetzt wird, wobei dem chromatischen Abstandssensor eine breitbandige Lichtquelle, wie Weißlichtquelle, zugordnet ist, deren Licht in den optischen Strahlengang des Bildverarbeitungssensors eingespiegelt wird und vorzugsweise durch eine für die Bildverarbeitungsmessung ausschwenkbare Konfokalblende oder eine Vielzahl einzelner optischer Leiter, wie optischen Fasern, vorzugsweise Bildleiter verläuft.
  22. Verfahren nach zumindest Anspruch 13 oder Anspruch 21, dadurch gekennzeichnet, dass der Arbeitsabstand einer dem Bildverarbeitungssensor zugeordneten Optik, vorzugsweise Zoomoptik mit von der Vergrößerung unabhängig einstellbarem Arbeitsabstand, für die Messungen mit dem Bildverarbeitungssensor einerseits und für die Messung mit dem chromatischen Abstandssensor andererseits eingestellt wird, wobei vorzugsweise die Einstellung für den chromatischen Abstandssensor entsprechend der optimalen Apertur erfolgt.
  23. Verfahren nach zumindest Anspruch 21, dadurch gekennzeichnet, dass mittel des Empfängers des Bildverarbeitungssensors die Wellenlänge des Lichts mit der höchsten Intensität ermittelt wird, also der Wellenlänge, die beim jeweils vorliegenden Abstand zwischen Sensorsystem und Messobjektoberfläche mittels der Optik scharf abgebildet wird, um daraus den Abstand zu bestimmen.
  24. Verfahren nach zumindest Anspruch 23, dadurch gekennzeichnet, dass zur Ermittlung der Wellenlänge des Lichts mit der höchsten Intensität das Licht durch ein wellenlängenselektives Mittel, wie Prisma, auf dem Empfänger örtlich aufgespalten wird und die Position der höchsten Intensität ermittelt wird, wobei als Empfänger vorzugsweise eine Schwarz-Weiß-Kamera eingesetzt wird, oder dass zur Ermittlung der Wellenlänge des Lichts mit der höchsten Intensität das Licht auf eine Farbkamera abgebildet wird und die Wellenlänge aus den Intensitäten oder dem Verhältnis der Intensitäten der Farbkanäle der Kamera berechnet wird.
  25. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Zusammenhang zwischen dem Abstand zwischen Messobjektoberfläche und Sensorsystem und dem durch den Empfänger generierten Messsignal vorab, vorzugsweise für mehrere Wellenlängen der Beleuchtung getrennt, eingemessen wird, vorzugsweise indem der Abstand mittels des Koordinatenmessgeräts innerhalb des Messbereiches des Abstandsensors verändert wird und die Messpositionen des Koordinatenmessgerätes in die so erzeugte Kennlinie einfließen.
  26. Verfahren nach vorzugsweise einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Bestimmung von Messpunkten, wie Oberflächenpunkten und/oder Konturen, an einem Messobjekt, eine konfokale Abbildung mehrerer, vorzugsweise benachbarter, Bereiche der Oberfläche eines Objektes durch ein Vielzahl einzelner optischer Leiter, wie optischen Fasern, vorzugsweise Bildleiter, erfolgt, wobei die einzelnen Fasern als Konfokalblende je Messpunkt angeordnet sind.
  27. Verfahren nach zumindest Anspruch 26, dadurch gekennzeichnet, dass die optischen Leiter jeweils unterschiedlichen Teilbereichen eines zweidimensional ausgedehnten, aus mehreren einzeln auslesbaren lichtempfindlichen Teilbereichen, wie Pixeln, bestehenden Empfänger, wie CCD-Matrix-Kamera oder CMOS-Matrix-Kamera zugeordnet sind.
  28. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die optischen Leiter jeweils unterschiedlichen Teilbereichen einer zweidimensional ausgedehnten, aus mehreren einzeln ansteuerbaren Licht erzeugenden Teilbereichen bestehenden Lichtquelle, wie LCD- oder LED-Lichtquelle oder Lichtquelle mit zugeordnetem Mikrospiegel-Array mit einzeln ansteuerbaren Kippspiegelelementen, zugeordnet sind.
  29. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für mehrere Messpunkte eine konfokale Abbildung erzeugt wird, indem das objektseitige Ende des optischen Leiters bildseitig der Optik, vorzugsweise in der bildseitigen Brennebene angeordnet ist.
  30. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Einkopplung des Lichts der Lichtquelle erfolgt, indem das bildseitige Ende des optischen Leiters in Richtung auf den Empfänger und/oder die Lichtquelle zu angeordnet ist, vorzugsweise bildseitig des optischen Leiters zumindest eine Teilerschicht und vorzugsweise eine optische Baugruppe zur Fokussierung des Lichts in das bildseitige Ende des optischen Leiters angeordnet ist oder vorzugsweise mittels Y-Verzweigung die beiden bildseitigen Enden direkt vor oder an den Empfänger und die Lichtquelle angeordnet werden.
  31. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Messsignal des Empfängers zur Bestimmung von Konturen einer Bildverarbeitungsauswertung unterzogen wird und/oder zur Bestimmung einer Vielzahl von Oberflächenpunkten einer Helligkeitsauswertung oder einer chromatischen Auswertung unterzogen wird.
  32. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass einer oder mehrere Oberflächenpunkte bestimmt werden, indem einer oder mehrere ausgewählte voneinander beabstandete Teilbereiche, vorzugsweise Pixel, der Lichtquelle angesteuert werden, wobei die Teilbereiche einem Muster entsprechen, und zumindest die den angesteuerten Teilbereichen der Lichtquelle zugeordneten Teilbereiche des Empfängers ausgelesen werden und vorzugsweise ein daraus resultierendes Teilbild gespeichert wird.
  33. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass nacheinander Oberflächenpunkte bestimmt werden, indem jeweils unterschiedliche Muster verwendet werden, vorzugsweise bis alle zur Messung verwendeten Teilbereiche der Lichtquelle mindestens einmal angesteuert wurden.
  34. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus den in den jeweiligen Teilbereichen des Empfängers aufgenommenen Messsignalen jeweils Oberflächenpunkte durch chromatische Auswertung berechnet werden, indem mit dem Empfänger, vorzugsweise Farbkamera, die Wellenlänge des Lichts mit der höchsten Intensität und daraus der Abstand zwischen Sensorsystem und Messobjektoberfläche ermittelt wird.
  35. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass einer oder mehrere der zur Messung verwendeten Teilbereiche der Lichtquelle in mehreren sich unterscheidenden Abständen zwischen Sensorsystem und Messobjektoberfläche angesteuert werden, wobei vorzugsweise je Abstand bzw. Abstandsbereich ein Gesamtbild aus den Teilbildern zusammengesetzt wird, und der Abstand zwischen Sensorsystem und Messobjektoberfläche je Teilbereich ermittelt wird, indem zumindest die Lage des jeweiligen Teilbildes berücksichtigt wird, für das der jeweilige Teilbereich wie Pixel die höchsten Intensität bzw. Helligkeit besitzt.
  36. Verfahren nach vorzugsweise einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur dreidimensionalen Messung einer Oberfläche eines Objektes nach dem Autofokusprinzip mittels eines Koordinatenmessgerätes, ein optischer Sensor eingesetzt wird, wobei ein für die Oberfläche charakteristischer Parameter wie Kontrastwert in mehreren in Richtung der optischen Achse des optischen Sensors variierenden Relativlagen zwischen Oberfläche und Fokusebene des Sensors durch Aufnahme zweidimensionaler Bilder bestimmt wird, wobei die Relativlage durch Verstellen zumindest einer Linse oder Linsengruppe des optischen Sensors erfolgt und aus der Relativlage und dem charakteristischen Parameter die entlang der optischen Achse vorliegende Koordinate zumindest eines Messpunktes bestimmt wird, wobei der durch die Bilder senkrecht zur optischen Achse bestimmte Messbereich in Teilbereiche unterteilt ist, für die der charakteristische Parameter und die daraus resultierende Koordinate während der Variation der Relativlage gleichzeitig oder im Wesentlichen gleichzeitig bestimmt wird, wobei die senkrecht zur optischen Achse vorliegende Koordinate aus der senkrecht zur optischen Achse vorliegenden Position des Teilbereiches im Bild und des optischen Sensors relativ zum Objekt bestimmt wird, und wobei der Sensor relativ zum Objekt nicht verstellt wird.
  37. Verfahren nach zumindest Anspruch 36, dadurch gekennzeichnet, dass ein virtuelles 2D-Bild aus den ermittelten Maxima der Kontrastwerte erzeugt und vorzugsweise angezeigt wird, wobei jedem Pixel des 2D-Bildes eine Amplitude zugeordnet wird, die dem Pixel des zur Bildaufnahme eingesetzten Matrixsensors wie CCD- oder CMOS-Kamera bei maximalem Kontrast entspricht.
  38. Verfahren nach zumindest Anspruch 37, dadurch gekennzeichnet, dass das virtuelle 2D-Bild zur Auswertung mittels Bildverarbeitungsalgorithmen zur Verfügung gestellt wird, vorzugsweise Konturen berechnet werden, vorzugsweise 3D-Konturen unter Verwendung der den Pixeln zugeordneten Koordinate in Richtung der optischen Abbildungsrichtung.
  39. Vorrichtung zur Bestimmung von Merkmalen an einem Messobjekt (5) mit einem optischen Sensorsystem, welches vorzugsweise in ein Koordinatenmessgerät integriert ist, wobei das Sensorsystem aus einem Bildverarbeitungssensor und einem Abstandsensor, vorzugsweise nach einem Triangulationsprinzip wie Foucaultschen Schneidenprinzip arbeitend, besteht, dadurch gekennzeichnet, dass der dem Bildverarbeitungssensor zugeordnete, zweidimensional ausgedehnte, aus mehreren lichtempfindlichen Bereichen bestehende Empfänger (16), wie CCD-Matrix-Kamera oder CMOS-Matrix-Kamera, zur Aufnahme von Bildern für den Bildverarbeitungssensor und zur Erzeugung des Messsignals des Abstandssensors einsetzbar ist und keine getrennte Differenzphotodiodenanordnung zur Erzeugung des Messsignals des Abstandssensor eingesetzt wird.
  40. Vorrichtung nach zumindest Anspruch 39, dadurch gekennzeichnet, dass zur Erzeugung des Lichtstrahls bzw. des Strahlenbündels für den Abstandssensor eine Lichtquelle (1), wie Laserdiode, LED oder Superlumineszenzdiode, eine Schneide (2) und Mittel (8) zur Einspiegelung in den optischen Strahlengang des Bildverarbeitungssensors, wie teildurchlässiger Umlenkspiegel oder Teilerwürfel, im Sensorsystem integriert sind.
  41. Vorrichtung nach vorzugsweise einem der vorhergehenden Ansprüche 39 oder 40, dadurch gekennzeichnet, dass der Bildverarbeitungssensor eine Optik (15, 15a, 15b) beinhaltet, die eine Zoomoptik mit von der Vergrößerung unabhängig einstellbarem Arbeitsabstand oder eine Optik mit festem Arbeitsabstand und fester Vergrößerung ist, wobei die Optik für eine vorgegebene Lichtwellenlänge optimiert ist, wobei die Wellenlänge vorzugsweise der Wellenlänge der Lichtquelle für den Abstandssensor entspricht.
  42. Vorrichtung nach zumindest einem der vorhergehenden Ansprüche 39 bis 41, dadurch gekennzeichnet, dass eine Durchlichtbeleuchtung und/oder eine Auflichtbeleuchtung, wie Hellfeldauflichtbeleuchtung und/oder Dunkelfeldauflichtbeleuchtung wie Ringlicht, mit dem Sensorsystem verbunden ist und mit der Wellenlänge betreibbar ist, für die die Optik optimiert ist.
  43. Vorrichtung nach zumindest einem der vorhergehenden Ansprüche 39 bis 42, dadurch gekennzeichnet, dass eine Durchlichtbeleuchtung und/oder eine Auflichtbeleuchtung, wie Hellfeldauflichtbeleuchtung und/oder Dunkelfeldauflichtbeleuchtung wie Ringlicht, mit dem Sensorsystem verbunden ist und mit unterschiedlichen Wellenlänge betreibbar ist, wobei vorzugsweise Mehrfarben-LEDs wie RGB-LEDs mit getrennt ansteuerbaren Farbkanälen einsetzbar sind.
  44. Vorrichtung nach vorzugsweise einem der vorhergehenden Ansprüche 39 bis 43, dadurch gekennzeichnet, dass für Messungen mit einem Bildverarbeitungssensor der Abstand zwischen der dem Bildverarbeitungssensor zugeordneten Optik und der erfassten Oberfläche des Messobjektes und/oder der Arbeitsabstand der Optik entsprechend der ausgewerteten Wellenlänge der Beleuchtung so einstellbar ist, vorzugsweise durch den Einsatz einer Optik mit einstellbaren Arbeitsabstand und/oder durch Bewegen des Sensorsystems und/oder des Messobjektes mittels des Koordinatenmessgeräts, dass die Oberfläche des Messobjekts, abhängig von den Eigenschaften der Optik, im Scharfbereich der Optik anordenbar ist, vorzugsweise Messungen mit unterschiedlichen ausgewerteten Wellenlängen der Beleuchtung kombinierbar sind, vorzugsweise eine Kamera wie Schwarz-Weiß-Kamera, oder Farbkamera mit unterschiedlichen einstellbaren Wellenlängenempfindlichkeit, verwendbar ist.
  45. Vorrichtung nach zumindest einem der vorhergehenden Ansprüche 39 bis 41, dadurch gekennzeichnet, dass eine dispersive Optik (15a) mit chromatischer Aberration einsetzbar ist.
  46. Vorrichtung nach zumindest einem der Ansprüche 39, 41, 44 oder 45, dadurch gekennzeichnet, dass der Empfänger (16) des Bildverarbeitungssensors zusätzlich wahlweise zur Erzeugung des Messsignals eines chromatischen Abstandssensors einsetzbar ist, wobei dem chromatischen Abstandssensor eine breitbandige Lichtquelle (1) wie Weißlichtquelle und Mittel zur Einspiegelung des Lichts der Lichtquelle in den optischen Strahlengang des Bildverarbeitungssensors, wie teildurchlässiger Umlenkspiegel oder Teilerwürfel, und vorzugsweise eine für die Bildverarbeitungsmessung ausschwenkbare Konfokalblende (24) oder eine Vielzahl einzelner optischer Leiter, wie optischen Fasern, vorzugsweise Bildleiter zugeordnet sind.
  47. Vorrichtung nach zumindest einem der Ansprüche 44 bis 46, dadurch gekennzeichnet, dass der Arbeitsabstand einer dem Bildverarbeitungssensor zugeordneten Optik, vorzugsweise Zoomoptik mit von der Vergrößerung unabhängig einstellbarem Arbeitsabstand, für die Messungen mit dem Bildverarbeitungssensor einerseits und für die Messung mit dem chromatischen Abstandssensor andererseits einstellbar ist, wobei vorzugsweise die Einstellung für den chromatischen Abstandssensor entsprechend der optimalen Apertur erfolgt.
  48. Vorrichtung nach zumindest Anspruch 46, dadurch gekennzeichnet, dass zur Ermittlung der Wellenlänge des Lichts mit der höchsten Intensität, ein wellenlängenselektives Mittel wie Prisma und eine Schwarz-Weiß-Kamera oder eine Farbkamera mit einzeln auslesbaren Farbkanälen dem chromatischen Abstandssensors zugeordnet sind.
  49. Vorrichtung nach vorzugsweise einem der vorhergehenden Ansprüche 39 bis 48, dadurch gekennzeichnet, dass eine Vielzahl einzelner optischer Leiter, wie optischen Fasern, vorzugsweise Bildleiter als Konfokalblenden für mehrere Messpunkte auf der Oberfläche eines Objektes, angeordnet sind.
  50. Vorrichtung nach zumindest Anspruch 49, dadurch gekennzeichnet, dass die optischen Leiter jeweils unterschiedlichen Bereichen eines zweidimensional ausgedehnten, aus mehreren einzeln auslesbaren lichtempfindlichen Bereichen, wie Pixeln, bestehenden Empfänger, wie CCD-Matrix-Kamera oder CMOS-Matrix-Kamera zugeordnet angeordnet sind.
  51. Vorrichtung nach zumindest Anspruch 49 oder 50, dadurch gekennzeichnet, dass die optischen Leiter jeweils unterschiedlichen Bereichen einer zweidimensional ausgedehnten, aus mehreren einzeln ansteuerbaren Licht erzeugenden Bereichen bestehenden Lichtquelle, wie LCD- oder LED-Lichtquelle oder Lichtquelle mit zugeordnetem Mikrospiegel-Array mit einzeln ansteuerbaren Kippspiegelelementen, zugeordnet angeordnet sind.
  52. Vorrichtung nach zumindest einem der vorhergehenden Ansprüche 49 bis 51, dadurch gekennzeichnet, dass das objektseitige Ende des optischen Leiters bildseitig der Optik, vorzugsweise in der bildseitigen Brennebene angeordnet ist.
  53. Vorrichtung nach zumindest einem der vorhergehenden Ansprüche 49 bis 52, dadurch gekennzeichnet, dass das bildseitige Ende des optischen Leiters in Richtung auf den Empfänger und/oder die Lichtquelle zu angeordnet ist, vorzugsweise bildseitig des optischen Leiters zumindest eine Teilerschicht zur Einkopplung des Lichts der Lichtquelle und vorzugsweise eine optische Baugruppe zur Fokussierung des Lichts in das bildseitige Ende des optischen Leiters angeordnet ist oder vorzugsweise mittels Y-Verzweigung die beiden bildseitigen Enden direkt vor oder an den Empfänger und die Lichtquelle angeordnet werden.
  54. Vorrichtung nach zumindest einem der vorhergehenden Ansprüche 49 bis 53, dadurch gekennzeichnet, dass ein Empfänger und/oder eine Lichtquelle mit einzeln ansteuerbaren Teilbereichen eingesetzt wird, vorzugsweise jeweils einer oder mehrere Teilbereiche unterschiedliche Muster bilden.
  55. Vorrichtung nach vorzugsweise einem der vorhergehenden Ansprüche 39 bis 54, dadurch gekennzeichnet, dass die Optik eines in ein Koordinatenmessgerät integrierten optischen Sensors mit einer Linse oder Linsengruppe zur Verstellung des Arbeitsabstandes ausgerüstet ist und für die dreidimensionalen Messung einer Oberfläche eines Objektes nach dem Autofokusprinzip geeignet ist, wobei der Messbereich senkrecht zur optischen Achse in Teilbereiche unterteilt ist.
DE201310105102 2013-03-28 2013-05-17 Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten Pending DE102013105102A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE201310105102 DE102013105102A1 (de) 2013-03-28 2013-05-17 Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102013103238.9 2013-03-28
DE102013103238 2013-03-28
DE201310105102 DE102013105102A1 (de) 2013-03-28 2013-05-17 Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten

Publications (1)

Publication Number Publication Date
DE102013105102A1 true DE102013105102A1 (de) 2014-10-02

Family

ID=51519671

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310105102 Pending DE102013105102A1 (de) 2013-03-28 2013-05-17 Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten

Country Status (1)

Country Link
DE (1) DE102013105102A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014108353A1 (de) 2013-06-13 2014-12-18 Werth Messtechnik Gmbh Verfahren und Vorrichtung zur Bestimmung von Geometrien an Messobjekten mittels eines kombinierten Sensorsystems
CN114322774A (zh) * 2022-01-05 2022-04-12 河北省送变电有限公司 角钢生产线质量检验装置及其定位检测方法
DE102021207980A1 (de) 2021-07-23 2023-01-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Verfahren und vorrichtung zur synchronisation von multiplex-messungen mit optischen sensoren

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0330901A1 (de) 1988-03-02 1989-09-06 Wegu-Messtechnik Gmbh Mehrkoordinatenmess- und prüfeinrichtung
EP1071922A1 (de) 1998-04-11 2001-01-31 Werth Messtechnik GmbH Verfahren und anordnung zur erfassung der geometrie von gegenständen mittels eines koordinatenmessgeräts
WO2003052347A2 (de) 2001-12-19 2003-06-26 Werth Messtechnik Gmbh Verfahren zur dreidimensionalen messung einer oberfläche

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0330901A1 (de) 1988-03-02 1989-09-06 Wegu-Messtechnik Gmbh Mehrkoordinatenmess- und prüfeinrichtung
EP1071922A1 (de) 1998-04-11 2001-01-31 Werth Messtechnik GmbH Verfahren und anordnung zur erfassung der geometrie von gegenständen mittels eines koordinatenmessgeräts
WO2003052347A2 (de) 2001-12-19 2003-06-26 Werth Messtechnik Gmbh Verfahren zur dreidimensionalen messung einer oberfläche

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014108353A1 (de) 2013-06-13 2014-12-18 Werth Messtechnik Gmbh Verfahren und Vorrichtung zur Bestimmung von Geometrien an Messobjekten mittels eines kombinierten Sensorsystems
DE102021207980A1 (de) 2021-07-23 2023-01-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein Verfahren und vorrichtung zur synchronisation von multiplex-messungen mit optischen sensoren
CN114322774A (zh) * 2022-01-05 2022-04-12 河北省送变电有限公司 角钢生产线质量检验装置及其定位检测方法

Similar Documents

Publication Publication Date Title
DE102008017481B4 (de) Vorrichtung und Verfahren zur optischen 3D-Vermessung und zur Farbmessung
EP2406679B1 (de) Autofokusverfahren und autofokuseinrichtung
DE102006007170B4 (de) Verfahren und Anordnung zur schnellen und robusten chromatisch konfokalen 3D-Messtechnik
EP3298345B1 (de) Kamera und verfahren zur dreidimensionalen vermessung und farbvermessung eines dentalen objekts
WO2013171309A1 (de) Lichtmikroskop und verfahren zur bildaufnahme mit einem lichtmikroskop
DE102013022538B3 (de) Verfahren zum Erstellen eines Mikroskopbildes und Mikroskopievorrichtung
EP1617269A1 (de) Lichtrastermikroskop mit Linienscanner
DE102005044842A1 (de) Konfokalmikroskop
EP3513235B1 (de) Lichtmikroskop
DE102017201773A1 (de) Chromatischer konfokaler Sensor und Messverfahren
DE69927367T2 (de) Optoelektronische Formerfassung durch chromatische Kodierung mit Beleuchtungsebenen
DE102011083718A1 (de) Konfokales Spektrometer und Verfahren zur Bildgebung in einem konfokalen Spektrometer
DE102013108457A1 (de) Verfahren und Vorrichtung zur Beleuchtung und Messung eines Objektes
WO2016193037A1 (de) Verfahren zum ermitteln einer ortsaufgelösten höheninformation einer probe mit einem weitfeldmikroskop und weitfeldmikroskop
EP3147700B1 (de) Verfahren und vorrichtung zur vergrösserung des sichtfelds einer kamera sowie damit ausgestattete kamera
EP0466979B1 (de) Anordnung zur simultanen konfokalen Bilderzeugung
EP0805996A1 (de) Verfahren und vorrichtung zum aufnehmen eines objektes
DE102017107343A1 (de) Verfahren und Vorrichtung zum Betreiben eines optischen Abstandssensors
DE102013105102A1 (de) Verfahren und Vorrichtung zur Bestimmung von Merkmalen an Messobjekten
DE10056329B4 (de) Optisches Abstandsmeßverfahren und Abstandssensor
DE102019208114B4 (de) Vorrichtung und Verfahren zur 3D Vermessung von Objektkoordinaten
DE102015108912A1 (de) Vorrichtung und Verfahren zur Erfassung von Oberflächentopographien
DE10017825C2 (de) Polychromatische Fluoreszenz-Meßvorrichtung
EP3139147A1 (de) Vorrichtung und verfahren zur messung einer wellenlängenabhängigen optischen kenngrösse eines optischen systems
WO2004029691A1 (de) Verfahren und vorrichtung zum bestimmen eines abstands, autofokus-modul, mikroskop und verfahren zum autofokussieren eines mikroskops

Legal Events

Date Code Title Description
R012 Request for examination validly filed