DE102010017604A1 - Verfahren zum optischen Messen von Strukturen eines Objekts mit variierender Beleuchtung - Google Patents

Verfahren zum optischen Messen von Strukturen eines Objekts mit variierender Beleuchtung Download PDF

Info

Publication number
DE102010017604A1
DE102010017604A1 DE102010017604A DE102010017604A DE102010017604A1 DE 102010017604 A1 DE102010017604 A1 DE 102010017604A1 DE 102010017604 A DE102010017604 A DE 102010017604A DE 102010017604 A DE102010017604 A DE 102010017604A DE 102010017604 A1 DE102010017604 A1 DE 102010017604A1
Authority
DE
Germany
Prior art keywords
intensity
sensor
image
different
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010017604A
Other languages
English (en)
Other versions
DE102010017604B4 (de
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Werth Messtechnik GmbH
Original Assignee
Werth Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Werth Messtechnik GmbH filed Critical Werth Messtechnik GmbH
Priority to DE102010017604.4A priority Critical patent/DE102010017604B4/de
Publication of DE102010017604A1 publication Critical patent/DE102010017604A1/de
Application granted granted Critical
Publication of DE102010017604B4 publication Critical patent/DE102010017604B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B15/00Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/045Correction of measurements

Abstract

Die Erfindung bezieht sich auf ein Verfahren zur Bestimmung von zumindest einer Struktur eines Objektes mittels zumindest einer in einem Koordinatenmessgerät angeordneten optischen Sensorik wie Röntgensensorik. Um Messergebnisse hoher Güte zu erzielen, wird vorgeschlagen, dass von dem Objekt am gleichen oder nahezu gleichen Messort bzw. -bereich zumindest zwei Messungen durchgeführt werden und dass Teilergebnisse einer Messung mit Teilergebnissen der zumindest einen weiteren Messung zur Erzielung eines Gesamtmessergebnisses kombiniert werden.

Description

  • Die Erfindung bezieht sich auf ein Verfahren zur Bestimmung von zumindest einer Struktur und/oder Geometrie eines Objektes mittels zumindest einer in einem Koordinatenmessgerät angeordneten Sensorik wie optischer oder Röntgensensorik
  • Bei der optischen Messung von Objekten tritt häufig der Nachteil auf, dass Bereiche aufgrund z. B. des Kontrastes gut auswertbar sind, wohingegen andere Bereiche dies nicht zulassen, so dass das Gesamtmessergebnis nicht zwingend sämtliche benötigten Informationen über das Objekt vermittelt.
  • Bei bisher bekannten Fokusverfahren wird die Änderung der Intensität oder des Kontrastes von Bildern ausgewertet, die während der Messbewegung, also der Änderung der Entfernungen zwischen Sensor und Werkstückoberfläche, aufgenommen werden, wobei die Beleuchtung, meist Auflichtbeleuchtung, und die Aufnahmeparameter der Kamera, wie Integrationszeit und Bildaufnahmefrequenz, während der Messung konstant bleiben.
  • Wie in der DE 101 62 663.0 und der DE 102 19 491.2 beschrieben, können auch einzelne Teilbereiche des Messbereiches des optischen Sensors getrennt voneinander untersucht werden, um nahezu gleichzeitig mehrere Oberflächenpunkte nach dem Autofokusverfahren zu ermitteln.
  • Nachteilig bei den bekannten Verfahren ist, dass abhängig vom Reflexionsgrad und der Neigung der Werkstückoberfläche lokal deutlich unterschiedliche Strahl- bzw. Lichtintensitäten zur Bildaufnahme zur Verfügung stehen. Dies führt dazu, dass einzelne Bereiche entweder zu hell oder zu dunkel abgebildet werden und in der Konsequenz überstrahlte Bereiche bzw. Bereiche mit erhöhtem Rauschen genaue Messungen verhindern. Unter Umständen ist die von der bzw. den Lichtquellen maximal zur Verfügung gestellte Lichtstärke bzw. -intensität insgesamt nicht ausreichend, um auswertbare oder ausreichend genau auswertbare Bilder zur Verfügung zu stellen. Verknüpft man die Strahlintensität mit der Belichtungs- bzw. Integrationszeit der Kamera je Aufnahme bzw. Bild, so erhält man ein Maß für die so genannte auf den Bildsensor einfallende Lichtmenge je Bild, auch Bestrahlungsdosis genannt.
  • Ein erster Ansatz zur Lösung dieses Problems ist in der DE 2009 043 919.6 beschrieben. Hier werden vorzugsweise nacheinander unterschiedliche Beleuchtungen vorgeschlagen, die auf die annährend gleiche Messstelle gerichtet sind, wobei unterschiedliche Intensitäten, Wellenlängen, Wellenlängenbereiche oder Beleuchtungsrichtungen vorgeschlagen werden. Ebenso wird eine blitzartige Beleuchtung vorgeschlagen. Aus den mit den unterschiedlichen Beleuchtungen aufgenommenen Bildern wird sodann ein auszuwertendes Gesamtbild ermittelt. Aus jedem Bild werden dazu nur die Informationen entnommen, die einen zuvor festgelegten Amplituden- bzw. Kontrastbereich aufweisen. Nicht erwähnt wird die Variation der Kameraintegrationszeit.
  • Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren der eingangs genannten Art so weiterzubilden, dass sich bei der Messung von Objekten mittels Strahlung Messergebnisse hoher Güte erzielen lassen.
  • Zur Lösung der Aufgabe sieht die Erfindung u. a. vor, dass von dem Objekt am gleichen oder nahezu gleichen Messort bzw. -bereich zumindest zwei Messungen durchgeführt werden und dass Teilergebnisse einer Messung mit Teilergebnissen der zumindest einen weiteren Messung zur Erzielung eines Gesamtmessergebnisses kombiniert werden.
  • Zur Vermeidung der Einschränkungen des Standes der Technik und in Erweiterung der DE 2009 043 919.6 schlägt die vorliegende Erfindung daher vor, verallgemeinert die „Lichtmenge je aufgenommenen Bildes” während dem Einsatz eines Fokusverfahrens für nacheinander aufgenommene Bilder zu variieren. Dies ist nicht nur durch Variation der Beleuchtung, sondern gleich wirkend durch Variation der Integrationszeit der Kamera des optischen Sensors möglich.
  • Aufgrund der erfindungsgemäßen Lehre werden die Bereiche eines Messergebnisses als Teilergebnis benutzt, die die erforderliche Güte wie Kontrast oder Helligkeit aufweisen. Die Messergebnisse der in der einen Messung nicht verwertbaren Bereiche können sodann aus zumindest einer weiteren Messung, vorzugsweise mehreren nachfolgenden Messungen gewonnen werden, wobei bei den einzelnen Messungen Parameter verändert werden derart, wie z. B. Intensität und/oder Richtung, dass nach Zusammensetzen der relevanten Teilergebnisse, die die erforderliche Güte aufweisen, ein Gesamtmessergebnis erzielbar ist, aufgrund dessen die Strukturen oder Geometrien des Objektes mit der erforderlichen Genauigkeit zur Verfügung stehen.
  • Insbesondere wird mit der Röntgensensorik mit unterschiedlicher Intensität und/oder Wellenlänge und/oder Strahlungsrichtung, vorzugsweise nacheinander, an der gleichen oder annähernd gleichen Messstelle gemessen.
  • Auch kann vorgesehen sein, dass mit der optischen Sensorik Messungen, wie Autofokus-Messungen, mit unterschiedlicher Beleuchtung, vorzugsweise nacheinander, an der gleichen oder annähernd gleichen Messstelle durchgeführt werden.
  • Insbesondere bei Autofokus-Messungen werden für den gleichen oder nahezu gleichen Messort in unterschiedlichen Abständen mehrere Messungen durchgeführt, indem z. B. die Beleuchtungsintensität verändert wird. Aus den Einzelmessungen werden sodann diejenigen Messwerte weiterverarbeitet, die zu dem besten Gesamtmessergebnis führen.
  • In hervorzuhebender Weise sieht die Erfindung vor, dass die optische Messung mit Beleuchtungen unterschiedlicher Intensität und/oder aus unterschiedlichen Richtungen und/oder mit Lichtblitzen, vorzugsweise unterschiedlicher Intensität, und/oder unterschiedlichen Wellenlängen und/oder Wellenlängenbereichen arbeitet.
  • Ein eigenständiger Lösungsvorschlag lehrt, dass die optische Messung mit verschiedenen Beleuchtungsintensitäten oder zumindest einem durch Shutter oder anderem mechanischen und/oder elektronischem Verschluss zeitweise abgedecktem Detektionsmittel arbeitet.
  • Bevorzugterweise zeichnet sich die Erfindung dadurch aus, dass aus den aus mehreren Richtungen und/oder verschiedenen Beleuchtungsintensitäten und/oder Wellenlängen und/oder Wellenlängenbereichen ermittelten Bildern, welche durch eine flächenförmige Detektionseinrichtung aufgenommen werden, ein Gesamtbild zusammengesetzt wird, wobei aus vorzugsweise jedem Teilbild die Informationen verwendet werden, die in einem vorher festgelegten Amplitutenbereich und/oder Kontrastbereich, vorzugsweise größer als eine Mindestamplitute und kleiner als eine Maximalamplitute und/oder größer als ein Mindestkontrast und kleiner als ein Maximalkontrast, liegen.
  • Eigenerfinderisch ist vorgesehen, dass die optische Messung mit Hilfe konfokale Strahlengangs, vorzugsweise durch Einbringen einer rotierenden Lochblende, wie Nipkow-Scheibe, erfolgt.
  • Vorteilhaft gestaltet sich mit dem erfindungsgemäßen Verfahren die Messung von deutlich unterschiedlich hellen Bereichen innerhalb eines Bildausschnittes mit einer Fokusmessung. Diese Bereiche treten beispielsweise bei so genannten „Pfeffer und Salz” Strukturen auf, bei denen sehr kleine Strukturen nahezu zufällig auf der Werkstückoberfläche verteilt sind, die sehr hell sind, zusammen mit Strukturen, die sehr dunkel sind, ausgelöst durch die Oberflächenrauhigkeit des Werkstücks. Bei herkömmlichen Verfahren erscheinen die kleinen dunklen Bereiche dann, zumindest bei nicht konfokalem Strahlengang, im unscharfen Zustand aufgrund der Überstrahlung durch Nachbarpixel heller, als im fokussierten Zustand oder bleiben über den gesamten Messverlauf dunkel. Dies führt unter Umständen zu Kontrastverläufen, die eine fehlerhafte Fokusdetektion nach sich ziehen.
  • Durch das erfindungsgemäße Verfahren werden jedoch auch „Pfeffer und Salz” Strukturen richtig ausgewertet, da die dunklen Bereiche mit entsprechend hoher Lichtmenge je Bild aufgenommen werden, sodass die anschließende Kontrastbildung zur korrekten Fokusdetektion führt. Zudem ist durch die Messung dunkler Bereiche mit entsprechend hoher Lichtmenge bei konfokalem Strahlengang sichergestellt, dass überhaupt eine auswertbare, also mit einem Intensitätsmaximum versehene Messung erzeugt wird.
  • Die Erhöhung der Lichtmenge je Bild, vorzugsweise der Integrationszeit, kann auch oder zusätzlich rechnerisch erfolgen, indem mehrere nacheinander aufgenommene Bilder pixelweise in ihren Intensitäten aufsummiert werden, bis eine definierte, gültige Intensität erreicht ist. Eine Überstrahlung einzelner Kamerapixel darf dabei nicht auftreten bzw. werden die überstrahlten Bereiche nicht zur Auswertung herangezogen. Aus mehreren nacheinander aufgenommenen Bildern können dabei auch mehrere Summen aus unterschiedlich vielen Bildern gebildet werden, die beispielsweise aus Bildern errechnet werden, die symmetrisch um und inklusive eines ausgewählten Bildes angeordnet sind. Auf diese Art und Weise kann für jedes Kamerapixel eine gültige Intensität ermittelt werden.
  • Insbesondere bei konfokalem Strahlengang, bei dem die zur Verfügung stehende Lichtleistung durch eine oder mehrere Blenden im Strahlengang verringert wird, ist der Einsatz des erfindungsgemäßen Verfahrens sinnvoll.
  • Das erfindungsgemäße Verfahren setzt zur Umsetzung eine in ihrem Zeitpunkt, Zeitdauer und Intensität, ggf. auch Strahlrichtung oder Wellenlänge steuerbare Lichtquelle oder eine in ihrem Zeitpunkt und Dauer der Integration steuerbare Kamera voraus. Vorzugsweise erfolgt die Bildaufnahme mit der Kamera nahezu zeitsynchron zur Aufzeichnung der Achspositionen der Messachse, welche den Abstand zwischen Sensor und Werkstück variiert. Dies erfolgt erfindungsgemäß durch softwareseitige Synchronisierung oder hardwareseitig über eine Triggerleitung. Die Bestimmung der Achspositionen und Zuordnung zum in dieser Position aufgenommenen Bild ist notwendig, um möglichst genaue Messergebnisse zu erhalten.
  • Mit Hilfe der erfindungsgemäßen Lehre wird zunächst die Intensität der Lichtquelle so eingestellt, dass für jedes Kamerapixel und für jede Position, notfalls getrennt, des festgelegten Bereiches der zu durchfahrenden Entfernung zwischen Messobjekt und Sensor bei zumindest einer der gewählten Parametervariationen, also Lichtmengen je Bild, ein gültiger Intensitätswert vorliegt, also weder Überstrahlung noch zu hohes Rauschen, bei sehr kleinen Intensitäten, auftritt. In den Randbereichen des Messweges dürfen Abweichungen auftreten, da diese zumeist nicht signifikant zur Bestimmung der später auszuwertenden Fokuskurven (Abhängigkeit der Intensität oder des Kontrastes eines Pixels oder einer Gruppe von Pixeln vom Abstand zwischen Sensor und Messobjektoberfläche) beitragen.
  • Nachfolgend werden die verschiedenen zu verwendenden Einstellungen für die Beleuchtung und die Kameraintegrationszeiten und die zeitliche Abfolge festgelegt. Vorzugsweise wird die Integrationszeit um einen Offset oder um ein Vielfaches zyklisch mehrfach nacheinander erhöht und dann wieder beim Startwert begonnen. Alternativ wird eine beliebige Reihenfolge verwendet. Nach dem Start des Messvorgangs werden entsprechend der zeitlichen Abfolge die Bilder mit den verschiedenen Parametern der Beleuchtung oder Kameraintegrationszeit aufgenommen. Ziel ist, über den gesamten Bewegungsbereich verteilt Bilder mit jeder vorher bestimmten Parametervariation aufzunehmen, damit helle wie auch dunkle Bereiche des Werkstücks zumindest bei einem Parameter optimal abgebildet werden. Die Veränderung der Parameter erfolgt mit der maximal möglichen Bildaufnahme- bzw. Beleuchtungsänderungsfrequenz.
  • Da die Parametervariation nicht beliebig schnell erfolgen kann, sind Bilder mit verschiedenen Parameter immer in Messrichtung (z-Richtung) in ihrer Position versetzt. Soll später der Intensitätsverlauf im Rahmen einer Helligkeitsauswertung untersucht werden, stellt dies keine Einschränkung dar. Sollen jedoch Kontraste zwischen benachbarten Kamerapixeln bestimmt werden, müssen die Intensitätswerte der entsprechenden Kamerapixel für die gleiche z-Position vorliegen. Da die z-Positionen jedoch genau bekannt, da gemessen sind, wird dieser Versatz erfindungsgemäß durch Interpolation der Intensitätswerte der einzelnen Kamerapixel korrigiert. Dies kann vor oder nach der Normierung auf eine einheitliche Integrationszeit erfolgen. Als Resultat liegen die Intensitäten für die einzelnen Kamerapixel bei verschiedenen Aufnahmeparametern für die gleiche z-Position vor. Vorzugsweise erfolgt die Interpolation für alle Kamerapixel des gesamten lateralen Messbereiches des Sensors an jeweils den gleichen z-Positionen.
  • Unabhängig von der Interpolation werden für jedes Kamerapixel nur die Messdaten verwendet, die zwischen einer minimalen und einer maximalen Intensität liegen. Die maximale Intensität stellt den Übergangsbereich zur Sättigung, also der Überstrahlung dar, die minimale grenzt den Bereich zu hohen Rauschens ab.
  • Im nächsten Schritt müssen die Intensitäten der Kamerapixel mit verschiedenen Aufnahmeparametern aneinander angepasst, also normiert werden. Vorzugsweise werden dazu die Kamerapixel, die mit Parameter aufgenommen wurden, die zu niedrigeren Intensitäten führen, bzgl. der Kamerapixel, die mit Parameter aufgenommen wurden, die zu höheren Intensitäten führen, entsprechend verstärkt. Der dazu notwendige Wertebereich für die Intensitäten und damit die Grauwertauflösung, muss entsprechend erhöht werden, vorzugsweise um den Faktor der maximalen Lichtmengenerhöhung je Bild.
  • Vorzugsweise erfolgt die Normierung der gemessenen Intensitäten im Verhältnis der Lichtmenge je Bild, z. B. hervorgehend aus dem Integrationszeitverhältnis oder einem vorab durchgeführten Einmessvorgang, bei dem der Normierungsfaktor für jede Integrationszeit einmalig durch Messung an einem Referenzobjekt mit den unterschiedlichen, einzusetzenden Integrationszeiten durch Vergleich der erzielten Intensitäten am gleichen Messort, ermittelt wird. Alternativ werden die entsprechenden Skalierungsfaktoren in Tabellen hinterlegt. Die Normierung dient der Vergleichbarkeit und damit Zuordenbarkeit der Aufnahmen verschiedener Lichtmengen zur gemeinsamen Auswertung.
  • Liegen die Pixelintensitäten für die verschiedenen Aufnahmeparameter an den gleichen z-Positionen vor, so ist es im nächsten Schritt möglich, Kontrastwerte durch Differenzbildung zu den lateral benachbarten Kamerapixeln zu bilden und auszuwerten. Im Resultat wird für jedes Kamerapixel oder einen oder mehrere Bereiche von Kamerapixeln der Ort der Oberfläche ermittelt, indem die Position des höchsten Kontrastes bestimmt wird, z. B. durch Ermittlung des Maximums der jeweils in den Kontrastverlauf eingepassten Parabel. Alternativ wird die Position der höchsten Intensität ermittelt, wobei der Schritt der Interpolation unterbleiben kann, da die Auswertung ohne Berücksichtigung von Nachbarpixeln erfolgt.
  • Der eingesetzte optische Sensor ist vorzugsweise als lateral empfindlicher Bildverarbeitungssensor mit matrixförmiger CCD- oder CMOS-Kamera ausgebildet. Dadurch werden zusätzlich oder parallel zum erfindungsgemäßen Verfahren die aufgenommenen Bilder mit den bekannten Bildverarbeitungsalgorithmen ausgewertet, um beispielsweise Kanten oder Konturen des Werkstücks zu bestimmen.
  • Die Erzeugung der Bilder mit unterschiedlichen Lichtmengen je Bild kann auch mit Hilfe von zwei oder mehr unterschiedlich parametrisierten Kameras oder Kamerachips durchgeführt werden. Diese werden im gleichen Optikstrahlengang integriert, z. B. durch den Einsatz von Strahlteilern o. ä., oder auf den gleichen Werkstückabschnitt gerichtet und messen mit unterschiedlichen Parameter. Die Ergebnisse, also Bilder aller Kameras werden entsprechend dem erfindungsgemäßen Verfahren, vorzugsweise unter Berücksichtigung der zugeordneten z-Positionen, zusammengefügt und ausgewertet.
  • Insbesondere zeichnet sich ein Verfahren zur Bestimmung der Oberflächenstruktur eines Werkstücks durch Ermittlung eines oder mehrerer Oberflächenpunkte mittels optischen Fokusverfahren, bei dem mehrere Bilder zumindest eines Teiles des im Messbereich des optischen Sensors befindlichen Ausschnittes der Werkstückoberfläche in verschiedenen Entfernungen zwischen Sensor und Werkstückoberfläche aufgenommen und verarbeitet werden, dadurch aus, dass während der Änderung der Entfernungen zwischen Sensor und Werkstückoberfläche Bilder mit unterschiedlicher, auf zumindest einen Bildsensor einfallender Lichtmenge je Bild, aufgenommen und/oder errechnet werden, aus denen der eine oder mehrere Oberflächenpunkte nach dem Fokusverfahren berechnet werden.
  • Bei einem Verfahren zur Bestimmung der Oberflächengeometrie eines Werkstücks durch Ermittlung eines oder mehrerer Oberflächenpunkte mittels optischem Fokusverfahren, bei dem mehrere Bilder, zumindest eines Teils des im Messbereich des optischen Sensors befindlichen Ausschnitts der Werkstückoberfläche in verschiedenen Entfernungen zwischen Sensor und Werkstückoberfläche aufgenommen werden und zu einem Bilderstapel zusammengefügt werden, der anschließend ausgewertet wird, ist vorgesehen, dass die Beleuchtungsintensität und/oder die Integrationszeit des Sensors während der Aufnahme des Bilderstapels variiert wird oder dies durch rechnerische Addition von Bildinhalten mathematisch nachgebildet wird.
  • Bevorzugterweise wird für jedes aufgenommene Bild eine Position bestimmt und diesem Bild zugeordnet, aus der die Änderung des Abstandes zwischen Sensor und Werkstückoberfläche berechenbar ist, vorzugsweise durch zur Bildaufnahme zumindest nahezu synchrones Auslesen eines der Messbewegung zugeordneten Maßstabs- bzw. Längenmesssystems.
  • Die Erfindung zeichnet sich auch dadurch aus, dass während der Messbewegung zur Variation der einfallenden Lichtmenge je Bild auf die zumindest eine Kamera des optischen Sensors, vorzugsweise Bildverarbeitungssensor mit Matrixsensor wie CCD oder CMOS, die Lichtquelle in ihrer Beleuchtungsintensität und/oder Beleuchtungszeit, vorzugsweise blitzartig, angesteuert wird und/oder die Integrationszeit einer Kamera geändert wird und/oder zumindest zwei Matrixsensoren mit unterschiedlichen Integrationszeiten verwendet werden.
  • Eigenerfinderischen Charakter besitzt die Lehre, dass die Variation der auf den optischen Sensor, vorzugsweise Matrixsensor, einfallenden Lichtmenge je Bild während der Messbewegung einer Fokusmessung virtuell durch Summenbildung der gemessenen Intensitäten je Kamerapixel für nacheinander aufgenommene Bilder erfolgt, wobei vorzugsweise die Anzahl der jeweils aufsummierten Bilder fest eingestellt wird oder während oder nach der Messung die Bilder pixelweise aufsummiert werden, bis für vorzugsweise jedes Kamerapixel getrennt, die minimale Summenintensität einen unteren Grenzwert überschreitet und/oder die maximale Summenintensität einen weiteren unteren Grenzwert überschreitet und vorzugsweise die maximale Summenintensität einen oberen Grenzwert unterschreitet.
  • Auch als eigenerfinderisch ist zu bezeichnen, dass die Intensität der Lichtquelle vorab so eingestellt wird, dass für jedes einzelne Kamerapixel für jede Position, innerhalb eines festgelegten Bereiches der zu durchfahrenden Entfernungen zwischen Sensor und Werkstückoberfläche, bei zumindest einer der gewählten Parametereinstellungen, also Lichtmengen je Bild, eine maximale Intensität nicht überschritten und eine minimale Intensität nicht unterschritten wird.
  • Unabhängig hiervon ist insbesondere vorgesehen, dass die Anzahl und Länge der verschiedenen Integrationszeiten und/oder die Anzahl der verschiedenen Beleuchtungsintensitäten und/oder die Länge der verschiedenen Beleuchtungszeiten durch den Benutzer vorab festgelegt wird, indem vorzugsweise eine erste Integrationszeit bzw. Beleuchtungsintensität bzw. Beleuchtungszeit mehrfach um einen Faktor vergrößert wird und/oder ein Offset zu dieser hinzugerechnet wird.
  • Bevorzugterweise lehrt die Erfindung, dass die Variation der Lichtmenge je Bild zyklisch mehrfach nacheinander oder in beliebiger Reihenfolge erfolgt, vorzugsweise mit maximal möglicher Bildaufnahme- bzw. Beleuchtungsänderungsfrequenz, wobei vorzugsweise mehrere Zyklen mit fester Reihenfolge der Variation der Lichtmenge je Bild durchlaufen werden.
  • Die Erfindung zeichnet sich auch dadurch aus, dass nach erfolgter Erzeugung der Bilder folgende Schritte zur Ermittlung der Oberflächenpunkte abgearbeitet werden, wobei die Reihenfolge der Einzelschritte, insbesondere der Schritte Interpolation von Zwischenwerten an diskreten Zeitpunkten und Normierung auf gemeinsame Lichtmenge, beliebig ist:
    • – Entfernen der Messwerte aus der Gesamtmenge der Intensitätswerte der Kamerapixel, die eine Maximalintensität überschreiten und der Messwerte, die eine Mindestintensität unterschreiten, es sei denn, es liegen für den gleichen oder benachbarte Zeitpunkte innerhalb eines Variationszyklus keine Werte oberhalb der Mindestintensität vor,
    • – vorzugsweise nur Verwendung jeweils des Messwertes für ein Kamerapixel innerhalb eines Variationszyklus, der die höchste Intensität besitzt,
    • – Normierung aller verbleibender Intensitätsmesswerte aller Kamerapixel auf eine gemeinsame Lichtmenge, vorzugsweise die größte ausgewählte Lichtmenge, vorzugsweise durch Multiplikation mit einem je Lichtmengenvariation festen oder in einer Tabelle abgelegten, zusätzlich von der gemessenen Intensität selbst abhängigen Faktor und entsprechende Erhöhung des Wertebereiches der Intensitätsdarstellung,
    • – vorzugsweise Interpolation der Intensitäten der Kamerapixel zur Erzeugung eines für alle Pixel einheitlichen Rasters in Messbewegungsrichtung unter Verwendung der den einzelnen Bildern zugeordneten Positionen,
    • – Bestimmung einer oder mehrerer Oberflächenpositionen durch getrennte Auswertung der normierten Intensitäten jeweils eines Kamerapixels oder durch Auswerten der Intensitäten oder des Kontrastes mehrerer Kamerapixel innerhalb eines oder mehrerer Teilbereiche der nach der Interpolation zur Verfügung stehenden, in Messbewegungsrichtung zugeordneten, lateral benachbarten Pixelbereiche, jeweils nach dem Fokusverfahren, indem der Ort des Maximums der Intensitäts- bzw. Kontrastverläufe ermittelt wird, vorzugsweise durch Ermittlung des Maximums der jeweils eingepassten Parabel.
  • Insbesondere ist vorgesehen, dass der optische Sensor einen lateralen Messbereich besitzt, der in Bereiche unterteilt wird, aus denen einzelne Messpunkte auf der Werkstückoberfläche ermittelt werden, wobei vorzugsweise die Auswertung der einzelnen Teilbereiche nach dem erfindungsgemäßen Verfahren voneinander getrennt erfolgt.
  • Es besteht die Möglichkeit, dass die optische Messung mit Hilfe konfokalen Strahlengangs, vorzugsweise durch Einbringen einer rotierenden Lochscheibe, wie Nipkow-Scheibe, erfolgt.
  • Vorzugsweise wird das Verfahren in einem Koordinatenmessgerät eingesetzt.
  • Weitere Einzelheiten, Vorteile und Merkmale der Erfindung ergeben sich nicht nur aus den Ansprüchen, den diesen zu entnehmenden Merkmalen – für sich und/oder in Kombination –, sondern auch aus der nachfolgenden Beschreibung von der Zeichnung zu entnehmenden bevorzugten Ausführungsbeispielen.
  • Es zeigen:
  • 1 eine Prinzipdarstellung eines Koordinatenmessgerätes,
  • 2 eine Prinzipdarstellung einer Messanordnung mit optischem Sensor,
  • 3 den Zusammenhang zwischen gemessener Intensität und der Zeit bzw. des Ortes in z-Richtung für drei verschieden helle Kamerapixel bei drei verschiedenen Integrationszeiten der Kamera,
  • 4 den Zusammenhang zwischen gemessener Intensität und der Zeit bzw. des Ortes z für ausgewählte Intensitätswerte,
  • 5 den Zusammenhang zwischen gemessener Intensität und der Zeit bzw. des Ortes z für die drei Kamerapixel getrennt,
  • 6 den Zusammenhang zwischen gemessener, normierter Intensität und der Zeit bzw. des Ortes z für die drei Kamerapixel und
  • 7 den Zusammenhang zwischen gemessener, normierter Intensität und der Zeit bzw. des Ortes z für die drei Kamerapixel in einheitlichem Raster für die z-Koordinate und
  • 8 den Zusammenhang zwischen errechnetem Kontrast zwischen zwei Kamerapixeln und der Zeit bzw. des Ortes z.
  • In 1 ist rein prinzipiell ein Koordinatenmessgerät 10 dargestellt, das mit dem für die zu lösende Messaufgabe erforderlichen Sensorik bestückt ist. Die Sensorik kann wahlweise montiert oder demontiert werden. Das hinlänglich bekannte und noch einmal in der 1 wiedergegebene Prinzip eines Koordinatenmessgerätes 10 umfasst einen z. B. aus Granit bestehenden Grundrahmen 12 mit Messtisch 14, auf dem ein zu messendes Objekt 16 positioniert wird, um z. B. dessen Oberflächeneigenschaften zu messen.
  • Entlang dem Grundrahmen 12 ist ein Portal 18 in Y-Richtung verstellbar. Hierzu sind Säulen oder Ständer 20, 22 gleitend am Grundrahmen 12 abgestützt. Von den Säulen 20, 22 geht eine Traverse 24 aus, entlang der ein Schlitten verfahrbar ist, der seinerseits eine Pinole oder Säule 26 aufnimmt, die in Z-Richtung verstellbar ist. Von der Pinole 26 bzw. ggfs. einer mit der Pinole 26 verbundenen Wechselschnittstelle geht ein optischer Sensor 28 aus.
  • Ferner können von der Pinole 26 Beleuchtungseinrichtungen ausgehen, um das zu messende Werkstück z. B. aus mehreren Richtungen zu beleuchten, wobei die Beleuchtungsintensitäten bzw. Wellenlängen erfindungsgemäß verändert werden können.
  • Das erfindungsgemäße Verfahren wird insbesondere auch anhand der 2 erläutert.
  • So sind der 2 ein Messobjekt 205 und eine optische Sensorik 201 zu entnehmen, welche eine Optik und ein Detektionssystem 202 und zwei Beleuchtungen 203 und 204 umfasst. Das optische Detektionssystem 202 und das Messobjekt 205 sind zueinander verschiebbar, vorzugsweise in Richtung der optischen Achse (Pfeil 206). Zur Bestimmung der Oberfläche des Messobjektes 205 werden mehrere Aufnahmen mit dem optischen Detektionssystem 202 in unterschiedlichen Abständen in Richtung des Pfeils 206 aufgenommen. Während der Relativbewegung in Richtung des Pfeils 206 werden sehr schnell hintereinander und damit an der gleichen oder annähernd gleichen Messstelle Bilder aufgenommen, wobei die Beleuchtung variiert wird. So wird das Objekt 205 beispielsweise in einer ersten Position durch die Beleuchtung 203 und in einer darauf folgenden Position durch die Beleuchtung 204 beleuchtet beziehungsweise umgekehrt und somit aus verschiedenen Richtungen. Ebenso kann für die unterschiedlichen Bilder die Intensität der Beleuchtung variiert oder Lichtblitze können verwendet werden. Auch besteht die Möglichkeit, für die verwendeten Beleuchtungsquellen unterschiedliche Wellenlängen oder Wellenlängenbereiche zu verwenden. Aus den in den verschiedenen Abständen aufgenommenen und/oder unterschiedlich beleuchteten Bildern wird so dann ein Gesamtbild berechnet. Da für die verschiedenen aufgenommenen Bilder möglicherweise jeweils nur Teile des Bildes scharf abgebildet beziehungsweise ausreichend ausgeleuchtet beziehungsweise nicht überstrahlt sind, wird aus jedem Bild nur der Teil verarbeitet, der in einem gültigen Amplitudenbereich der Grauwerte beziehungsweise in einem gültigen Kontrastbereich der Grauwerte liegt. Die Auswertung des Gesamtbildes wird entweder verwendet, um einen einzelnen Messpunkt, ähnlich einem Autofokusmesspunkt, oder mehrere 3D-Messpunkte zu bestimmen, indem die Autofokusauswertung in mehreren Bildausschnitten getrennt durchgeführt wird.
  • Zusätzlich oder anstatt der Variation der Beleuchtung kann zur Variation der Lichtmenge je aufgenommenen Bildes die Integrationszeit der Kamera variiert werden. Gleichwirkend ist auch die Variation der Kameraverstärkung einsetzbar. Hier ist allerdings die Veränderung des Signalrauschens zu beachten. Das erfindungsgemäße Verfahren berücksichtigt dazu nur die Messwerte, die einen vorbestimmten Intensitätspegel überschreiten. Dieser Pegel ist abhängig von der gewählten Kameraverstärkung, also beispielsweise höher, falls die Kameraverstärkung erhöht wird.
  • Das erfindungsgemäße Verfahren ist mit der in 2 gezeigten Dunkelfeldauflichtbeleuchtung aber ebenso mit einer Hellfeldauflichtbeleuchtung durchführbar. Diese kann z. B. in den Strahlengang des optischen Sensors 202 integriert sein, wie im Stand der Technik bereits beschrieben. Ebenso kann das erfindungsgemäße Verfahren bei Durchlichtbeleuchtung eingesetzt werden, beispielsweise bei transparenten oder teiltransparenten Werkstücken.
  • Insbesondere besteht auch die Möglichkeit, nach dem konfokalen Messprinzip zu arbeiten, wobei ggfs. eine rotierende Lochscheibe wie Nipkow-Scheibe benutzt wird.
  • Ein mögliches Verfahren für die Fusion der Messdaten mit unterschiedlichen Lichtmengen je Bild wird in 3 und den nachfolgenden Figuren beschrieben. Hierbei wird die Integrationszeit der Kamera variiert.
  • Die 3a) bis c) zeigen beispielhaft die gemessenen Intensitäten I1 (P1, P2, P3, P4) (gekennzeichnet durch „–”-Symbole), I2 (P1, P2, P3, P4) (gekennzeichnet durch „+”-Symbole) und I3 (P1, P2, P3, P4) (gekennzeichnet durch „o”-Symbole) für drei ausgewählte Kamerapixel P1, P2, P3 und P4 der Matrixkamera des optischen Sensors für drei verschiedene Integrationszeiten Ti1, Ti2 und Ti3 und nicht konfokalem Strahlengang. P1 ist im Beispiel ein Kamerapixel mit hoher, P2 mit mittlerer und P3 mit niedriger Helligkeit, beispielsweise aufgrund unterschiedlicher Neigung oder Reflexionsgrades des dem Kamerapixel zugeordneten Werkstückoberflächenbereichs. P4 ist ein besonders dunkles Pixel, z. B. einer „Pfeffer und Salz”-Struktur. Durch die nicht konfokale Messung erscheint es im Fokus dunkler als außerhalb des Fokus, da außerhalb des Fokus die Überstrahlung durch benachbarte unscharf abgebildete Pixel dominiert. Die Intensitäten sind in Bezug auf den Abstand z zwischen Sensor und Werkstückoberfläche bzw. aufgrund der nahezu gleichförmigen Bewegung gleichermaßen der Zeit t im Bereich t1 bis t33 aufgetragen. Der Verlauf in 3a) wurde bei der längsten Integrationszeit Ti1 = T1 aufgezeichnet. 3b) zeigt die Intensitäten I2 bei halber Integrationszeit und 3c) bei Integrationszeit Ti3 = ¼ T1. Da die Integrationszeit während der Messbewegung zyklisch verändert wird, liegen die Intensitäten für die verschiedenen Integrationszeiten nur zu zumindest leicht unterschiedlichen Zeitpunkten t zeitdiskret vor, die die Messpunkte verbindenden Linien verdeutlichen also nur die Zusammengehörigkeit zu einem Pixel. So erfolgt die Messung mit der Integrationszeiten Ti1 nur zu den Zeitpunkten t1, t4, t7 usw., während die Messungen mit der Integrationszeiten Ti2 zu den Zeitpunkten t2, t5, t8 usw. und die Messungen mit der Integrationszeiten Ti3 zu den Zeitpunkten t3, t6, t9 usw. vorliegen.
  • Die als Strich-Punkt-Linien dargestellten Grenzen Imax und Imin zeigen den Bereich der zur Auswertung sinnvollerweise zu verwendenden, gültigen Intensitäten, da oberhalb von Imax Überstrahlung, also Sättigung, und unterhalb von Imin ein zu hohes Signalrauschen vorliegt. Die überstrahlten Kurvenanteile sind in den 3a) und b) ansatzweise gestrichelt angedeutet. Die real aufgenommenen Intensitäten können jedoch aufgrund von Sättigung Imax nicht übersteigen.
  • Die gepunktete Hilfslinie zum Zeitpunkt t17 verdeutlicht die Zeit bzw. den Ort z, an dem die Oberfläche im entsprechenden Pixel scharf abgebildet wird, also den zu bestimmenden Fokusort zAF. An diesem Ort bzw. der diesem zugeordnet Zeit befindet sich stets das Intensitätsmaximum bzw. ein Kontrastmaximum, wobei der Kontrast aus der Intensitätsdifferenz zu benachbarten Pixeln berechnet wird.
  • In den 4a) bis c) sind die gleichen Darstellungen wie in den 3a) bis c) enthalten, jedoch wurden alle Werte oberhalb von Imax und unterhalb von Imin entfernt und es verbleiben nur die zur Auswertung zu verwendenden, gültigen Intensitäten. Eine Ausnahme bildet das Pixel P4. Da für dieses teilweise keine Intensitäten oberhalb Imin vorliegen, müssen die vorhandenen unterhalb von Imin aus der höchsten Integrationszeit Ti1 verwendet werden. Die noch geringeren Intensitäten aus den Bildern mit noch geringerer Integrationszeit Ti2 und Ti3 werden vollständig verworfen.
  • Damit für jeden Ort z Messwerte mit allen verwendeten Integrationszeiten zum Vergleich vorliegen, erfolgt bereits vor jeder weiteren Auswertung in einem ersten Ausführungsbeispiel die Interpolation und teilweise Extrapolation der fehlenden Messwerte, z. B. durch Einpassen eines Polynoms in alle zu einem Kamerapixel und einer Integrationszeit gemessenen, gültigen Intensitäten oder durch Geraden-Approximation zwischen jeweils zwei gemessenen, zeitlich benachbarten Intensitäten eines Kamerapixels bei gleicher Integrationszeit. Die Interpolation bzw. Extrapolation wird anhand der 7 im Vergleich zur 6, dort allerdings an den fusionierten und normierten Intensitäten, ersichtlich.
  • In einer weiteren, nicht separat dargestellten Ausführung werden zusätzlich die Intensitätswerte nicht berücksichtigt, die trotz dessen, dass sie im gültigen Bereich zwischen Imin und Imax liegen, eine niedrigere Intensität (und damit einen höheren Rauschlevel) besitzen, als die aus dem selben Integrationszeit-Zyklus stammenden Intensitäten höherer Integrationszeit, sofern diese nicht im Sättigungsbereich liegen.
  • Die 5a) bis c) zeigen den ersten Schritt der Fusion aller zwischen Imin und Imax liegenden Messwerte aus allen Integrationszeiten für die vier Kamerapixel P1, P2, P3 und P4 getrennt. Die Symbole „–”, „+” und „o” kennzeichnen dabei nach wie vor, bei welcher Integrationszeiten die Messwerte aufgenommenen worden.
  • Der zweite Schritt der Fusion, die Normierung, ist in 6 dargestellt. Die aus den 5a) bis c) bereits bekannten Intensitäten I1, I2 und I3 werden auf ein gemeinsames Niveau normiert als I1, I2* und I3* dargestellt, in diesem Ausführungsbeispiel auf das Niveau der längsten Integrationszeit Ti1, um Rundungsfehler zu vermeiden. Der dazu notwendige Wertebereich für die Intensitäten und damit die Grauwertauflösung, muss entsprechend erhöht werden, vorzugsweise um den Faktor der maximalen Lichtmengenerhöhung Ti1/Ti3 je Bild. Die Normierung selbst erfolgte mit einem festen Faktor, vorzugsweise anhand des Verhältnisses der jeweiligen Integrationszeiten. Alternativ wird der Normierungsfaktor für jede Integrationszeit einmalig vorab durch Messung an einem Referenzobjekt mit den unterschiedlichen, einzusetzenden Integrationszeiten durch Vergleich der erzielten Intensitäten am gleichen Messort, ermittelt.
  • In einer weiteren Ausführungsform ist der Normierungsfaktor von der Intensität selbst abhängig, um die bei der Vorabmessung ggf. ermittelten Nichtlinearität zu berücksichtigen, beispielsweise durch Hinterlegung in Tabellen (z. B. „Look up table”, LUT) für jede Integrationszeit. Eine weitere Ausführung nutzt zur Ermittlung des Normierungsfaktors das Verhältnis der für jeweils dasselbe Kamerapixel gemessenen Intensitäten bei den verschiedenen Integrationszeiten an nahezu oder genau dem gleichen Ort z bzw. der Messzeit t. Voraussetzung dafür ist jedoch das Vorliegen der entsprechend interpolierten Werte für den gleichen Ort bzw. die gleiche Zeit, hervorgegangen aus allen gültigen Werten, wie bei den 4a) bis c) erläutert. Der Normierungsfaktor wird vorzugsweise nur für die ursprünglichen Positionen einer ausgewählten Integrationszeit ermittelt und für alle Zwischenpositionen wiederum interpoliert.
  • Im Vergleich zu den Erläuterungen zu den 4a) bis c) erfolgt in einem zweiten Ausführungsbeispiel erst nach der Normierung die Interpolation der fehlenden Zwischenwerte für alle Positionen. Die 7 zeigt die interpolierten Werte mit dem Symbol „x” gekennzeichnet. In beiden Fällen liegen für alle z-Positionen die Intensitäten für alle Kamerapixel des Messfensters bzw. Messfensterbereiches vor und der Kontrast für jedes Kamerapixels bzgl. seiner benachbarten Kamerapixel wird bestimmt.
  • Die Bestimmung des Kontrastes K (P2, P4) zwischen den Pixeln P2 und P4 zeigt die 8. Die normierten Intensitäten der Pixel P2 und P4 werden dazu an jeweils gleichen Orten bzw. Zeiten voneinander abgezogen. Hierfür ist also eine vorangegangene Interpolation auf gemeinsame Zeit- bzw. Ortspositionen (z) für alle Pixel notwendig.
  • Im nächsten Schritt erfolgt nun die Auswertung nach dem Fokusprinzip. Dazu wird der Ort zAF des Maximums des Kontrasts, wie in 8 für die Pixel P2 und P4 gezeigt, für jedes Kamerapixel ermittelt, z. B. durch Ermittlung des Maximums der jeweils in den Kontrastverlauf eingepassten Parabel. Die Kontrastbildung erfolgt meist nicht nur zwischen zwei benachbarten Pixeln, wie in 8 gezeigt, sondern als Mittelwert der Differenzen zu in allen Richtungen benachbart liegenden Kamerapixeln.
  • In einer alternativen Ausführung unterbleibt die Interpolation auf ein gemeinsames z-Raster für alle Kamerapixel, und jedes Kamerapixel wird entsprechend seines Intensitätsverlaufes für sich ausgewertet, ohne dass ein Kontrast zu den benachbarten Pixeln bestimmt wird. Die Auswertung erfolgt gleichfalls nach dem Fokusprinzip, indem das Intensitätsmaximum für jedes Kamerapixel, wie in 7 für die Pixel P1, P2 und P3 erkennbar, oder für Gruppen von Kamerapixeln ermittelt wird, z. B. durch Ermittlung des Maximums der jeweils in den Intensitätsverlauf eingepassten Parabel. Diese sog. Helligkeitsauswertung wird bevorzugt bei konfokalem Strahlengang eingesetzt.
  • In einer weiteren Ausführungsform erfolgen die Integrationszeit-Zyklen diskontinuierlich, es entstehen also Aufnahmepausen beim Durchfahren des Abstandes z zwischen Messobjekt und Sensor. An nahezu einem Ort können alternativ auch mehrere Zyklen durchfahren werden, bevor die Pausierung erfolgt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10162663 [0004]
    • DE 10219491 [0004]
    • DE 2009043919 [0006, 0009]

Claims (18)

  1. Verfahren zur Bestimmung von zumindest einer Struktur und/oder der Geometrie eines Objektes mittels zumindest einer in einem Koordinatenmessgerät integrierten Sensorik wie optischer und/oder Röntgensensorik, dadurch gekennzeichnet, dass von dem Objekt am gleichen oder nahezu gleichen Messort/-bereich zumindest zwei Messungen durchgeführt werden und dass Teilergebnisse einer Messung mit Teilergebnissen der zumindest einen weiteren Messung zur Erzielung eines Gesamtmessergebnisses kombiniert werden.
  2. Verfahren nach vorzugsweise Anspruch 1, dadurch gekennzeichnet, dass zur Bestimmung der Oberflächenstruktur eines Werkstücks durch Ermittlung eines oder mehrerer Oberflächenpunkte mittels optischen Fokusverfahren, bei dem mehrere Bilder zumindest eines Teiles des im Messbereich des optischen Sensors befindlichen Ausschnittes der Werkstückoberfläche in verschiedenen Entfernungen zwischen Sensor und Werkstückoberfläche aufgenommen und verarbeitet werden, wobei während der Änderung der Entfernungen zwischen Sensor und Werkstückoberfläche Bilder mit unterschiedlicher, auf zumindest einen Bildsensor einfallender Lichtmenge je Bild, aufgenommen und/oder errechnet werden, aus denen der eine oder mehrere Oberflächenpunkte nach dem Fokusverfahren berechnet werden.
  3. Verfahren nach vorzugsweise Anspruch 1, dadurch gekennzeichnet, dass zur Bestimmung der Oberflächengeometrie eines Werkstücks durch Ermittlung eines oder mehrerer Oberflächenpunkte mittels optischem Fokusverfahren, bei dem mehrere Bilder, zumindest eines Teils des im Messbereich des optischen Sensors befindlichen Ausschnitts der Werkstückoberfläche in verschiedenen Entfernungen zwischen Sensor und Werkstückoberfläche aufgenommen werden und zu einem Bilderstapel zusammengefügt werden, der anschließend ausgewertet wird, wobei die Beleuchtungsintensität und/oder die Integrationszeit des Sensors während der Aufnahme des Bilderstapels variiert wird oder dies durch rechnerische Addition von Bildinhalten mathematisch nachgebildet wird.
  4. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für jedes aufgenommene Bild eine Position bestimmt und diesem Bild zugeordnet wird, aus der die Änderung des Abstandes zwischen Sensor und Werkstückoberfläche berechenbar ist, vorzugsweise durch zur Bildaufnahme zumindest nahezu synchrones Auslesen eines der Messbewegung zugeordneten Maßstabs- bzw. Längenmesssystems.
  5. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass während der Messbewegung zur Variation der einfallenden Lichtmenge je Bild auf die zumindest eine Kamera des optischen Sensors, vorzugsweise Bildverarbeitungssensor mit Matrixsensor wie CCD oder CMOS, die Lichtquelle in ihrer Beleuchtungsintensität und/oder Beleuchtungszeit, vorzugsweise blitzartig, angesteuert wird und/oder die Integrationszeit einer Kamera geändert wird und/oder zumindest zwei Matrixsensoren mit unterschiedlichen Integrationszeiten verwendet werden.
  6. Verfahren nach vorzugsweise einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Variation der auf den optischen Sensor, vorzugsweise Matrixsensor, einfallenden Lichtmenge je Bild während der Messbewegung einer Fokusmessung virtuell durch Summenbildung der gemessenen Intensitäten je Kamerapixel für nacheinander aufgenommene Bilder erfolgt, wobei vorzugsweise die Anzahl der jeweils aufsummierten Bilder fest eingestellt wird oder während oder nach der Messung die Bilder pixelweise aufsummiert werden, bis für vorzugsweise jedes Kamerapixel getrennt, die minimale Summenintensität einen unteren Grenzwert überschreitet und/oder die maximale Summenintensität einen weiteren unteren Grenzwert überschreitet und vorzugsweise die maximale Summenintensität einen oberen Grenzwert unterschreitet.
  7. Verfahren nach vorzugsweise einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Intensität der Lichtquelle vorab so eingestellt wird, dass für jedes einzelne Kamerapixel für jede Position, innerhalb eines festgelegten Bereiches der zu durchfahrenden Entfernungen zwischen Sensor und Werkstückoberfläche, bei zumindest einer der gewählten Parametereinstellungen, also Lichtmengen je Bild, eine maximale Intensität nicht überschritten und eine minimale Intensität nicht unterschritten wird.
  8. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anzahl und Länge der verschiedenen Integrationszeiten und/oder die Anzahl der verschiedenen Beleuchtungsintensitäten und/oder die Länge der verschiedenen Beleuchtungszeiten durch den Benutzer vorab festgelegt wird, indem vorzugsweise eine erste Integrationszeit bzw. Beleuchtungsintensität bzw. Beleuchtungszeit mehrfach um einen Faktor vergrößert wird und/oder ein Offset zu dieser hinzugerechnet wird.
  9. Verfahren nach vorzugsweise einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Variation der Lichtmenge je Bild zyklisch mehrfach nacheinander oder in beliebiger Reihenfolge erfolgt, vorzugsweise mit maximal möglicher Bildaufnahme- bzw. Beleuchtungsänderungsfrequenz, wobei vorzugsweise mehrere Zyklen mit fester Reihenfolge der Variation der Lichtmenge je Bild durchlaufen werden.
  10. Verfahren nach vorzugsweise einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass nach erfolgter Erzeugung der Bilder folgende Schritte zur Ermittlung der Oberflächenpunkte abgearbeitet werden, wobei die Reihenfolge der Einzelschritte, insbesondere der Schritte Interpolation von Zwischenwerten an diskreten Zeitpunkten und Normierung auf gemeinsame Lichtmenge, beliebig ist: – Entfernen der Messwerte aus der Gesamtmenge der Intensitätswerte der Kamerapixel, die eine Maximalintensität überschreiten und der Messwerte, die eine Mindestintensität unterschreiten, es sei denn, es liegen für den gleichen oder benachbarte Zeitpunkte innerhalb eines Variationszyklus keine Werte oberhalb der Mindestintensität vor, – vorzugsweise nur Verwendung jeweils des Messwertes für ein Kamerapixel innerhalb eines Variationszyklus, der die höchste Intensität besitzt, – Normierung aller verbleibender Intensitätsmesswerte aller Kamerapixel auf eine gemeinsame Lichtmenge, vorzugsweise die größte ausgewählte Lichtmenge, vorzugsweise durch Multiplikation mit einem je Lichtmengenvariation festen oder in einer Tabelle abgelegten, zusätzlich von der gemessenen Intensität selbst abhängigen Faktor und entsprechende Erhöhung des Wertebereiches der Intensitätsdarstellung, – vorzugsweise Interpolation der Intensitäten der Kamerapixel zur Erzeugung eines für alle Pixel einheitlichen Rasters in Messbewegungsrichtung unter Verwendung der den einzelnen Bildern zugeordneten Positionen, – Bestimmung einer oder mehrerer Oberflächenpositionen durch getrennte Auswertung der normierten Intensitäten jeweils eines Kamerapixels oder durch Auswerten der Intensitäten oder des Kontrastes mehrerer Kamerapixel innerhalb eines oder mehrerer Teilbereiche der nach der Interpolation zur Verfügung stehenden, in Messbewegungsrichtung zugeordneten, lateral benachbarten Pixelbereiche, jeweils nach dem Fokusverfahren, indem der Ort des Maximums der Intensitäts- bzw. Kontrastverläufe ermittelt wird, vorzugsweise durch Ermittlung des Maximums der jeweils eingepassten Parabel.
  11. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der optische Sensor einen lateralen Messbereich besitzt, der in Bereiche unterteilt wird, aus denen einzelne Messpunkte auf der Werkstückoberfläche ermittelt werden, wobei vorzugsweise die Auswertung der einzelnen Teilbereiche nach dem erfindungsgemäßen Verfahren voneinander getrennt erfolgt.
  12. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die optische Messung mit Hilfe konfokalen Strahlengangs, vorzugsweise durch Einbringen einer rotierenden Lochscheibe, wie Nipkow-Scheibe, erfolgt.
  13. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren in einem Koordinatenmessgerät eingesetzt wird.
  14. Verfahren nach vorzugsweise einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mit der Röntgensensorik mit unterschiedlicher Intensität und/oder Wellenlänge und/oder Strahlungsrichtung, vorzugsweise nacheinander, an der gleichen oder annähernd gleichen Messstelle gemessen wird.
  15. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mit der optischen Sensorik Messungen, wie Autofokus-Messungen, mit unterschiedlicher Beleuchtung, vorzugsweise nacheinander, an der gleichen oder annähernd gleichen Messstelle durchgeführt werden.
  16. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die optische Messung mit Beleuchtungen unterschiedlicher Intensität und/oder aus unterschiedlichen Richtungen und/oder mit Lichtblitzen, vorzugsweise unterschiedlicher Intensität, und/oder unterschiedlichen Wellenlängen und/oder Wellenlängenbereichen arbeitet.
  17. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die optische Messung mit verschiedenen Beleuchtungsintensitäten und zumindest einem durch Shutter oder anderem mechanischen und/oder elektronischem Verschluss zeitweise abgedecktem Detektionsmittel arbeitet.
  18. Verfahren nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus den aus mehreren Richtungen und/oder verschiedenen Beleuchtungsintensitäten und/oder Wellenlängen und/oder Wellenlängenbereichen ermittelten Bildern, welche durch eine flächenförmige Detektionseinrichtung aufgenommen werden, ein Gesamtbild zusammengesetzt wird, wobei aus vorzugsweise jedem Teilbild die Informationen verwendet werden, die in einem vorher festgelegten Amplitutenbereich und/oder Kontrastbereich, vorzugsweise größer als eine Mindestamplitute und kleiner als eine Maximalamplitute und/oder größer als ein Mindestkontrast und kleiner als ein Maximalkontrast, liegen.
DE102010017604.4A 2009-09-01 2010-06-25 Verfahren zum optischen Messen von Strukturen eines Objekts Active DE102010017604B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010017604.4A DE102010017604B4 (de) 2009-09-01 2010-06-25 Verfahren zum optischen Messen von Strukturen eines Objekts

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102009043919 2009-09-01
DE102009043919.6 2009-09-01
DE102009044285.5 2009-10-19
DE102009044285 2009-10-19
DE102010017604.4A DE102010017604B4 (de) 2009-09-01 2010-06-25 Verfahren zum optischen Messen von Strukturen eines Objekts

Publications (2)

Publication Number Publication Date
DE102010017604A1 true DE102010017604A1 (de) 2011-03-17
DE102010017604B4 DE102010017604B4 (de) 2016-03-10

Family

ID=43571179

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010017604.4A Active DE102010017604B4 (de) 2009-09-01 2010-06-25 Verfahren zum optischen Messen von Strukturen eines Objekts

Country Status (1)

Country Link
DE (1) DE102010017604B4 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013211286A1 (de) * 2013-06-17 2014-12-18 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zur Vermessung eines Werkstücks mit einem optischen Sensor
JP2016200551A (ja) * 2015-04-14 2016-12-01 株式会社ミツトヨ 画像測定装置、画像測定方法、情報処理装置、情報処理方法、及びプログラム
DE102015110289A1 (de) 2015-06-26 2016-12-29 Werth Messtechnik Gmbh Verfahren zur Bestimmung von Messpunkten auf der Oberfläche eines Werkzeugstücks mit einem optischen Sensor
DE102015226385A1 (de) * 2015-12-21 2017-06-22 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zur Ermittlung eines Messfehlers und zum Vermessen eines Werkstücks mit einem Koordinatenmessgerät
EP3690391A1 (de) * 2019-01-29 2020-08-05 Senswork GmbH Vorrichtung zur erfassung einer dreidimensionalen struktur
EP4067809A3 (de) * 2021-03-31 2022-12-21 Carl Zeiss Industrielle Messtechnik GmbH Computerimplementiertes verfahren, verfahren, messgerät und computerprogrammprodukt
DE102022118320A1 (de) 2021-07-23 2023-01-26 Werth Messtechnik Gmbh Vorrichtung umfassend ein Koordinatenmessgerät und Verfahren zum Betreiben

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10131897A1 (de) * 2001-07-04 2003-01-16 Leica Microsystems Verfahren und Messvorrichtung zum Detektieren eines Objekts
DE102004059526B4 (de) * 2004-12-09 2012-03-08 Sirona Dental Systems Gmbh Vermessungseinrichtung und Verfahren nach dem Grundprinzip der konfokalen Mikroskopie
US20100014099A1 (en) * 2004-12-16 2010-01-21 Werth Messtechnik Gmbh Coordinate measuring device and method for measuring with a coordinate measuring device
DE102007031774A1 (de) * 2007-07-07 2009-01-15 Mähner, Bernward Verfahren und Vorrichtung zur Vermessung von Objekten mittels hochdynamischer Bildaufnahmen
DE102009024030B3 (de) * 2009-06-05 2011-01-27 Walter Maschinenbau Gmbh Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013211286A1 (de) * 2013-06-17 2014-12-18 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zur Vermessung eines Werkstücks mit einem optischen Sensor
JP2016200551A (ja) * 2015-04-14 2016-12-01 株式会社ミツトヨ 画像測定装置、画像測定方法、情報処理装置、情報処理方法、及びプログラム
DE102015110289A1 (de) 2015-06-26 2016-12-29 Werth Messtechnik Gmbh Verfahren zur Bestimmung von Messpunkten auf der Oberfläche eines Werkzeugstücks mit einem optischen Sensor
DE102015226385A1 (de) * 2015-12-21 2017-06-22 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zur Ermittlung eines Messfehlers und zum Vermessen eines Werkstücks mit einem Koordinatenmessgerät
EP3690391A1 (de) * 2019-01-29 2020-08-05 Senswork GmbH Vorrichtung zur erfassung einer dreidimensionalen struktur
WO2020156817A1 (de) * 2019-01-29 2020-08-06 Senswork Gmbh Vorrichtung zur erfassung einer dreidimensionalen struktur
EP4067809A3 (de) * 2021-03-31 2022-12-21 Carl Zeiss Industrielle Messtechnik GmbH Computerimplementiertes verfahren, verfahren, messgerät und computerprogrammprodukt
DE102022118320A1 (de) 2021-07-23 2023-01-26 Werth Messtechnik Gmbh Vorrichtung umfassend ein Koordinatenmessgerät und Verfahren zum Betreiben

Also Published As

Publication number Publication date
DE102010017604B4 (de) 2016-03-10

Similar Documents

Publication Publication Date Title
DE102010017604B4 (de) Verfahren zum optischen Messen von Strukturen eines Objekts
DE102016202928B4 (de) Verbessertes Autofokusverfahren für ein Koordinatenmessgerät
DE102010037746B4 (de) Verfahren zum optischen Antasten einer Kante in oder an einem Oberflächenbereich
EP2710794A2 (de) Verfahren zur erzeugung und auswertung eines bilds
EP3123228B1 (de) Konfokales mikroskop mit aperturkorrelation
DE102009055269A1 (de) Verfahren zur Bestimmung der Relativbewegung mittels einer HDR-Kamera
DE10328537A1 (de) Vorrichtung und Verfahren zum Vermessen der Dimension eines Körpers
WO2015176888A1 (de) Verbessertes autofokusverfahren für ein koordinatenmessgerät
DE102013211286A1 (de) Verfahren zur Vermessung eines Werkstücks mit einem optischen Sensor
DE102007031774A1 (de) Verfahren und Vorrichtung zur Vermessung von Objekten mittels hochdynamischer Bildaufnahmen
DE19919311C1 (de) Verfahren und Vorrichtung zum berührungslosen Abtasten der Brillenglasöffnung einer Brillenfassung oder des Umfangs eines Brillenglases oder einer Formscheibe
DE102008016393B4 (de) Verfahren zur Korrektur von Bildfehlern elektronischer Kameras
DE102008031412A1 (de) Vorrichtung und Verfahren zur Beobachtung mehrerer auf einer Linie angeordneter Messpunkte auf einer zu vermessenden Objektoberfläche
DE102009024030B3 (de) Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen
AT509970B1 (de) Verfahren zur aufnahme von bildern von gegenständen
EP2195610B1 (de) Vefahren und vorrichtung zum erfassen einer oberfläche oder eines oberflächenabschnitts eines körpers
DE102009057724B4 (de) Bilderfassungsvorrichtung und Verfahren zum Reduzieren von Bewegungsunschärfe
DE102013104710A1 (de) Verfahren zur lichtabhängigen Grauwertkorrektur
DE102006025312A1 (de) Verfahren und Anordnung zur Erfassung der optischen Qualität einer transparenten Scheibe
DE19757791C2 (de) MoirE-Verfahren und MoirE-Anordnung zum Vermessen einer Oberfläche
DE102011056788A1 (de) Verfahren zur Erzeugung und Auswertung eines Bilds
DE10334210B4 (de) Verfahren und Einrichtung zum Ausgleich von Helligkeitsschwankungen bei Digitalkameras
DE3844873C2 (de) Bildaufnahmevorrichtung
DE102018102159A1 (de) Verfahren zum Bestimmen der Belichtungszeit für eine 3D-Aufnahme
DE102010002599B4 (de) Sensorvorrichtung und Verfahren zum Erfassen von lokalen Intensitätsgradienten

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20120217

R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R130 Divisional application to

Ref document number: 102010064608

Country of ref document: DE

R020 Patent grant now final