-
Die Erfindung bezieht sich auf ein Verfahren zur Bestimmung von zumindest einer Struktur und/oder Geometrie eines Objektes mittels zumindest einer in einem Koordinatenmessgerät angeordneten Sensorik wie optischer oder Röntgensensorik
-
Bei der optischen Messung von Objekten tritt häufig der Nachteil auf, dass Bereiche aufgrund z. B. des Kontrastes gut auswertbar sind, wohingegen andere Bereiche dies nicht zulassen, so dass das Gesamtmessergebnis nicht zwingend sämtliche benötigten Informationen über das Objekt vermittelt.
-
Bei bisher bekannten Fokusverfahren wird die Änderung der Intensität oder des Kontrastes von Bildern ausgewertet, die während der Messbewegung, also der Änderung der Entfernungen zwischen Sensor und Werkstückoberfläche, aufgenommen werden, wobei die Beleuchtung, meist Auflichtbeleuchtung, und die Aufnahmeparameter der Kamera, wie Integrationszeit und Bildaufnahmefrequenz, während der Messung konstant bleiben.
-
Wie in der
DE 101 62 663.0 und der
DE 102 19 491.2 beschrieben, können auch einzelne Teilbereiche des Messbereiches des optischen Sensors getrennt voneinander untersucht werden, um nahezu gleichzeitig mehrere Oberflächenpunkte nach dem Autofokusverfahren zu ermitteln.
-
Nachteilig bei den bekannten Verfahren ist, dass abhängig vom Reflexionsgrad und der Neigung der Werkstückoberfläche lokal deutlich unterschiedliche Strahl- bzw. Lichtintensitäten zur Bildaufnahme zur Verfügung stehen. Dies führt dazu, dass einzelne Bereiche entweder zu hell oder zu dunkel abgebildet werden und in der Konsequenz überstrahlte Bereiche bzw. Bereiche mit erhöhtem Rauschen genaue Messungen verhindern. Unter Umständen ist die von der bzw. den Lichtquellen maximal zur Verfügung gestellte Lichtstärke bzw. -intensität insgesamt nicht ausreichend, um auswertbare oder ausreichend genau auswertbare Bilder zur Verfügung zu stellen. Verknüpft man die Strahlintensität mit der Belichtungs- bzw. Integrationszeit der Kamera je Aufnahme bzw. Bild, so erhält man ein Maß für die so genannte auf den Bildsensor einfallende Lichtmenge je Bild, auch Bestrahlungsdosis genannt.
-
Ein erster Ansatz zur Lösung dieses Problems ist in der
DE 2009 043 919.6 beschrieben. Hier werden vorzugsweise nacheinander unterschiedliche Beleuchtungen vorgeschlagen, die auf die annährend gleiche Messstelle gerichtet sind, wobei unterschiedliche Intensitäten, Wellenlängen, Wellenlängenbereiche oder Beleuchtungsrichtungen vorgeschlagen werden. Ebenso wird eine blitzartige Beleuchtung vorgeschlagen. Aus den mit den unterschiedlichen Beleuchtungen aufgenommenen Bildern wird sodann ein auszuwertendes Gesamtbild ermittelt. Aus jedem Bild werden dazu nur die Informationen entnommen, die einen zuvor festgelegten Amplituden- bzw. Kontrastbereich aufweisen. Nicht erwähnt wird die Variation der Kameraintegrationszeit.
-
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren der eingangs genannten Art so weiterzubilden, dass sich bei der Messung von Objekten mittels Strahlung Messergebnisse hoher Güte erzielen lassen.
-
Zur Lösung der Aufgabe sieht die Erfindung u. a. vor, dass von dem Objekt am gleichen oder nahezu gleichen Messort bzw. -bereich zumindest zwei Messungen durchgeführt werden und dass Teilergebnisse einer Messung mit Teilergebnissen der zumindest einen weiteren Messung zur Erzielung eines Gesamtmessergebnisses kombiniert werden.
-
Zur Vermeidung der Einschränkungen des Standes der Technik und in Erweiterung der
DE 2009 043 919.6 schlägt die vorliegende Erfindung daher vor, verallgemeinert die „Lichtmenge je aufgenommenen Bildes” während dem Einsatz eines Fokusverfahrens für nacheinander aufgenommene Bilder zu variieren. Dies ist nicht nur durch Variation der Beleuchtung, sondern gleich wirkend durch Variation der Integrationszeit der Kamera des optischen Sensors möglich.
-
Aufgrund der erfindungsgemäßen Lehre werden die Bereiche eines Messergebnisses als Teilergebnis benutzt, die die erforderliche Güte wie Kontrast oder Helligkeit aufweisen. Die Messergebnisse der in der einen Messung nicht verwertbaren Bereiche können sodann aus zumindest einer weiteren Messung, vorzugsweise mehreren nachfolgenden Messungen gewonnen werden, wobei bei den einzelnen Messungen Parameter verändert werden derart, wie z. B. Intensität und/oder Richtung, dass nach Zusammensetzen der relevanten Teilergebnisse, die die erforderliche Güte aufweisen, ein Gesamtmessergebnis erzielbar ist, aufgrund dessen die Strukturen oder Geometrien des Objektes mit der erforderlichen Genauigkeit zur Verfügung stehen.
-
Insbesondere wird mit der Röntgensensorik mit unterschiedlicher Intensität und/oder Wellenlänge und/oder Strahlungsrichtung, vorzugsweise nacheinander, an der gleichen oder annähernd gleichen Messstelle gemessen.
-
Auch kann vorgesehen sein, dass mit der optischen Sensorik Messungen, wie Autofokus-Messungen, mit unterschiedlicher Beleuchtung, vorzugsweise nacheinander, an der gleichen oder annähernd gleichen Messstelle durchgeführt werden.
-
Insbesondere bei Autofokus-Messungen werden für den gleichen oder nahezu gleichen Messort in unterschiedlichen Abständen mehrere Messungen durchgeführt, indem z. B. die Beleuchtungsintensität verändert wird. Aus den Einzelmessungen werden sodann diejenigen Messwerte weiterverarbeitet, die zu dem besten Gesamtmessergebnis führen.
-
In hervorzuhebender Weise sieht die Erfindung vor, dass die optische Messung mit Beleuchtungen unterschiedlicher Intensität und/oder aus unterschiedlichen Richtungen und/oder mit Lichtblitzen, vorzugsweise unterschiedlicher Intensität, und/oder unterschiedlichen Wellenlängen und/oder Wellenlängenbereichen arbeitet.
-
Ein eigenständiger Lösungsvorschlag lehrt, dass die optische Messung mit verschiedenen Beleuchtungsintensitäten oder zumindest einem durch Shutter oder anderem mechanischen und/oder elektronischem Verschluss zeitweise abgedecktem Detektionsmittel arbeitet.
-
Bevorzugterweise zeichnet sich die Erfindung dadurch aus, dass aus den aus mehreren Richtungen und/oder verschiedenen Beleuchtungsintensitäten und/oder Wellenlängen und/oder Wellenlängenbereichen ermittelten Bildern, welche durch eine flächenförmige Detektionseinrichtung aufgenommen werden, ein Gesamtbild zusammengesetzt wird, wobei aus vorzugsweise jedem Teilbild die Informationen verwendet werden, die in einem vorher festgelegten Amplitutenbereich und/oder Kontrastbereich, vorzugsweise größer als eine Mindestamplitute und kleiner als eine Maximalamplitute und/oder größer als ein Mindestkontrast und kleiner als ein Maximalkontrast, liegen.
-
Eigenerfinderisch ist vorgesehen, dass die optische Messung mit Hilfe konfokale Strahlengangs, vorzugsweise durch Einbringen einer rotierenden Lochblende, wie Nipkow-Scheibe, erfolgt.
-
Vorteilhaft gestaltet sich mit dem erfindungsgemäßen Verfahren die Messung von deutlich unterschiedlich hellen Bereichen innerhalb eines Bildausschnittes mit einer Fokusmessung. Diese Bereiche treten beispielsweise bei so genannten „Pfeffer und Salz” Strukturen auf, bei denen sehr kleine Strukturen nahezu zufällig auf der Werkstückoberfläche verteilt sind, die sehr hell sind, zusammen mit Strukturen, die sehr dunkel sind, ausgelöst durch die Oberflächenrauhigkeit des Werkstücks. Bei herkömmlichen Verfahren erscheinen die kleinen dunklen Bereiche dann, zumindest bei nicht konfokalem Strahlengang, im unscharfen Zustand aufgrund der Überstrahlung durch Nachbarpixel heller, als im fokussierten Zustand oder bleiben über den gesamten Messverlauf dunkel. Dies führt unter Umständen zu Kontrastverläufen, die eine fehlerhafte Fokusdetektion nach sich ziehen.
-
Durch das erfindungsgemäße Verfahren werden jedoch auch „Pfeffer und Salz” Strukturen richtig ausgewertet, da die dunklen Bereiche mit entsprechend hoher Lichtmenge je Bild aufgenommen werden, sodass die anschließende Kontrastbildung zur korrekten Fokusdetektion führt. Zudem ist durch die Messung dunkler Bereiche mit entsprechend hoher Lichtmenge bei konfokalem Strahlengang sichergestellt, dass überhaupt eine auswertbare, also mit einem Intensitätsmaximum versehene Messung erzeugt wird.
-
Die Erhöhung der Lichtmenge je Bild, vorzugsweise der Integrationszeit, kann auch oder zusätzlich rechnerisch erfolgen, indem mehrere nacheinander aufgenommene Bilder pixelweise in ihren Intensitäten aufsummiert werden, bis eine definierte, gültige Intensität erreicht ist. Eine Überstrahlung einzelner Kamerapixel darf dabei nicht auftreten bzw. werden die überstrahlten Bereiche nicht zur Auswertung herangezogen. Aus mehreren nacheinander aufgenommenen Bildern können dabei auch mehrere Summen aus unterschiedlich vielen Bildern gebildet werden, die beispielsweise aus Bildern errechnet werden, die symmetrisch um und inklusive eines ausgewählten Bildes angeordnet sind. Auf diese Art und Weise kann für jedes Kamerapixel eine gültige Intensität ermittelt werden.
-
Insbesondere bei konfokalem Strahlengang, bei dem die zur Verfügung stehende Lichtleistung durch eine oder mehrere Blenden im Strahlengang verringert wird, ist der Einsatz des erfindungsgemäßen Verfahrens sinnvoll.
-
Das erfindungsgemäße Verfahren setzt zur Umsetzung eine in ihrem Zeitpunkt, Zeitdauer und Intensität, ggf. auch Strahlrichtung oder Wellenlänge steuerbare Lichtquelle oder eine in ihrem Zeitpunkt und Dauer der Integration steuerbare Kamera voraus. Vorzugsweise erfolgt die Bildaufnahme mit der Kamera nahezu zeitsynchron zur Aufzeichnung der Achspositionen der Messachse, welche den Abstand zwischen Sensor und Werkstück variiert. Dies erfolgt erfindungsgemäß durch softwareseitige Synchronisierung oder hardwareseitig über eine Triggerleitung. Die Bestimmung der Achspositionen und Zuordnung zum in dieser Position aufgenommenen Bild ist notwendig, um möglichst genaue Messergebnisse zu erhalten.
-
Mit Hilfe der erfindungsgemäßen Lehre wird zunächst die Intensität der Lichtquelle so eingestellt, dass für jedes Kamerapixel und für jede Position, notfalls getrennt, des festgelegten Bereiches der zu durchfahrenden Entfernung zwischen Messobjekt und Sensor bei zumindest einer der gewählten Parametervariationen, also Lichtmengen je Bild, ein gültiger Intensitätswert vorliegt, also weder Überstrahlung noch zu hohes Rauschen, bei sehr kleinen Intensitäten, auftritt. In den Randbereichen des Messweges dürfen Abweichungen auftreten, da diese zumeist nicht signifikant zur Bestimmung der später auszuwertenden Fokuskurven (Abhängigkeit der Intensität oder des Kontrastes eines Pixels oder einer Gruppe von Pixeln vom Abstand zwischen Sensor und Messobjektoberfläche) beitragen.
-
Nachfolgend werden die verschiedenen zu verwendenden Einstellungen für die Beleuchtung und die Kameraintegrationszeiten und die zeitliche Abfolge festgelegt. Vorzugsweise wird die Integrationszeit um einen Offset oder um ein Vielfaches zyklisch mehrfach nacheinander erhöht und dann wieder beim Startwert begonnen. Alternativ wird eine beliebige Reihenfolge verwendet. Nach dem Start des Messvorgangs werden entsprechend der zeitlichen Abfolge die Bilder mit den verschiedenen Parametern der Beleuchtung oder Kameraintegrationszeit aufgenommen. Ziel ist, über den gesamten Bewegungsbereich verteilt Bilder mit jeder vorher bestimmten Parametervariation aufzunehmen, damit helle wie auch dunkle Bereiche des Werkstücks zumindest bei einem Parameter optimal abgebildet werden. Die Veränderung der Parameter erfolgt mit der maximal möglichen Bildaufnahme- bzw. Beleuchtungsänderungsfrequenz.
-
Da die Parametervariation nicht beliebig schnell erfolgen kann, sind Bilder mit verschiedenen Parameter immer in Messrichtung (z-Richtung) in ihrer Position versetzt. Soll später der Intensitätsverlauf im Rahmen einer Helligkeitsauswertung untersucht werden, stellt dies keine Einschränkung dar. Sollen jedoch Kontraste zwischen benachbarten Kamerapixeln bestimmt werden, müssen die Intensitätswerte der entsprechenden Kamerapixel für die gleiche z-Position vorliegen. Da die z-Positionen jedoch genau bekannt, da gemessen sind, wird dieser Versatz erfindungsgemäß durch Interpolation der Intensitätswerte der einzelnen Kamerapixel korrigiert. Dies kann vor oder nach der Normierung auf eine einheitliche Integrationszeit erfolgen. Als Resultat liegen die Intensitäten für die einzelnen Kamerapixel bei verschiedenen Aufnahmeparametern für die gleiche z-Position vor. Vorzugsweise erfolgt die Interpolation für alle Kamerapixel des gesamten lateralen Messbereiches des Sensors an jeweils den gleichen z-Positionen.
-
Unabhängig von der Interpolation werden für jedes Kamerapixel nur die Messdaten verwendet, die zwischen einer minimalen und einer maximalen Intensität liegen. Die maximale Intensität stellt den Übergangsbereich zur Sättigung, also der Überstrahlung dar, die minimale grenzt den Bereich zu hohen Rauschens ab.
-
Im nächsten Schritt müssen die Intensitäten der Kamerapixel mit verschiedenen Aufnahmeparametern aneinander angepasst, also normiert werden. Vorzugsweise werden dazu die Kamerapixel, die mit Parameter aufgenommen wurden, die zu niedrigeren Intensitäten führen, bzgl. der Kamerapixel, die mit Parameter aufgenommen wurden, die zu höheren Intensitäten führen, entsprechend verstärkt. Der dazu notwendige Wertebereich für die Intensitäten und damit die Grauwertauflösung, muss entsprechend erhöht werden, vorzugsweise um den Faktor der maximalen Lichtmengenerhöhung je Bild.
-
Vorzugsweise erfolgt die Normierung der gemessenen Intensitäten im Verhältnis der Lichtmenge je Bild, z. B. hervorgehend aus dem Integrationszeitverhältnis oder einem vorab durchgeführten Einmessvorgang, bei dem der Normierungsfaktor für jede Integrationszeit einmalig durch Messung an einem Referenzobjekt mit den unterschiedlichen, einzusetzenden Integrationszeiten durch Vergleich der erzielten Intensitäten am gleichen Messort, ermittelt wird. Alternativ werden die entsprechenden Skalierungsfaktoren in Tabellen hinterlegt. Die Normierung dient der Vergleichbarkeit und damit Zuordenbarkeit der Aufnahmen verschiedener Lichtmengen zur gemeinsamen Auswertung.
-
Liegen die Pixelintensitäten für die verschiedenen Aufnahmeparameter an den gleichen z-Positionen vor, so ist es im nächsten Schritt möglich, Kontrastwerte durch Differenzbildung zu den lateral benachbarten Kamerapixeln zu bilden und auszuwerten. Im Resultat wird für jedes Kamerapixel oder einen oder mehrere Bereiche von Kamerapixeln der Ort der Oberfläche ermittelt, indem die Position des höchsten Kontrastes bestimmt wird, z. B. durch Ermittlung des Maximums der jeweils in den Kontrastverlauf eingepassten Parabel. Alternativ wird die Position der höchsten Intensität ermittelt, wobei der Schritt der Interpolation unterbleiben kann, da die Auswertung ohne Berücksichtigung von Nachbarpixeln erfolgt.
-
Der eingesetzte optische Sensor ist vorzugsweise als lateral empfindlicher Bildverarbeitungssensor mit matrixförmiger CCD- oder CMOS-Kamera ausgebildet. Dadurch werden zusätzlich oder parallel zum erfindungsgemäßen Verfahren die aufgenommenen Bilder mit den bekannten Bildverarbeitungsalgorithmen ausgewertet, um beispielsweise Kanten oder Konturen des Werkstücks zu bestimmen.
-
Die Erzeugung der Bilder mit unterschiedlichen Lichtmengen je Bild kann auch mit Hilfe von zwei oder mehr unterschiedlich parametrisierten Kameras oder Kamerachips durchgeführt werden. Diese werden im gleichen Optikstrahlengang integriert, z. B. durch den Einsatz von Strahlteilern o. ä., oder auf den gleichen Werkstückabschnitt gerichtet und messen mit unterschiedlichen Parameter. Die Ergebnisse, also Bilder aller Kameras werden entsprechend dem erfindungsgemäßen Verfahren, vorzugsweise unter Berücksichtigung der zugeordneten z-Positionen, zusammengefügt und ausgewertet.
-
Insbesondere zeichnet sich ein Verfahren zur Bestimmung der Oberflächenstruktur eines Werkstücks durch Ermittlung eines oder mehrerer Oberflächenpunkte mittels optischen Fokusverfahren, bei dem mehrere Bilder zumindest eines Teiles des im Messbereich des optischen Sensors befindlichen Ausschnittes der Werkstückoberfläche in verschiedenen Entfernungen zwischen Sensor und Werkstückoberfläche aufgenommen und verarbeitet werden, dadurch aus, dass während der Änderung der Entfernungen zwischen Sensor und Werkstückoberfläche Bilder mit unterschiedlicher, auf zumindest einen Bildsensor einfallender Lichtmenge je Bild, aufgenommen und/oder errechnet werden, aus denen der eine oder mehrere Oberflächenpunkte nach dem Fokusverfahren berechnet werden.
-
Bei einem Verfahren zur Bestimmung der Oberflächengeometrie eines Werkstücks durch Ermittlung eines oder mehrerer Oberflächenpunkte mittels optischem Fokusverfahren, bei dem mehrere Bilder, zumindest eines Teils des im Messbereich des optischen Sensors befindlichen Ausschnitts der Werkstückoberfläche in verschiedenen Entfernungen zwischen Sensor und Werkstückoberfläche aufgenommen werden und zu einem Bilderstapel zusammengefügt werden, der anschließend ausgewertet wird, ist vorgesehen, dass die Beleuchtungsintensität und/oder die Integrationszeit des Sensors während der Aufnahme des Bilderstapels variiert wird oder dies durch rechnerische Addition von Bildinhalten mathematisch nachgebildet wird.
-
Bevorzugterweise wird für jedes aufgenommene Bild eine Position bestimmt und diesem Bild zugeordnet, aus der die Änderung des Abstandes zwischen Sensor und Werkstückoberfläche berechenbar ist, vorzugsweise durch zur Bildaufnahme zumindest nahezu synchrones Auslesen eines der Messbewegung zugeordneten Maßstabs- bzw. Längenmesssystems.
-
Die Erfindung zeichnet sich auch dadurch aus, dass während der Messbewegung zur Variation der einfallenden Lichtmenge je Bild auf die zumindest eine Kamera des optischen Sensors, vorzugsweise Bildverarbeitungssensor mit Matrixsensor wie CCD oder CMOS, die Lichtquelle in ihrer Beleuchtungsintensität und/oder Beleuchtungszeit, vorzugsweise blitzartig, angesteuert wird und/oder die Integrationszeit einer Kamera geändert wird und/oder zumindest zwei Matrixsensoren mit unterschiedlichen Integrationszeiten verwendet werden.
-
Eigenerfinderischen Charakter besitzt die Lehre, dass die Variation der auf den optischen Sensor, vorzugsweise Matrixsensor, einfallenden Lichtmenge je Bild während der Messbewegung einer Fokusmessung virtuell durch Summenbildung der gemessenen Intensitäten je Kamerapixel für nacheinander aufgenommene Bilder erfolgt, wobei vorzugsweise die Anzahl der jeweils aufsummierten Bilder fest eingestellt wird oder während oder nach der Messung die Bilder pixelweise aufsummiert werden, bis für vorzugsweise jedes Kamerapixel getrennt, die minimale Summenintensität einen unteren Grenzwert überschreitet und/oder die maximale Summenintensität einen weiteren unteren Grenzwert überschreitet und vorzugsweise die maximale Summenintensität einen oberen Grenzwert unterschreitet.
-
Auch als eigenerfinderisch ist zu bezeichnen, dass die Intensität der Lichtquelle vorab so eingestellt wird, dass für jedes einzelne Kamerapixel für jede Position, innerhalb eines festgelegten Bereiches der zu durchfahrenden Entfernungen zwischen Sensor und Werkstückoberfläche, bei zumindest einer der gewählten Parametereinstellungen, also Lichtmengen je Bild, eine maximale Intensität nicht überschritten und eine minimale Intensität nicht unterschritten wird.
-
Unabhängig hiervon ist insbesondere vorgesehen, dass die Anzahl und Länge der verschiedenen Integrationszeiten und/oder die Anzahl der verschiedenen Beleuchtungsintensitäten und/oder die Länge der verschiedenen Beleuchtungszeiten durch den Benutzer vorab festgelegt wird, indem vorzugsweise eine erste Integrationszeit bzw. Beleuchtungsintensität bzw. Beleuchtungszeit mehrfach um einen Faktor vergrößert wird und/oder ein Offset zu dieser hinzugerechnet wird.
-
Bevorzugterweise lehrt die Erfindung, dass die Variation der Lichtmenge je Bild zyklisch mehrfach nacheinander oder in beliebiger Reihenfolge erfolgt, vorzugsweise mit maximal möglicher Bildaufnahme- bzw. Beleuchtungsänderungsfrequenz, wobei vorzugsweise mehrere Zyklen mit fester Reihenfolge der Variation der Lichtmenge je Bild durchlaufen werden.
-
Die Erfindung zeichnet sich auch dadurch aus, dass nach erfolgter Erzeugung der Bilder folgende Schritte zur Ermittlung der Oberflächenpunkte abgearbeitet werden, wobei die Reihenfolge der Einzelschritte, insbesondere der Schritte Interpolation von Zwischenwerten an diskreten Zeitpunkten und Normierung auf gemeinsame Lichtmenge, beliebig ist:
- – Entfernen der Messwerte aus der Gesamtmenge der Intensitätswerte der Kamerapixel, die eine Maximalintensität überschreiten und der Messwerte, die eine Mindestintensität unterschreiten, es sei denn, es liegen für den gleichen oder benachbarte Zeitpunkte innerhalb eines Variationszyklus keine Werte oberhalb der Mindestintensität vor,
- – vorzugsweise nur Verwendung jeweils des Messwertes für ein Kamerapixel innerhalb eines Variationszyklus, der die höchste Intensität besitzt,
- – Normierung aller verbleibender Intensitätsmesswerte aller Kamerapixel auf eine gemeinsame Lichtmenge, vorzugsweise die größte ausgewählte Lichtmenge, vorzugsweise durch Multiplikation mit einem je Lichtmengenvariation festen oder in einer Tabelle abgelegten, zusätzlich von der gemessenen Intensität selbst abhängigen Faktor und entsprechende Erhöhung des Wertebereiches der Intensitätsdarstellung,
- – vorzugsweise Interpolation der Intensitäten der Kamerapixel zur Erzeugung eines für alle Pixel einheitlichen Rasters in Messbewegungsrichtung unter Verwendung der den einzelnen Bildern zugeordneten Positionen,
- – Bestimmung einer oder mehrerer Oberflächenpositionen durch getrennte Auswertung der normierten Intensitäten jeweils eines Kamerapixels oder durch Auswerten der Intensitäten oder des Kontrastes mehrerer Kamerapixel innerhalb eines oder mehrerer Teilbereiche der nach der Interpolation zur Verfügung stehenden, in Messbewegungsrichtung zugeordneten, lateral benachbarten Pixelbereiche, jeweils nach dem Fokusverfahren, indem der Ort des Maximums der Intensitäts- bzw. Kontrastverläufe ermittelt wird, vorzugsweise durch Ermittlung des Maximums der jeweils eingepassten Parabel.
-
Insbesondere ist vorgesehen, dass der optische Sensor einen lateralen Messbereich besitzt, der in Bereiche unterteilt wird, aus denen einzelne Messpunkte auf der Werkstückoberfläche ermittelt werden, wobei vorzugsweise die Auswertung der einzelnen Teilbereiche nach dem erfindungsgemäßen Verfahren voneinander getrennt erfolgt.
-
Es besteht die Möglichkeit, dass die optische Messung mit Hilfe konfokalen Strahlengangs, vorzugsweise durch Einbringen einer rotierenden Lochscheibe, wie Nipkow-Scheibe, erfolgt.
-
Vorzugsweise wird das Verfahren in einem Koordinatenmessgerät eingesetzt.
-
Weitere Einzelheiten, Vorteile und Merkmale der Erfindung ergeben sich nicht nur aus den Ansprüchen, den diesen zu entnehmenden Merkmalen – für sich und/oder in Kombination –, sondern auch aus der nachfolgenden Beschreibung von der Zeichnung zu entnehmenden bevorzugten Ausführungsbeispielen.
-
Es zeigen:
-
1 eine Prinzipdarstellung eines Koordinatenmessgerätes,
-
2 eine Prinzipdarstellung einer Messanordnung mit optischem Sensor,
-
3 den Zusammenhang zwischen gemessener Intensität und der Zeit bzw. des Ortes in z-Richtung für drei verschieden helle Kamerapixel bei drei verschiedenen Integrationszeiten der Kamera,
-
4 den Zusammenhang zwischen gemessener Intensität und der Zeit bzw. des Ortes z für ausgewählte Intensitätswerte,
-
5 den Zusammenhang zwischen gemessener Intensität und der Zeit bzw. des Ortes z für die drei Kamerapixel getrennt,
-
6 den Zusammenhang zwischen gemessener, normierter Intensität und der Zeit bzw. des Ortes z für die drei Kamerapixel und
-
7 den Zusammenhang zwischen gemessener, normierter Intensität und der Zeit bzw. des Ortes z für die drei Kamerapixel in einheitlichem Raster für die z-Koordinate und
-
8 den Zusammenhang zwischen errechnetem Kontrast zwischen zwei Kamerapixeln und der Zeit bzw. des Ortes z.
-
In 1 ist rein prinzipiell ein Koordinatenmessgerät 10 dargestellt, das mit dem für die zu lösende Messaufgabe erforderlichen Sensorik bestückt ist. Die Sensorik kann wahlweise montiert oder demontiert werden. Das hinlänglich bekannte und noch einmal in der 1 wiedergegebene Prinzip eines Koordinatenmessgerätes 10 umfasst einen z. B. aus Granit bestehenden Grundrahmen 12 mit Messtisch 14, auf dem ein zu messendes Objekt 16 positioniert wird, um z. B. dessen Oberflächeneigenschaften zu messen.
-
Entlang dem Grundrahmen 12 ist ein Portal 18 in Y-Richtung verstellbar. Hierzu sind Säulen oder Ständer 20, 22 gleitend am Grundrahmen 12 abgestützt. Von den Säulen 20, 22 geht eine Traverse 24 aus, entlang der ein Schlitten verfahrbar ist, der seinerseits eine Pinole oder Säule 26 aufnimmt, die in Z-Richtung verstellbar ist. Von der Pinole 26 bzw. ggfs. einer mit der Pinole 26 verbundenen Wechselschnittstelle geht ein optischer Sensor 28 aus.
-
Ferner können von der Pinole 26 Beleuchtungseinrichtungen ausgehen, um das zu messende Werkstück z. B. aus mehreren Richtungen zu beleuchten, wobei die Beleuchtungsintensitäten bzw. Wellenlängen erfindungsgemäß verändert werden können.
-
Das erfindungsgemäße Verfahren wird insbesondere auch anhand der 2 erläutert.
-
So sind der 2 ein Messobjekt 205 und eine optische Sensorik 201 zu entnehmen, welche eine Optik und ein Detektionssystem 202 und zwei Beleuchtungen 203 und 204 umfasst. Das optische Detektionssystem 202 und das Messobjekt 205 sind zueinander verschiebbar, vorzugsweise in Richtung der optischen Achse (Pfeil 206). Zur Bestimmung der Oberfläche des Messobjektes 205 werden mehrere Aufnahmen mit dem optischen Detektionssystem 202 in unterschiedlichen Abständen in Richtung des Pfeils 206 aufgenommen. Während der Relativbewegung in Richtung des Pfeils 206 werden sehr schnell hintereinander und damit an der gleichen oder annähernd gleichen Messstelle Bilder aufgenommen, wobei die Beleuchtung variiert wird. So wird das Objekt 205 beispielsweise in einer ersten Position durch die Beleuchtung 203 und in einer darauf folgenden Position durch die Beleuchtung 204 beleuchtet beziehungsweise umgekehrt und somit aus verschiedenen Richtungen. Ebenso kann für die unterschiedlichen Bilder die Intensität der Beleuchtung variiert oder Lichtblitze können verwendet werden. Auch besteht die Möglichkeit, für die verwendeten Beleuchtungsquellen unterschiedliche Wellenlängen oder Wellenlängenbereiche zu verwenden. Aus den in den verschiedenen Abständen aufgenommenen und/oder unterschiedlich beleuchteten Bildern wird so dann ein Gesamtbild berechnet. Da für die verschiedenen aufgenommenen Bilder möglicherweise jeweils nur Teile des Bildes scharf abgebildet beziehungsweise ausreichend ausgeleuchtet beziehungsweise nicht überstrahlt sind, wird aus jedem Bild nur der Teil verarbeitet, der in einem gültigen Amplitudenbereich der Grauwerte beziehungsweise in einem gültigen Kontrastbereich der Grauwerte liegt. Die Auswertung des Gesamtbildes wird entweder verwendet, um einen einzelnen Messpunkt, ähnlich einem Autofokusmesspunkt, oder mehrere 3D-Messpunkte zu bestimmen, indem die Autofokusauswertung in mehreren Bildausschnitten getrennt durchgeführt wird.
-
Zusätzlich oder anstatt der Variation der Beleuchtung kann zur Variation der Lichtmenge je aufgenommenen Bildes die Integrationszeit der Kamera variiert werden. Gleichwirkend ist auch die Variation der Kameraverstärkung einsetzbar. Hier ist allerdings die Veränderung des Signalrauschens zu beachten. Das erfindungsgemäße Verfahren berücksichtigt dazu nur die Messwerte, die einen vorbestimmten Intensitätspegel überschreiten. Dieser Pegel ist abhängig von der gewählten Kameraverstärkung, also beispielsweise höher, falls die Kameraverstärkung erhöht wird.
-
Das erfindungsgemäße Verfahren ist mit der in 2 gezeigten Dunkelfeldauflichtbeleuchtung aber ebenso mit einer Hellfeldauflichtbeleuchtung durchführbar. Diese kann z. B. in den Strahlengang des optischen Sensors 202 integriert sein, wie im Stand der Technik bereits beschrieben. Ebenso kann das erfindungsgemäße Verfahren bei Durchlichtbeleuchtung eingesetzt werden, beispielsweise bei transparenten oder teiltransparenten Werkstücken.
-
Insbesondere besteht auch die Möglichkeit, nach dem konfokalen Messprinzip zu arbeiten, wobei ggfs. eine rotierende Lochscheibe wie Nipkow-Scheibe benutzt wird.
-
Ein mögliches Verfahren für die Fusion der Messdaten mit unterschiedlichen Lichtmengen je Bild wird in 3 und den nachfolgenden Figuren beschrieben. Hierbei wird die Integrationszeit der Kamera variiert.
-
Die 3a) bis c) zeigen beispielhaft die gemessenen Intensitäten I1 (P1, P2, P3, P4) (gekennzeichnet durch „–”-Symbole), I2 (P1, P2, P3, P4) (gekennzeichnet durch „+”-Symbole) und I3 (P1, P2, P3, P4) (gekennzeichnet durch „o”-Symbole) für drei ausgewählte Kamerapixel P1, P2, P3 und P4 der Matrixkamera des optischen Sensors für drei verschiedene Integrationszeiten Ti1, Ti2 und Ti3 und nicht konfokalem Strahlengang. P1 ist im Beispiel ein Kamerapixel mit hoher, P2 mit mittlerer und P3 mit niedriger Helligkeit, beispielsweise aufgrund unterschiedlicher Neigung oder Reflexionsgrades des dem Kamerapixel zugeordneten Werkstückoberflächenbereichs. P4 ist ein besonders dunkles Pixel, z. B. einer „Pfeffer und Salz”-Struktur. Durch die nicht konfokale Messung erscheint es im Fokus dunkler als außerhalb des Fokus, da außerhalb des Fokus die Überstrahlung durch benachbarte unscharf abgebildete Pixel dominiert. Die Intensitäten sind in Bezug auf den Abstand z zwischen Sensor und Werkstückoberfläche bzw. aufgrund der nahezu gleichförmigen Bewegung gleichermaßen der Zeit t im Bereich t1 bis t33 aufgetragen. Der Verlauf in 3a) wurde bei der längsten Integrationszeit Ti1 = T1 aufgezeichnet. 3b) zeigt die Intensitäten I2 bei halber Integrationszeit und 3c) bei Integrationszeit Ti3 = ¼ T1. Da die Integrationszeit während der Messbewegung zyklisch verändert wird, liegen die Intensitäten für die verschiedenen Integrationszeiten nur zu zumindest leicht unterschiedlichen Zeitpunkten t zeitdiskret vor, die die Messpunkte verbindenden Linien verdeutlichen also nur die Zusammengehörigkeit zu einem Pixel. So erfolgt die Messung mit der Integrationszeiten Ti1 nur zu den Zeitpunkten t1, t4, t7 usw., während die Messungen mit der Integrationszeiten Ti2 zu den Zeitpunkten t2, t5, t8 usw. und die Messungen mit der Integrationszeiten Ti3 zu den Zeitpunkten t3, t6, t9 usw. vorliegen.
-
Die als Strich-Punkt-Linien dargestellten Grenzen Imax und Imin zeigen den Bereich der zur Auswertung sinnvollerweise zu verwendenden, gültigen Intensitäten, da oberhalb von Imax Überstrahlung, also Sättigung, und unterhalb von Imin ein zu hohes Signalrauschen vorliegt. Die überstrahlten Kurvenanteile sind in den 3a) und b) ansatzweise gestrichelt angedeutet. Die real aufgenommenen Intensitäten können jedoch aufgrund von Sättigung Imax nicht übersteigen.
-
Die gepunktete Hilfslinie zum Zeitpunkt t17 verdeutlicht die Zeit bzw. den Ort z, an dem die Oberfläche im entsprechenden Pixel scharf abgebildet wird, also den zu bestimmenden Fokusort zAF. An diesem Ort bzw. der diesem zugeordnet Zeit befindet sich stets das Intensitätsmaximum bzw. ein Kontrastmaximum, wobei der Kontrast aus der Intensitätsdifferenz zu benachbarten Pixeln berechnet wird.
-
In den 4a) bis c) sind die gleichen Darstellungen wie in den 3a) bis c) enthalten, jedoch wurden alle Werte oberhalb von Imax und unterhalb von Imin entfernt und es verbleiben nur die zur Auswertung zu verwendenden, gültigen Intensitäten. Eine Ausnahme bildet das Pixel P4. Da für dieses teilweise keine Intensitäten oberhalb Imin vorliegen, müssen die vorhandenen unterhalb von Imin aus der höchsten Integrationszeit Ti1 verwendet werden. Die noch geringeren Intensitäten aus den Bildern mit noch geringerer Integrationszeit Ti2 und Ti3 werden vollständig verworfen.
-
Damit für jeden Ort z Messwerte mit allen verwendeten Integrationszeiten zum Vergleich vorliegen, erfolgt bereits vor jeder weiteren Auswertung in einem ersten Ausführungsbeispiel die Interpolation und teilweise Extrapolation der fehlenden Messwerte, z. B. durch Einpassen eines Polynoms in alle zu einem Kamerapixel und einer Integrationszeit gemessenen, gültigen Intensitäten oder durch Geraden-Approximation zwischen jeweils zwei gemessenen, zeitlich benachbarten Intensitäten eines Kamerapixels bei gleicher Integrationszeit. Die Interpolation bzw. Extrapolation wird anhand der 7 im Vergleich zur 6, dort allerdings an den fusionierten und normierten Intensitäten, ersichtlich.
-
In einer weiteren, nicht separat dargestellten Ausführung werden zusätzlich die Intensitätswerte nicht berücksichtigt, die trotz dessen, dass sie im gültigen Bereich zwischen Imin und Imax liegen, eine niedrigere Intensität (und damit einen höheren Rauschlevel) besitzen, als die aus dem selben Integrationszeit-Zyklus stammenden Intensitäten höherer Integrationszeit, sofern diese nicht im Sättigungsbereich liegen.
-
Die 5a) bis c) zeigen den ersten Schritt der Fusion aller zwischen Imin und Imax liegenden Messwerte aus allen Integrationszeiten für die vier Kamerapixel P1, P2, P3 und P4 getrennt. Die Symbole „–”, „+” und „o” kennzeichnen dabei nach wie vor, bei welcher Integrationszeiten die Messwerte aufgenommenen worden.
-
Der zweite Schritt der Fusion, die Normierung, ist in 6 dargestellt. Die aus den 5a) bis c) bereits bekannten Intensitäten I1, I2 und I3 werden auf ein gemeinsames Niveau normiert als I1, I2* und I3* dargestellt, in diesem Ausführungsbeispiel auf das Niveau der längsten Integrationszeit Ti1, um Rundungsfehler zu vermeiden. Der dazu notwendige Wertebereich für die Intensitäten und damit die Grauwertauflösung, muss entsprechend erhöht werden, vorzugsweise um den Faktor der maximalen Lichtmengenerhöhung Ti1/Ti3 je Bild. Die Normierung selbst erfolgte mit einem festen Faktor, vorzugsweise anhand des Verhältnisses der jeweiligen Integrationszeiten. Alternativ wird der Normierungsfaktor für jede Integrationszeit einmalig vorab durch Messung an einem Referenzobjekt mit den unterschiedlichen, einzusetzenden Integrationszeiten durch Vergleich der erzielten Intensitäten am gleichen Messort, ermittelt.
-
In einer weiteren Ausführungsform ist der Normierungsfaktor von der Intensität selbst abhängig, um die bei der Vorabmessung ggf. ermittelten Nichtlinearität zu berücksichtigen, beispielsweise durch Hinterlegung in Tabellen (z. B. „Look up table”, LUT) für jede Integrationszeit. Eine weitere Ausführung nutzt zur Ermittlung des Normierungsfaktors das Verhältnis der für jeweils dasselbe Kamerapixel gemessenen Intensitäten bei den verschiedenen Integrationszeiten an nahezu oder genau dem gleichen Ort z bzw. der Messzeit t. Voraussetzung dafür ist jedoch das Vorliegen der entsprechend interpolierten Werte für den gleichen Ort bzw. die gleiche Zeit, hervorgegangen aus allen gültigen Werten, wie bei den 4a) bis c) erläutert. Der Normierungsfaktor wird vorzugsweise nur für die ursprünglichen Positionen einer ausgewählten Integrationszeit ermittelt und für alle Zwischenpositionen wiederum interpoliert.
-
Im Vergleich zu den Erläuterungen zu den 4a) bis c) erfolgt in einem zweiten Ausführungsbeispiel erst nach der Normierung die Interpolation der fehlenden Zwischenwerte für alle Positionen. Die 7 zeigt die interpolierten Werte mit dem Symbol „x” gekennzeichnet. In beiden Fällen liegen für alle z-Positionen die Intensitäten für alle Kamerapixel des Messfensters bzw. Messfensterbereiches vor und der Kontrast für jedes Kamerapixels bzgl. seiner benachbarten Kamerapixel wird bestimmt.
-
Die Bestimmung des Kontrastes K (P2, P4) zwischen den Pixeln P2 und P4 zeigt die 8. Die normierten Intensitäten der Pixel P2 und P4 werden dazu an jeweils gleichen Orten bzw. Zeiten voneinander abgezogen. Hierfür ist also eine vorangegangene Interpolation auf gemeinsame Zeit- bzw. Ortspositionen (z) für alle Pixel notwendig.
-
Im nächsten Schritt erfolgt nun die Auswertung nach dem Fokusprinzip. Dazu wird der Ort zAF des Maximums des Kontrasts, wie in 8 für die Pixel P2 und P4 gezeigt, für jedes Kamerapixel ermittelt, z. B. durch Ermittlung des Maximums der jeweils in den Kontrastverlauf eingepassten Parabel. Die Kontrastbildung erfolgt meist nicht nur zwischen zwei benachbarten Pixeln, wie in 8 gezeigt, sondern als Mittelwert der Differenzen zu in allen Richtungen benachbart liegenden Kamerapixeln.
-
In einer alternativen Ausführung unterbleibt die Interpolation auf ein gemeinsames z-Raster für alle Kamerapixel, und jedes Kamerapixel wird entsprechend seines Intensitätsverlaufes für sich ausgewertet, ohne dass ein Kontrast zu den benachbarten Pixeln bestimmt wird. Die Auswertung erfolgt gleichfalls nach dem Fokusprinzip, indem das Intensitätsmaximum für jedes Kamerapixel, wie in 7 für die Pixel P1, P2 und P3 erkennbar, oder für Gruppen von Kamerapixeln ermittelt wird, z. B. durch Ermittlung des Maximums der jeweils in den Intensitätsverlauf eingepassten Parabel. Diese sog. Helligkeitsauswertung wird bevorzugt bei konfokalem Strahlengang eingesetzt.
-
In einer weiteren Ausführungsform erfolgen die Integrationszeit-Zyklen diskontinuierlich, es entstehen also Aufnahmepausen beim Durchfahren des Abstandes z zwischen Messobjekt und Sensor. An nahezu einem Ort können alternativ auch mehrere Zyklen durchfahren werden, bevor die Pausierung erfolgt.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- DE 10162663 [0004]
- DE 10219491 [0004]
- DE 2009043919 [0006, 0009]