-
Die
vorliegende Erfindung betrifft ein Verfahren zur optischen Ermittlung
von geometrischen Oberflächenmerkmalen
einer Objektoberfläche.
-
Es
ist bekannt, geometrische Oberflächenmerkmale
wie Längen
von Kanten, Größen bestimmter
Objektoberflächenabschnitte,
Oberflächentopologien
oder ähnliches
anhand von kontaktlosen optischen Verfahren zu ermitteln. Hierfür können beispielsweise
Fotografien der Objektoberfläche
gemacht und durch anschließende
Bildverarbeitung die gewünschten
geometrischen Oberflächenmerkmale
ermittelt werden. Auf diese Weise können beispielsweise Objektoberflächen optisch
vermessen oder kontrolliert werden, beispielsweise eine spanend
bearbeitete metallische Objektoberfläche.
-
Aus
DE 103 46 481 A1 ist
ein Verfahren zur Rekonstruktion von Oberflächenprofilen bekannt. Dabei werden
mehrere Bilder desselben Oberflächenausschnitts
aus nahezu vertikaler Position aufgenommen. Die Beleuchtung der
Oberfläche
erfolgt für
jedes der Bilder unter einem sehr kleinen Winkel aus unterschiedlichen Richtungen.
Anschließend
erfolgt eine Quotientenbildung der Helligkeitswerte gleicher Pixel.
Helligkeitsunterschiede, die nicht durch Schattenwürfe entstanden
sind, lassen sich in den Quotientenbildern eliminieren. Erhebungen,
Vertiefungen und Neigungen können
anhand des Helligkeitsverlaufs und des Schattenwurfs bestimmt werden
(Shape-from-shading-Methode). Dadurch kann eine dreidimensionale
Rekunstruktion der Oberfläche
erhalten werden.
-
In
DE 10 2007 033 835
A1 wird eine Vorrichtung sowie ein Verfahren zur Objektsegmentierung
beschrieben. Eine Beleuchtungseinheit erzeugt eine sich verändernde
Beleuchtung. Es werden zumindest zwei Bilder bei unterschiedlichen
Beleuchtungszuständen
aufgenommen und anschließend
differenziert. Aus dem Differenzbild wird dann das Segmentbild abgeleitet,
beispielsweise kann anhand eines Schwellenwertvergleichs ein Binärbild erzeugt
werden. Dieses Bild kann dann als Grundlage für eine Auswertung der aufgenommenen
Szene dienen.
-
Ein
Verfahren zur Erhöhung
des Dynamikumfangs von Bildern ist in
US 6 753 876 B2 beschrieben. Es werden mehrere
Bilder einer Szene bei unterschiedlichen Beleuchtungen aufgenommen.
Anschließend
können
diese Bilder fusioniert werden, um ein Bild mit größerem Dynamikumfang
zu erhalten. Dabei können
solche Pixel unberücksichtigt
bleiben, die einen Helligkeitswert null oder einen zu großen Helligkeitswert
aufweisen.
-
Durch
die Erfindung soll es insbesondere ermöglicht werden, solche spanend
bearbeiteten metallischen Objektoberflächen, Objektoberflächen die
durch ihre Reflektionscharakteristik solchen spanend bearbeiteten
metallischen Oberflächen ähnlich sind
und Objektoberflächen,
bei denen aufgrund ihrer Form und ihrer Reflektionseigenschaften
bisherige Verfahren nur unzureichend waren, mit einer ausreichend
hohen Genauigkeit und Zuverlässigkeit
zu vermessen.
-
Es
kann daher als Aufgabe der vorliegenden Erfindung angesehen werden,
seitherige Verfahren zur optischen Ermittlung von geometrischen
Oberflächenmerkmalen
einer Objektoberfläche
zu verbessern.
-
Diese
Aufgabe wird durch das Verfahren gemäß Patentanspruch 1 gelöst.
-
Erfindungsgemäß werden
zunächst
mehrere Bilder oder mehrere Aufnahmesequenzen von Bildern der Objektoberfläche aufgenommen.
Dabei wird der Beleuchtungszustand verändert. Zusätzlich kann auch der Abstand
zwischen einer Kamera und der Objektoberfläche variiert werden. Entweder
werden für
jede Relativposition zwischen der Kamera und der Objektoberfläche mehrere
Bilder bei einem jeweils anderen Beleuchtungszustand aufgenommen
oder es werden für
jeden Beleuchtungszustand mehrere Bilder mit unterschiedlichem Abstand
zwischen Kamera und Objektoberfläche
gemacht. Eine Aufnahmesequenz besteht dabei aus mehreren Bildern,
die unterschiedliche Beleuchtungszustände aufweisen. D. h. zumindest
ein den Beleuchtungszustand charakterisierender Beleuchtungsparameter
wird von Bild zu Bild der Aufnahmesequenz verändert. Somit unterscheidet
sich ein Bild einer Aufnahmesequenz zumindest in einem Beleuchtungsparameter von
den anderen Bildern einer Aufnahmesequenz. Als Beleuchtungsparameter
dienen beispielsweise die Belichtungszeit, die Blende, die Verstärkung oder
die Beleuchtungsintensität
der die Objektoberfläche
anstrahlenden Beleuchtung. Beispielsweise können Matrixkameras mit Auflichtbeleuchtung
eingesetzt werden.
-
Jedes
der aufgenommenen Bilder einer Aufnahmesequenz wird in eine Vielzahl
von Bildsegmenten unterteilt. Anschließend werden alle korrespondierenden
Pixel oder Bildsegmente der Bilder einer Aufnahmesequenz bewertet
und abhängig
vom Bewertungsergebnis wird in einer nachfolgenden Verarbeitungsstufe
das Oberflächenmerkmal
für den
im betroffenen Bildsegment dargestellten Oberflächenabschnitt der Objektoberfläche ermittelt,
insbesondere im Vergleich zu den in den anderen Bildsegmenten dargestellten
Oberflächenabschnitten.
Unter korrespondierenden Pixeln oder Bildsegmenten sind diejenigen
Bildsegmente einer Aufnahmesequenz zu verstehen, die denselben Oberflächenabschnitt
der Objektoberfläche
darstellen. Wegen der unterschiedlichen Beleuchtungszustände der
korrespondierenden Bildsegmente ist gewährleistet, dass zumindest in
einem Bildsegment und insbesondere in mehreren Bildsegmenten die
interessierenden Details, die zur Bestimmung des betreffenden geometrischen
Oberflächenmerkmals
notwendig sind, deutlich zu sehen und in der Verarbeitungsstufe
dadurch gut verwertbar sind. Auf diese Weise ist eine deutlich verbesserte
und genauere optische Vermessung der Objektoberfläche hinsichtlich
des interessierenden geometrischen Oberflächenmerkmals möglich. Beim
Oberflächenmerkmal
kann es sich um ein ein-, zwei- oder dreidimensionales Oberflächenmerkmal
handeln.
-
Vorteilhafte
Ausgestaltungen des Verfahrens ergeben sich aus den abhängigen Patentansprüchen.
-
Vorzugsweise
handelt es sich bei den Bildern um Graustufenbilder, wobei für die Graustufenwerte
8 oder mehr Bit zur Verfügung
stehen. Bei der Bewertung der korrespondierenden Bildsegmente können die Graustufenwerte
verglichen und dadurch überbelichtete
und/oder unterbelichtete Bildsegmente erkannt werden. Vorzugsweise
werden diese über- oder unterbelichteten
Bildsegmente in der Verarbeitungsstufe bei der Ermittlung des Oberflächenmerkmals
nicht berücksichtigt.
In der Verarbeitungsstufe kann aus den berücksichtigten, in einem zulässigen Belichtungsbereich
befindlichen Bildsegmenten ein Ergebnisbild der Objektoberfläche erzeugt
werden, das einen größeren Dynamikumfang
aufweist als jedes der Bilder der Aufnahmesequenz. Hierbei kann
beispielsweise anstelle einer Integerzahl mit 8 Bit eine Gleitkommazahl
für die
Darstellung der Graustufenwerte verwendet werden. Es ist hierbei
auch möglich,
die Graustufenwerte der berücksichtigten Bildsegmente
auf Basis der Beleuchtungsparameter und gegebenenfalls weiterer
Kameraparameter, wie z. B. einer Kamerakurve, in einen absoluten
Helligkeitsbereich umzurechnen.
-
Zur
Beibehaltung der Relativposition zwischen Kamera und Objektoberfläche während der
Aufnahme einer Aufnahmesequenz ist es zweckmäßig, wenn sowohl die Position
des Objekts als auch die Position der Kamera unverändert bleiben.
-
Die
Bildsegmente weisen vorteilhafterweise eine Mindestanzahl von Pixeln
auf, beispielsweise 3 mal 3, also 9 Pixel. Dies ermöglicht das
einfache Anwenden von Operatoren bei der Weiterverabeitung, wie
z. B. Prewitt-, Sobel- oder Laplace-Operatoren.
-
Als
Oberflächenmerkmal
kann für
jedes Bildsegment ein Oberflächentopologiewert
ermittelt werden. Dieser Oberflächentopologiewert
kann insbesondere als relativer Wert das Verhältnis der Oberflächentopologie
zu anderen Bildsegmenten angeben. Dabei werden vorzugsweise mehrere
Aufnahmesequenzen mit unterschiedlichen Abständen zwischen Kamera und Objektoberfläche aufgenommen.
Zur Erstellung mehrerer Aufnahmesequenzen können entweder für jede Relativposition
zwischen der Kamera und der Objektoberfläche mehrere Bilder bei einem
jeweils anderen Beleuchtungszustand aufgenommen oder bevorzugt für jeden Beleuchtungszustand
mehrere Bilder mit unterschiedlichem Abstand zwischen Kamera und
Objektoberfläche gemacht
werden. Anschließend
können
bei der Bewertung der Bildsegmente jeweils ein die Bildschärfe beschreibender
Schärfewert
ermittelt werden, der insbesondere anhand des Kontrastes der Graustufenwerte
der im Bildsegment enthaltenen Pixel ermittelt wird. Aus dem Schärfewert
lässt sich
erkennen, ob sich der im Bildsegment dargestellte Oberflächenabschnitt
im Brennpunkt der Kamera befunden hat oder nicht. Auf Basis dieses
Schärfewerts
kann somit sehr einfach in der Verarbeitungsstufe der Oberflächentopologiewert
des Bildsegments ermittelt werden. Befindet sich z. B. der im Bildsegment
dargestellte Oberflächenabschnitt
im Brennpunkt der Kamera, so ergibt sich daraus unmittelbar der
Abstand zwischen der Kamera und dem betreffenden Oberflächenabschnitt,
aus dem der Oberflächentopologiewert
sehr einfach ermittelt werden kann.
-
Es
besteht dabei die Möglichkeit,
dass für
die korrespondierenden Bildsegmente einer Aufnahmesequenz (mit verschiedenen
Beleuchtungszuständen)
jeweils ein separater Schärfewert
bestimmt wird und aus den einzelnen Schärfewerten anschließend ein
resultierender Schärfewert
berechnet wird. Bei der Bestimmung des resultierenden Schärfewerts
können
solche Schärfewerte
einzelner Bildsegmente außer
Betracht bleiben, die nicht in einen zulässigen Wertebereich fallen.
Aus dem resultierenden Schärfewert
kann dann der Oberflächentopologiewert
für den
in diesen korrespondierenden Bildsegmenten dargestellten Oberflächenabschnitts
der Objektoberfläche
ermittelt werden. Bei diesen Verfahren wird zunächst aus jedem der Bilder der Aufnahmesequenz
ein Schärfewert
ermittelt und erst anschließend
erfolgt eine Verknüpfung
der einzelnen Schärfewerte
zu einem resultierenden Schärfewert.
Ungenauigkeiten und Veränderungen
durch Kombination mehrer Bilder oder Bildsegmente vor Ermittlung
des Schärfewerts
werden dadurch vermieden.
-
Es
ist ferner auch möglich,
bei der Bewertung der Bildsegmente für die korrespondierenden Bildsegmente
einer Aufnahmesequenz aus den Graustufenwerten der korrespondierenden
Bildsegmente resultierende Graustufenwerte zu erzeugen. Dabei kann
aus den resultierenden Graustufenwerten ein die Bildschärfe beschreibender
Schärfewert
ermittelt werden, der insbesondere anhand des Kontrastes der Graustufenwerte
der im Bildsegment enthaltenen Pixel ermittelt wird. Bei diesem
Vorgehen werden zunächst
aus korrespondierenden Bildsegmenten einer Aufnahmesequenz die resultierenden
Graustufenwerte ermittelt. Dabei können Graustufenwerte von Pixeln
in den Bildsegmenten außer
Betracht bleiben die außerhalb
eines zulässigen
Wertebereichs liegen. Aus den zu berücksichtigenden Bildsegmenten
können
dann die resultierenden Graustufenwerte der Pixel gebildet werden,
beispielsweise durch ein Mittelwertbildungsverfahren. Aus den resultierenden Graustufenwerten
dieser Pixel wird anschießend
ein Schärfewert
gebildet. Somit wird für
alle korrespondierenden Bildsegmente nur ein Schärfewert generiert, was Rechenleistung
einspart.
-
Weitere
Merkmale des Verfahrens ergeben sich aus den Patentansprüchen und
der Beschreibung. Die Beschreibung beschränkt sich auf wesentliche Merkmale
der Erfindung und sonstiger Gegebenheiten. Die Zeichnung ist ergänzend heranzuziehen.
Es zeigen:
-
1 eine
schematische Darstellung nach Art eines Blockschaltbilds, eine Vorrichtung
zur Durchführung
des erfindungsgemäßen Verfahrens,
-
2 ein
Flussdiagramm eines ersten Ausführungsbeispiels
des erfindungsgemäßen Verfahrens,
-
3 ein
Flussdiagramm eines zweiten Ausführungsbeispiels
eines erfindungsgemäßen Verfahrens,
-
4 die
schematische Darstellung der Unterteilung eines Bildes in Bildsegmente
und
-
5 eines
der Bildsegmente aus 4.
-
1 zeigt
eine Vorrichtung 10 zur optischen Ermittlung von geometrischen
Oberflächenmerkmalen und
beispielsgemäß Oberflächentopologiewerten
einer Objektoberfläche 11 eines
Objekts 12. Die Vorrichtung 10 weist hierfür eine Kamera 13 auf,
die mit Abstand zur Objektoberfläche 11 angeordnet
ist und Bilder von der Objektoberfläche 11 aufnimmt. Der
Abstand zwischen der Kamera 13 und der Objektoberfläche 11 ist
veränderbar,
wie dies durch den Doppelpfeil 14 dargestellt ist. Eine
Beleuchtungseinrichtung 15 dient zur Beleuchtung der Objektoberfläche 11.
Die von der Kamera 13 gemachten Bilder werden an eine Recheneinrichtung 16 übermittelt,
die zur Ermittlung der geometrischen Oberflächenmerkmale aus den übermittelten
Bildern eingerichtet ist.
-
Ein
erstes Ausführungsbeispiel
eines erfindungsgemäßen Verfahrens
ist im Flussdiagramm in 2 dargestellt. In einem ersten
Verfahrensschritt 20A nimmt die Kamera 13 bei
gleich bleibender Relativposition zur Objektoberfläche 11 in
einer ersten Aufnahmesequenz mehrere Bilder der Objektoberfläche 11 auf,
wobei der Beleuchtungszustand bei jedem Bild geändert wird. Dies kann beispielsweise
durch Veränderung
der Einstellung der Beleuchtungseinrichtung 15 oder durch
Veränderung
der Kameraparameter, wie z. B. der Belichtungszeit oder der Blende
erfolgen. Beim Ausführungsbeispiel
nimmt die Kamera Graustufenbilder auf, insbesondere mit 256 unterscheidbaren
Graustufenwerten, was einer Auflösung
von 8 Bit entspricht.
-
Im
darauf folgenden zweiten Verfahrensschritt 21A wird jedes
der Bilder der aufgenommenen Bildsequenz in mehrere Bildsegmente
S unterteilt, wie dies in 4 und 5 schematisch
dargestellt ist. Jedes Bild weist eine vorgegebene Anzahl n von
Pixeln P auf, die in k Spalten und in l Zeilen angeordnet sind,
so dass gilt: n = l·k
-
Die
Anzahl der Pixel pro Bildsegment S ist vorgegeben, wobei beispielsgemäß jedes
Bildsegment S 3×3
und demnach 9 Pixel P umfasst. Die Anzahl der Pixel P pro Bildsegment
S kann bedarfsgemäß variiert werden.
-
Anschließend erfolgt
in einem dritten Verfahrensschritt 22A eine Bewertung der
Pixel P oder der Bildsegmente S. Beim Ausführungsbeispiel werden die jeweils
korrespondierenden Pixel P aller Bilder der aufgenommenen Bildsequenz
separat bewertet. Unter korrespondierenden Pixeln P oder Bildsegmenten
S sind diejenigen Pixel P bzw. Bildsegmente S zu verstehen, die
denselben Oberflächenabschnitt
der Objektoberfläche 11 bei
gleichem Abstand zwischen Kamera 13 und Objektoberfläche 11 zeigen.
Dies sind jeweils die Pixel P, die sich in derselben Zeile i(i =
1 bis l) und in derselben Spalte j(j = 1 bis k) der Bilder befinden.
-
Beim
Ausführungsbeispiel
gemäß 2 erfolgt
eine Bewertung der Pixel P zunächst
mittels eines Schwellenwertfilters. Ist der Graustufenwert G(i,
j) eines Pixels P(i, j) kleiner als ein vorgegebener Minimalwert Min
oder größer als
ein vorgegebener Maximalwert Max so wird das betreffende Pixel P
herausgefiltert und im nachfolgenden Verfahrensschritt nicht berücksichtigt.
Für den
Schwellwertvergleich im dritten Verfahrensschritt 22A gilt
somit: Min ≤ G(i,
j) ≤ Max.
-
Die
Graustufenwert G(i, j) die diese Bedingung erfüllen sollen als zu berücksichtigende
Graustufenwert G(i, j) bezeichnet werden. Alle Pixel P(i, j), die
die angegebene Bedingung nicht erfüllen, bleiben unberücksichtigt.
-
Im
vierten Verfahrensschritt
23A werden aus den zu berücksichtigenden
Pixeln P, die die Schwellwertbedingung im vorangegangenen Verfahrensschritt
22A erfüllt haben,
resultierende Graustufenwerte G
res(i, j) berechnet.
Dabei können
verschiedene Mittelwert bildende Rechenverfahren eingesetzt werden.
Beispielsweise kann der arithmetische Mittelwert oder der Median
der Graustufenwerte G(i, j) gebildet werden. Bei dem hier beschriebenen
bevorzugten Ausführungsbeispiel
werden für
die korrespondierenden Pixel P aus den zu berücksichtigenden Graustufenwerten
G(i, j) ein resultierender Graustufenwert G
res durch
die Berechnung des arithmetischen Mittels ermittelt:
mit
- b:
- Anzahl der zu berücksichtigenden
Graustufenwerte der korrespondierenden Pixel P(i, j);
- G(i, j):
- zu berücksichtigende
Graustufenwerte der korrespondierenden Pixel P.
-
Auf
diese Weise erhält
man für
jedes Pixel P(i, j) einen resultierenden Graustufenwerte Gres(i, j). Dadurch entsteht sozusagen ein
resultierendes Bild, das sich aus den resultierenden Graustufenwerten
zusammensetzt.
-
Es
ist hierbei auch möglich,
den Dynamikumfang der resultierenden Graustufenwerte Gres(i,
j) zu vergrößern. Dies
kann dadurch erreicht werden, dass anstelle der üblichen Integerzahlen mit 8
Bit eine Gleitkommazahl für
die Darstellung der Graustufenwerte G(i, j) und der resultierenden
Graustufenwerte Gres(i, j) verwendet werden.
-
Anschließend wird
in einem fünften
Verfahrensschritt 24A abgefragt, ob eine weitere Bildsequenz
aufgenommen werden soll. Ist dies der Fall, wird der Abstand der
Kamera 13 zur Objektoberfläche verändert und anschließend eine
neue Bildsequenz fotografiert, wobei das Verfahren wieder mit dem
ersten Verfahrenschritt 20A beginnt.
-
Ergibt
die Abfrage im fünften
Verfahrensschritt 24A, dass keine weitere Aufnahme einer
Bildsequenz erfolgen soll, wird das Verfahren im sechsten Verfahrensschritt 25A fortgesetzt.
Hier wird der Kontrast zwischen den resultierenden Graustufenwerte
Gres(i, j) der Pixel P eines Bildsegments
S ausgewertet. Anhand des Kontrastes der resultierenden Graustufenwerte
Gres(i, j) wird durch Anwendung eines vorgegebenen
Operators ein Schärfewert
F für jedes
Bildsegment S berechnet.
-
Die
Ermittlung des Schärfewertes
F erfolgt durch Verknüpfung
der Graustufenwerte G
res(i, j) der im Bildsegment
S enthaltenen Pixel P mit einem Operator, wie z. B. ein Prewitt-Operator,
ein Sobel-Operator oder ein Laplace-Operator, die beispielsweise folgende
Form aufweisen können:
-
Durch
Multiplikation einer der Operatoren O mit der Matrix der Graustufenwerte
Gres(i, j) eines Bildsegments (hier: 3×3 Pixel)
ergibt sich der Schärfewert
F in Matrixform. Fx =
Ox·Gres(S) und Fy = Oy·Gres(S) bzw. Fxy =
Oxy·Gres(S), wobei Gres(S)
die Matrix der resultierenden Graustufenwertewerte des Bildsegments
S darstellt.
-
Richtungsabhängige Operatoren
wie der Prewitt-Operator oder der Sobel-Operator können zusätzlich auch
für die
jeweils angegebene Richtung verwendet werden. Eine richtungsunabhängige Information
kann durch die Kombination der beiden richtungsabhängigen Operator-Matritzen
erhalten werden.
-
Im
abschließenden
siebten Verfahrensschritt 26A wird schließlich die
Oberflächentopologie
der Objektoberfläche 11 bestimmt.
Anhand des Schärfewerts
F eines Bildsegmentes S auf jeder Aufnahmesequenz kann ermittelt
werden, bei welchem Abstand zwischen Kamera 13 und Objektoberfläche 11 der
im betreffenden Bildsegment S dargestellte Oberflächenabschnitt
im Fokus der Kamera 13 war und scharf abgebildet wurde.
Aus dem bekannten Abstand zwischen Kamera 13 und Objektoberfläche 11 und
der bekannten Abstandsänderung
zwischen den einzelnen Aufnahmesequenzen werden dann Oberflächentopologiewerte
T ermittelt, die den Höhenunterschied
zwischen den in den Bildsegmenten S dargestellten Oberflächenabschnitten
der Objektoberfläche
angeben und somit die Oberflächentopologie
der Objektoberfläche 11 bestimmen.
-
Ein
weiteres Ausführungsbeispiel
eines erfindungsgemäßen Verfahrens
ist in 3 veranschaulicht. Die ersten beiden Verfahrensschritte 20B und 21B entsprechend
dabei den beiden ersten Verfahrensschritten 20A und 21A des
zuvor anhand von 2 beschriebenen Verfahrensablaufs.
-
Im
darauf folgenden dritten Verfahrensschritt 22B erfolgt
eine Bewertung der Bildsegmente S, bei der bereits für jedes
der Bildsegmente S anhand des Kontrastes ein Schärfewert F ermittelt wird. Die
Bestimmung der Schärfewerte
F erfolgt anhand der Operatoren O, wie dies im Zusammenhang mit
dem ersten Ausführungsbeispiel
erläutert
wurde.
-
Im
darauf folgenden vierten Verfahrensschritt 23B wird abgefragt,
ob eine weitere Bildsequenz mit verändertem Abstand zwischen Kamera 13 und
Objektoberfläche 11 aufgenommen
werden soll. Ist dies der Fall, so beginnt das Verfahren wieder
beim ersten Verfahrensschritt 20B. Anderenfalls wird das
Verfahren im 5. Verfahrensschritt 24B fortgesetzt. Dort
wird aus den Schärfewerten
F der korrespondierenden Bildsegmente S jeweils ein resultierender
Schärfewert
Fres berechnet. Auch hier können zunächst unzulässige Schärfewerte
F durch einen Schwellwertfilter aussortiert werden, die für die Berechnung
des resultierenden Schärfewerts
Fres außer
Betracht bleiben sollen. Dadurch werden falsche Berechnungen durch über- oder
unterbelichtete Bilder vermieden. Anschließend kann durch ein Mittelwert
bildendes Verfahren, wie z. B. die arithmetische Mittelwertbildung
der resultierende Schärfewert
Fres aus den einzelnen zu berücksichtigenden
Schärfewerten
F auf bekannte Weise ermittelt werden.
-
Im
darauf folgenden sechsten Verfahrensschritt 25B wird aus
den resultierenden Schärfewerten
Fres aller Bildsegmente S die Oberflächentopologiewerte
T und somit die Oberflächentopologie
der Objektoberfläche 11 analog
zum siebten Verfahrensschritt 26A des ersten Ausführungsbeispiels
gemäß 2 berechnet.
-
Die
Erfindung trifft ein Verfahren zur optischen Ermittlung von geometrischen
Oberflächenmerkmalen und
insbesondere der Oberflächentopologie
einer Objektoberfläche 11.
In jeder Aufnahmesequenz macht eine Kamera 13 mehrere Bilder
der Objektoberfläche 11 bei
gleich bleibender Relativposition zwischen der Kamera 13 und
der Objektoberfläche 11,
wobei jedes Bild mit einem anderen Beleuchtungszustand aufgenommen wird.
Die Bilder werden dann jeweils in eine Vielzahl von Bildsegmenten
S unterteilt. Alle korrespondierenden Pixel P oder Bildsegmente
S der Bilder einer Aufnahmesequenz werden bewertet, wobei insbesondere überbelichtete
und unterbelichtete Pixel P oder Bildsegmente S herausgefiltert
werden, so dass diese für
die nachfolgende Betrachtung nicht berücksichtigt werden. Anschließend wird
in einer nachfolgenden Verarbeitungsstufe 26A, 25B die
Oberflächentopologie
der Objektoberfläche 11 ermittelt.