DE102009024030B3 - Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen - Google Patents

Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen Download PDF

Info

Publication number
DE102009024030B3
DE102009024030B3 DE102009024030A DE102009024030A DE102009024030B3 DE 102009024030 B3 DE102009024030 B3 DE 102009024030B3 DE 102009024030 A DE102009024030 A DE 102009024030A DE 102009024030 A DE102009024030 A DE 102009024030A DE 102009024030 B3 DE102009024030 B3 DE 102009024030B3
Authority
DE
Germany
Prior art keywords
image
pixels
image segments
determined
object surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102009024030A
Other languages
English (en)
Inventor
Marcus Dr. Otto
Heiko Dr. Münkel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Walter Maschinenbau GmbH
Original Assignee
Walter Maschinenbau GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Walter Maschinenbau GmbH filed Critical Walter Maschinenbau GmbH
Priority to DE102009024030A priority Critical patent/DE102009024030B3/de
Application granted granted Critical
Publication of DE102009024030B3 publication Critical patent/DE102009024030B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Abstract

Die Erfindung betrifft ein Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen und insbesondere der Oberflächentopologie einer Objektoberfläche. In jeder Aufnahmesequenz macht eine Kamera mehrere Bilder der Objektoberfläche bei gleich bleibender Relativposition zwischen der Kamera und der Objektoberfläche, wobei jedes Bild mit einem anderen Beleuchtungszustand aufgenommen wird. Die Bilder werden dann jeweils in eine Vielzahl von Bildsegmenten (S) unterteilt. Alle korrespondierenden Pixel (P) oder Bildsegmente (S) der Bilder einer Aufnahmesequenz werden bewertet, wobei insbesondere überbelichtete und unterbelichtete Pixel (P) oder Bildsegmente (S) herausgefiltert werden, so dass diese für die nachfolgende Betrachtung nicht berücksichtigt werden. Anschließend wird in einer nachfolgenden Verarbeitungsstufe (25B) die Oberflächentopologie (T) der Objektoberfläche ermittelt.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen einer Objektoberfläche.
  • Es ist bekannt, geometrische Oberflächenmerkmale wie Längen von Kanten, Größen bestimmter Objektoberflächenabschnitte, Oberflächentopologien oder ähnliches anhand von kontaktlosen optischen Verfahren zu ermitteln. Hierfür können beispielsweise Fotografien der Objektoberfläche gemacht und durch anschließende Bildverarbeitung die gewünschten geometrischen Oberflächenmerkmale ermittelt werden. Auf diese Weise können beispielsweise Objektoberflächen optisch vermessen oder kontrolliert werden, beispielsweise eine spanend bearbeitete metallische Objektoberfläche.
  • Aus DE 103 46 481 A1 ist ein Verfahren zur Rekonstruktion von Oberflächenprofilen bekannt. Dabei werden mehrere Bilder desselben Oberflächenausschnitts aus nahezu vertikaler Position aufgenommen. Die Beleuchtung der Oberfläche erfolgt für jedes der Bilder unter einem sehr kleinen Winkel aus unterschiedlichen Richtungen. Anschließend erfolgt eine Quotientenbildung der Helligkeitswerte gleicher Pixel. Helligkeitsunterschiede, die nicht durch Schattenwürfe entstanden sind, lassen sich in den Quotientenbildern eliminieren. Erhebungen, Vertiefungen und Neigungen können anhand des Helligkeitsverlaufs und des Schattenwurfs bestimmt werden (Shape-from-shading-Methode). Dadurch kann eine dreidimensionale Rekunstruktion der Oberfläche erhalten werden.
  • In DE 10 2007 033 835 A1 wird eine Vorrichtung sowie ein Verfahren zur Objektsegmentierung beschrieben. Eine Beleuchtungseinheit erzeugt eine sich verändernde Beleuchtung. Es werden zumindest zwei Bilder bei unterschiedlichen Beleuchtungszuständen aufgenommen und anschließend differenziert. Aus dem Differenzbild wird dann das Segmentbild abgeleitet, beispielsweise kann anhand eines Schwellenwertvergleichs ein Binärbild erzeugt werden. Dieses Bild kann dann als Grundlage für eine Auswertung der aufgenommenen Szene dienen.
  • Ein Verfahren zur Erhöhung des Dynamikumfangs von Bildern ist in US 6 753 876 B2 beschrieben. Es werden mehrere Bilder einer Szene bei unterschiedlichen Beleuchtungen aufgenommen. Anschließend können diese Bilder fusioniert werden, um ein Bild mit größerem Dynamikumfang zu erhalten. Dabei können solche Pixel unberücksichtigt bleiben, die einen Helligkeitswert null oder einen zu großen Helligkeitswert aufweisen.
  • Durch die Erfindung soll es insbesondere ermöglicht werden, solche spanend bearbeiteten metallischen Objektoberflächen, Objektoberflächen die durch ihre Reflektionscharakteristik solchen spanend bearbeiteten metallischen Oberflächen ähnlich sind und Objektoberflächen, bei denen aufgrund ihrer Form und ihrer Reflektionseigenschaften bisherige Verfahren nur unzureichend waren, mit einer ausreichend hohen Genauigkeit und Zuverlässigkeit zu vermessen.
  • Es kann daher als Aufgabe der vorliegenden Erfindung angesehen werden, seitherige Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen einer Objektoberfläche zu verbessern.
  • Diese Aufgabe wird durch das Verfahren gemäß Patentanspruch 1 gelöst.
  • Erfindungsgemäß werden zunächst mehrere Bilder oder mehrere Aufnahmesequenzen von Bildern der Objektoberfläche aufgenommen. Dabei wird der Beleuchtungszustand verändert. Zusätzlich kann auch der Abstand zwischen einer Kamera und der Objektoberfläche variiert werden. Entweder werden für jede Relativposition zwischen der Kamera und der Objektoberfläche mehrere Bilder bei einem jeweils anderen Beleuchtungszustand aufgenommen oder es werden für jeden Beleuchtungszustand mehrere Bilder mit unterschiedlichem Abstand zwischen Kamera und Objektoberfläche gemacht. Eine Aufnahmesequenz besteht dabei aus mehreren Bildern, die unterschiedliche Beleuchtungszustände aufweisen. D. h. zumindest ein den Beleuchtungszustand charakterisierender Beleuchtungsparameter wird von Bild zu Bild der Aufnahmesequenz verändert. Somit unterscheidet sich ein Bild einer Aufnahmesequenz zumindest in einem Beleuchtungsparameter von den anderen Bildern einer Aufnahmesequenz. Als Beleuchtungsparameter dienen beispielsweise die Belichtungszeit, die Blende, die Verstärkung oder die Beleuchtungsintensität der die Objektoberfläche anstrahlenden Beleuchtung. Beispielsweise können Matrixkameras mit Auflichtbeleuchtung eingesetzt werden.
  • Jedes der aufgenommenen Bilder einer Aufnahmesequenz wird in eine Vielzahl von Bildsegmenten unterteilt. Anschließend werden alle korrespondierenden Pixel oder Bildsegmente der Bilder einer Aufnahmesequenz bewertet und abhängig vom Bewertungsergebnis wird in einer nachfolgenden Verarbeitungsstufe das Oberflächenmerkmal für den im betroffenen Bildsegment dargestellten Oberflächenabschnitt der Objektoberfläche ermittelt, insbesondere im Vergleich zu den in den anderen Bildsegmenten dargestellten Oberflächenabschnitten. Unter korrespondierenden Pixeln oder Bildsegmenten sind diejenigen Bildsegmente einer Aufnahmesequenz zu verstehen, die denselben Oberflächenabschnitt der Objektoberfläche darstellen. Wegen der unterschiedlichen Beleuchtungszustände der korrespondierenden Bildsegmente ist gewährleistet, dass zumindest in einem Bildsegment und insbesondere in mehreren Bildsegmenten die interessierenden Details, die zur Bestimmung des betreffenden geometrischen Oberflächenmerkmals notwendig sind, deutlich zu sehen und in der Verarbeitungsstufe dadurch gut verwertbar sind. Auf diese Weise ist eine deutlich verbesserte und genauere optische Vermessung der Objektoberfläche hinsichtlich des interessierenden geometrischen Oberflächenmerkmals möglich. Beim Oberflächenmerkmal kann es sich um ein ein-, zwei- oder dreidimensionales Oberflächenmerkmal handeln.
  • Vorteilhafte Ausgestaltungen des Verfahrens ergeben sich aus den abhängigen Patentansprüchen.
  • Vorzugsweise handelt es sich bei den Bildern um Graustufenbilder, wobei für die Graustufenwerte 8 oder mehr Bit zur Verfügung stehen. Bei der Bewertung der korrespondierenden Bildsegmente können die Graustufenwerte verglichen und dadurch überbelichtete und/oder unterbelichtete Bildsegmente erkannt werden. Vorzugsweise werden diese über- oder unterbelichteten Bildsegmente in der Verarbeitungsstufe bei der Ermittlung des Oberflächenmerkmals nicht berücksichtigt. In der Verarbeitungsstufe kann aus den berücksichtigten, in einem zulässigen Belichtungsbereich befindlichen Bildsegmenten ein Ergebnisbild der Objektoberfläche erzeugt werden, das einen größeren Dynamikumfang aufweist als jedes der Bilder der Aufnahmesequenz. Hierbei kann beispielsweise anstelle einer Integerzahl mit 8 Bit eine Gleitkommazahl für die Darstellung der Graustufenwerte verwendet werden. Es ist hierbei auch möglich, die Graustufenwerte der berücksichtigten Bildsegmente auf Basis der Beleuchtungsparameter und gegebenenfalls weiterer Kameraparameter, wie z. B. einer Kamerakurve, in einen absoluten Helligkeitsbereich umzurechnen.
  • Zur Beibehaltung der Relativposition zwischen Kamera und Objektoberfläche während der Aufnahme einer Aufnahmesequenz ist es zweckmäßig, wenn sowohl die Position des Objekts als auch die Position der Kamera unverändert bleiben.
  • Die Bildsegmente weisen vorteilhafterweise eine Mindestanzahl von Pixeln auf, beispielsweise 3 mal 3, also 9 Pixel. Dies ermöglicht das einfache Anwenden von Operatoren bei der Weiterverabeitung, wie z. B. Prewitt-, Sobel- oder Laplace-Operatoren.
  • Als Oberflächenmerkmal kann für jedes Bildsegment ein Oberflächentopologiewert ermittelt werden. Dieser Oberflächentopologiewert kann insbesondere als relativer Wert das Verhältnis der Oberflächentopologie zu anderen Bildsegmenten angeben. Dabei werden vorzugsweise mehrere Aufnahmesequenzen mit unterschiedlichen Abständen zwischen Kamera und Objektoberfläche aufgenommen. Zur Erstellung mehrerer Aufnahmesequenzen können entweder für jede Relativposition zwischen der Kamera und der Objektoberfläche mehrere Bilder bei einem jeweils anderen Beleuchtungszustand aufgenommen oder bevorzugt für jeden Beleuchtungszustand mehrere Bilder mit unterschiedlichem Abstand zwischen Kamera und Objektoberfläche gemacht werden. Anschließend können bei der Bewertung der Bildsegmente jeweils ein die Bildschärfe beschreibender Schärfewert ermittelt werden, der insbesondere anhand des Kontrastes der Graustufenwerte der im Bildsegment enthaltenen Pixel ermittelt wird. Aus dem Schärfewert lässt sich erkennen, ob sich der im Bildsegment dargestellte Oberflächenabschnitt im Brennpunkt der Kamera befunden hat oder nicht. Auf Basis dieses Schärfewerts kann somit sehr einfach in der Verarbeitungsstufe der Oberflächentopologiewert des Bildsegments ermittelt werden. Befindet sich z. B. der im Bildsegment dargestellte Oberflächenabschnitt im Brennpunkt der Kamera, so ergibt sich daraus unmittelbar der Abstand zwischen der Kamera und dem betreffenden Oberflächenabschnitt, aus dem der Oberflächentopologiewert sehr einfach ermittelt werden kann.
  • Es besteht dabei die Möglichkeit, dass für die korrespondierenden Bildsegmente einer Aufnahmesequenz (mit verschiedenen Beleuchtungszuständen) jeweils ein separater Schärfewert bestimmt wird und aus den einzelnen Schärfewerten anschließend ein resultierender Schärfewert berechnet wird. Bei der Bestimmung des resultierenden Schärfewerts können solche Schärfewerte einzelner Bildsegmente außer Betracht bleiben, die nicht in einen zulässigen Wertebereich fallen. Aus dem resultierenden Schärfewert kann dann der Oberflächentopologiewert für den in diesen korrespondierenden Bildsegmenten dargestellten Oberflächenabschnitts der Objektoberfläche ermittelt werden. Bei diesen Verfahren wird zunächst aus jedem der Bilder der Aufnahmesequenz ein Schärfewert ermittelt und erst anschließend erfolgt eine Verknüpfung der einzelnen Schärfewerte zu einem resultierenden Schärfewert. Ungenauigkeiten und Veränderungen durch Kombination mehrer Bilder oder Bildsegmente vor Ermittlung des Schärfewerts werden dadurch vermieden.
  • Es ist ferner auch möglich, bei der Bewertung der Bildsegmente für die korrespondierenden Bildsegmente einer Aufnahmesequenz aus den Graustufenwerten der korrespondierenden Bildsegmente resultierende Graustufenwerte zu erzeugen. Dabei kann aus den resultierenden Graustufenwerten ein die Bildschärfe beschreibender Schärfewert ermittelt werden, der insbesondere anhand des Kontrastes der Graustufenwerte der im Bildsegment enthaltenen Pixel ermittelt wird. Bei diesem Vorgehen werden zunächst aus korrespondierenden Bildsegmenten einer Aufnahmesequenz die resultierenden Graustufenwerte ermittelt. Dabei können Graustufenwerte von Pixeln in den Bildsegmenten außer Betracht bleiben die außerhalb eines zulässigen Wertebereichs liegen. Aus den zu berücksichtigenden Bildsegmenten können dann die resultierenden Graustufenwerte der Pixel gebildet werden, beispielsweise durch ein Mittelwertbildungsverfahren. Aus den resultierenden Graustufenwerten dieser Pixel wird anschießend ein Schärfewert gebildet. Somit wird für alle korrespondierenden Bildsegmente nur ein Schärfewert generiert, was Rechenleistung einspart.
  • Weitere Merkmale des Verfahrens ergeben sich aus den Patentansprüchen und der Beschreibung. Die Beschreibung beschränkt sich auf wesentliche Merkmale der Erfindung und sonstiger Gegebenheiten. Die Zeichnung ist ergänzend heranzuziehen. Es zeigen:
  • 1 eine schematische Darstellung nach Art eines Blockschaltbilds, eine Vorrichtung zur Durchführung des erfindungsgemäßen Verfahrens,
  • 2 ein Flussdiagramm eines ersten Ausführungsbeispiels des erfindungsgemäßen Verfahrens,
  • 3 ein Flussdiagramm eines zweiten Ausführungsbeispiels eines erfindungsgemäßen Verfahrens,
  • 4 die schematische Darstellung der Unterteilung eines Bildes in Bildsegmente und
  • 5 eines der Bildsegmente aus 4.
  • 1 zeigt eine Vorrichtung 10 zur optischen Ermittlung von geometrischen Oberflächenmerkmalen und beispielsgemäß Oberflächentopologiewerten einer Objektoberfläche 11 eines Objekts 12. Die Vorrichtung 10 weist hierfür eine Kamera 13 auf, die mit Abstand zur Objektoberfläche 11 angeordnet ist und Bilder von der Objektoberfläche 11 aufnimmt. Der Abstand zwischen der Kamera 13 und der Objektoberfläche 11 ist veränderbar, wie dies durch den Doppelpfeil 14 dargestellt ist. Eine Beleuchtungseinrichtung 15 dient zur Beleuchtung der Objektoberfläche 11. Die von der Kamera 13 gemachten Bilder werden an eine Recheneinrichtung 16 übermittelt, die zur Ermittlung der geometrischen Oberflächenmerkmale aus den übermittelten Bildern eingerichtet ist.
  • Ein erstes Ausführungsbeispiel eines erfindungsgemäßen Verfahrens ist im Flussdiagramm in 2 dargestellt. In einem ersten Verfahrensschritt 20A nimmt die Kamera 13 bei gleich bleibender Relativposition zur Objektoberfläche 11 in einer ersten Aufnahmesequenz mehrere Bilder der Objektoberfläche 11 auf, wobei der Beleuchtungszustand bei jedem Bild geändert wird. Dies kann beispielsweise durch Veränderung der Einstellung der Beleuchtungseinrichtung 15 oder durch Veränderung der Kameraparameter, wie z. B. der Belichtungszeit oder der Blende erfolgen. Beim Ausführungsbeispiel nimmt die Kamera Graustufenbilder auf, insbesondere mit 256 unterscheidbaren Graustufenwerten, was einer Auflösung von 8 Bit entspricht.
  • Im darauf folgenden zweiten Verfahrensschritt 21A wird jedes der Bilder der aufgenommenen Bildsequenz in mehrere Bildsegmente S unterteilt, wie dies in 4 und 5 schematisch dargestellt ist. Jedes Bild weist eine vorgegebene Anzahl n von Pixeln P auf, die in k Spalten und in l Zeilen angeordnet sind, so dass gilt: n = l·k
  • Die Anzahl der Pixel pro Bildsegment S ist vorgegeben, wobei beispielsgemäß jedes Bildsegment S 3×3 und demnach 9 Pixel P umfasst. Die Anzahl der Pixel P pro Bildsegment S kann bedarfsgemäß variiert werden.
  • Anschließend erfolgt in einem dritten Verfahrensschritt 22A eine Bewertung der Pixel P oder der Bildsegmente S. Beim Ausführungsbeispiel werden die jeweils korrespondierenden Pixel P aller Bilder der aufgenommenen Bildsequenz separat bewertet. Unter korrespondierenden Pixeln P oder Bildsegmenten S sind diejenigen Pixel P bzw. Bildsegmente S zu verstehen, die denselben Oberflächenabschnitt der Objektoberfläche 11 bei gleichem Abstand zwischen Kamera 13 und Objektoberfläche 11 zeigen. Dies sind jeweils die Pixel P, die sich in derselben Zeile i(i = 1 bis l) und in derselben Spalte j(j = 1 bis k) der Bilder befinden.
  • Beim Ausführungsbeispiel gemäß 2 erfolgt eine Bewertung der Pixel P zunächst mittels eines Schwellenwertfilters. Ist der Graustufenwert G(i, j) eines Pixels P(i, j) kleiner als ein vorgegebener Minimalwert Min oder größer als ein vorgegebener Maximalwert Max so wird das betreffende Pixel P herausgefiltert und im nachfolgenden Verfahrensschritt nicht berücksichtigt. Für den Schwellwertvergleich im dritten Verfahrensschritt 22A gilt somit: Min ≤ G(i, j) ≤ Max.
  • Die Graustufenwert G(i, j) die diese Bedingung erfüllen sollen als zu berücksichtigende Graustufenwert G(i, j) bezeichnet werden. Alle Pixel P(i, j), die die angegebene Bedingung nicht erfüllen, bleiben unberücksichtigt.
  • Im vierten Verfahrensschritt 23A werden aus den zu berücksichtigenden Pixeln P, die die Schwellwertbedingung im vorangegangenen Verfahrensschritt 22A erfüllt haben, resultierende Graustufenwerte Gres(i, j) berechnet. Dabei können verschiedene Mittelwert bildende Rechenverfahren eingesetzt werden. Beispielsweise kann der arithmetische Mittelwert oder der Median der Graustufenwerte G(i, j) gebildet werden. Bei dem hier beschriebenen bevorzugten Ausführungsbeispiel werden für die korrespondierenden Pixel P aus den zu berücksichtigenden Graustufenwerten G(i, j) ein resultierender Graustufenwert Gres durch die Berechnung des arithmetischen Mittels ermittelt:
    Figure 00100001
    mit
  • b:
    Anzahl der zu berücksichtigenden Graustufenwerte der korrespondierenden Pixel P(i, j);
    G(i, j):
    zu berücksichtigende Graustufenwerte der korrespondierenden Pixel P.
  • Auf diese Weise erhält man für jedes Pixel P(i, j) einen resultierenden Graustufenwerte Gres(i, j). Dadurch entsteht sozusagen ein resultierendes Bild, das sich aus den resultierenden Graustufenwerten zusammensetzt.
  • Es ist hierbei auch möglich, den Dynamikumfang der resultierenden Graustufenwerte Gres(i, j) zu vergrößern. Dies kann dadurch erreicht werden, dass anstelle der üblichen Integerzahlen mit 8 Bit eine Gleitkommazahl für die Darstellung der Graustufenwerte G(i, j) und der resultierenden Graustufenwerte Gres(i, j) verwendet werden.
  • Anschließend wird in einem fünften Verfahrensschritt 24A abgefragt, ob eine weitere Bildsequenz aufgenommen werden soll. Ist dies der Fall, wird der Abstand der Kamera 13 zur Objektoberfläche verändert und anschließend eine neue Bildsequenz fotografiert, wobei das Verfahren wieder mit dem ersten Verfahrenschritt 20A beginnt.
  • Ergibt die Abfrage im fünften Verfahrensschritt 24A, dass keine weitere Aufnahme einer Bildsequenz erfolgen soll, wird das Verfahren im sechsten Verfahrensschritt 25A fortgesetzt. Hier wird der Kontrast zwischen den resultierenden Graustufenwerte Gres(i, j) der Pixel P eines Bildsegments S ausgewertet. Anhand des Kontrastes der resultierenden Graustufenwerte Gres(i, j) wird durch Anwendung eines vorgegebenen Operators ein Schärfewert F für jedes Bildsegment S berechnet.
  • Die Ermittlung des Schärfewertes F erfolgt durch Verknüpfung der Graustufenwerte Gres(i, j) der im Bildsegment S enthaltenen Pixel P mit einem Operator, wie z. B. ein Prewitt-Operator, ein Sobel-Operator oder ein Laplace-Operator, die beispielsweise folgende Form aufweisen können:
    Figure 00110001
    Figure 00120001
  • Durch Multiplikation einer der Operatoren O mit der Matrix der Graustufenwerte Gres(i, j) eines Bildsegments (hier: 3×3 Pixel) ergibt sich der Schärfewert F in Matrixform. Fx = Ox·Gres(S) und Fy = Oy·Gres(S) bzw. Fxy = Oxy·Gres(S), wobei Gres(S) die Matrix der resultierenden Graustufenwertewerte des Bildsegments S darstellt.
  • Richtungsabhängige Operatoren wie der Prewitt-Operator oder der Sobel-Operator können zusätzlich auch für die jeweils angegebene Richtung verwendet werden. Eine richtungsunabhängige Information kann durch die Kombination der beiden richtungsabhängigen Operator-Matritzen erhalten werden.
  • Im abschließenden siebten Verfahrensschritt 26A wird schließlich die Oberflächentopologie der Objektoberfläche 11 bestimmt. Anhand des Schärfewerts F eines Bildsegmentes S auf jeder Aufnahmesequenz kann ermittelt werden, bei welchem Abstand zwischen Kamera 13 und Objektoberfläche 11 der im betreffenden Bildsegment S dargestellte Oberflächenabschnitt im Fokus der Kamera 13 war und scharf abgebildet wurde. Aus dem bekannten Abstand zwischen Kamera 13 und Objektoberfläche 11 und der bekannten Abstandsänderung zwischen den einzelnen Aufnahmesequenzen werden dann Oberflächentopologiewerte T ermittelt, die den Höhenunterschied zwischen den in den Bildsegmenten S dargestellten Oberflächenabschnitten der Objektoberfläche angeben und somit die Oberflächentopologie der Objektoberfläche 11 bestimmen.
  • Ein weiteres Ausführungsbeispiel eines erfindungsgemäßen Verfahrens ist in 3 veranschaulicht. Die ersten beiden Verfahrensschritte 20B und 21B entsprechend dabei den beiden ersten Verfahrensschritten 20A und 21A des zuvor anhand von 2 beschriebenen Verfahrensablaufs.
  • Im darauf folgenden dritten Verfahrensschritt 22B erfolgt eine Bewertung der Bildsegmente S, bei der bereits für jedes der Bildsegmente S anhand des Kontrastes ein Schärfewert F ermittelt wird. Die Bestimmung der Schärfewerte F erfolgt anhand der Operatoren O, wie dies im Zusammenhang mit dem ersten Ausführungsbeispiel erläutert wurde.
  • Im darauf folgenden vierten Verfahrensschritt 23B wird abgefragt, ob eine weitere Bildsequenz mit verändertem Abstand zwischen Kamera 13 und Objektoberfläche 11 aufgenommen werden soll. Ist dies der Fall, so beginnt das Verfahren wieder beim ersten Verfahrensschritt 20B. Anderenfalls wird das Verfahren im 5. Verfahrensschritt 24B fortgesetzt. Dort wird aus den Schärfewerten F der korrespondierenden Bildsegmente S jeweils ein resultierender Schärfewert Fres berechnet. Auch hier können zunächst unzulässige Schärfewerte F durch einen Schwellwertfilter aussortiert werden, die für die Berechnung des resultierenden Schärfewerts Fres außer Betracht bleiben sollen. Dadurch werden falsche Berechnungen durch über- oder unterbelichtete Bilder vermieden. Anschließend kann durch ein Mittelwert bildendes Verfahren, wie z. B. die arithmetische Mittelwertbildung der resultierende Schärfewert Fres aus den einzelnen zu berücksichtigenden Schärfewerten F auf bekannte Weise ermittelt werden.
  • Im darauf folgenden sechsten Verfahrensschritt 25B wird aus den resultierenden Schärfewerten Fres aller Bildsegmente S die Oberflächentopologiewerte T und somit die Oberflächentopologie der Objektoberfläche 11 analog zum siebten Verfahrensschritt 26A des ersten Ausführungsbeispiels gemäß 2 berechnet.
  • Die Erfindung trifft ein Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen und insbesondere der Oberflächentopologie einer Objektoberfläche 11. In jeder Aufnahmesequenz macht eine Kamera 13 mehrere Bilder der Objektoberfläche 11 bei gleich bleibender Relativposition zwischen der Kamera 13 und der Objektoberfläche 11, wobei jedes Bild mit einem anderen Beleuchtungszustand aufgenommen wird. Die Bilder werden dann jeweils in eine Vielzahl von Bildsegmenten S unterteilt. Alle korrespondierenden Pixel P oder Bildsegmente S der Bilder einer Aufnahmesequenz werden bewertet, wobei insbesondere überbelichtete und unterbelichtete Pixel P oder Bildsegmente S herausgefiltert werden, so dass diese für die nachfolgende Betrachtung nicht berücksichtigt werden. Anschließend wird in einer nachfolgenden Verarbeitungsstufe 26A, 25B die Oberflächentopologie der Objektoberfläche 11 ermittelt.

Claims (12)

  1. Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen (T) einer Objektoberfläche (11), wobei in einer Aufnahmesequenz mehrere Bilder der Objektoberfläche (11) bei gleich bleibender Relativposition zwischen einer Kamera (13) und der Objektoberfläche (11) mit unterschiedlichen Beleuchtungszuständen aufgenommen werden, wobei jedes der aufgenommenen Bilder in eine Vielzahl von Bildsegmenten (S) unterteilt wird, wobei alle korrespondierenden Pixel (P) oder Bildsegmente (S) der Bilder einer Aufnahmesequenz bewertet werden und wobei abhängig vom Bewertungsergebnis in einer nachfolgenden Verarbeitungsstufe (26A; 25B) das Oberflächenmerkmal (T) für den im betroffenen Bildsegment (S) dargestellten Oberflächenabschnitt der Objektoberfläche (11) ermittelt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Graustufenwerte (G) der korrespondierenden Pixel (P) oder Bildsegmente (S) miteinander verglichen und überbelichtete und/oder unterbelichtete Pixel (P) oder Bildsegmente (S) in der Verarbeitungsstufe (26A; 25B) bei der Ermittlung des Oberflächenmerkmals (T) unberücksichtigt bleiben.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass ein aus den berücksichtigten Pixeln (P) oder Bildsegmenten (S) erzeugtes resultierendes Bild der Objektoberfläche (11) einen größeren Dynamikumfang aufweist als jedes der Bilder der Aufnahmesequenz.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass während der Aufnahme der Bilder einer Aufnahmesequenz sowohl die Position der Kamera (13) als auch die Position des Objekts (12) unverändert beibehalten werden.
  5. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Bildsegment (S) eine Mindestanzahl von Pixeln (P) aufweist, insbesondere neun Pixel (P).
  6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Oberflächenmerkmal für jedes Bildsegment (S) ein Oberflächentopologiewert (T) ermittelt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass zur Ermittlung der Oberflächentopologiewerte (T) mehrere Aufnahmesequenzen mit unterschiedlichen Abständen zwischen Kamera (13) und Objektoberfläche (11) aufgenommen werden.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass bei der Bewertung des Bildsegments (S) ein die Bildschärfe beschreibender Schärfewert (F) ermittelt wird, der insbesondere anhand des Kontrastes der Graustufenwerte (G) der im Bildsegment (S) enthaltenen Pixel (P) ermittelt wird.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass auf Basis des Schärfewerts (F) eines Bildsegments (S) in der Verarbeitungsstufe (26A; 25B) der Oberflächentopologiewert (T) ermittelt wird.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass für die korrespondierenden Bildsegmente (S) einer Aufnahmesequenz jeweils ein separater Schärfewert (F) bestimmt wird und aus den einzelnen Schärfewerten (F) anschließend ein resultierender Schärfewert (Fres) berechnet wird, aus dem dann der Oberflächentopologiewert (T) für den in diesen korrespondierenden Bildsegmenten (S) dargestellten Oberflächenabschnitt der Objektoberfläche (11) ermittelt wird.
  11. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass bei der Bewertung der Bildsegmente (S) einer Aufnahmesequenz aus den Graustufenwerten (G) der korrespondierenden Pixel (P) oder Bildsegmente (S) resultierende Graustufenwerte (Gres) erzeugt werden.
  12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, dass aus den resultierenden Graustufenwerten (Gres) ein die Bildschärfe beschreibender Schärfewert (F) ermittelt wird, der insbesondere anhand des Kontrastes der resultierenden Graustufenwerte (Gres) der im Bildsegment (S) enthaltenen Pixel (P) ermittelt wird.
DE102009024030A 2009-06-05 2009-06-05 Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen Active DE102009024030B3 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009024030A DE102009024030B3 (de) 2009-06-05 2009-06-05 Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009024030A DE102009024030B3 (de) 2009-06-05 2009-06-05 Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen

Publications (1)

Publication Number Publication Date
DE102009024030B3 true DE102009024030B3 (de) 2011-01-27

Family

ID=43384164

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009024030A Active DE102009024030B3 (de) 2009-06-05 2009-06-05 Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen

Country Status (1)

Country Link
DE (1) DE102009024030B3 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013211286A1 (de) * 2013-06-17 2014-12-18 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zur Vermessung eines Werkstücks mit einem optischen Sensor
DE102010017604B4 (de) * 2009-09-01 2016-03-10 Werth Messtechnik Gmbh Verfahren zum optischen Messen von Strukturen eines Objekts

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6753876B2 (en) * 2001-12-21 2004-06-22 General Electric Company Method for high dynamic range image construction based on multiple images with multiple illumination intensities
DE10346481A1 (de) * 2003-10-02 2005-04-21 Daimler Chrysler Ag Dreidimensionale Rekonstruktion von Oberflächenprofilen
DE102007033835A1 (de) * 2007-07-18 2009-01-29 Eads Deutschland Gmbh Bildaufnahmetechnik zur direkten Objektsegmentierung in Bildern

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6753876B2 (en) * 2001-12-21 2004-06-22 General Electric Company Method for high dynamic range image construction based on multiple images with multiple illumination intensities
DE10346481A1 (de) * 2003-10-02 2005-04-21 Daimler Chrysler Ag Dreidimensionale Rekonstruktion von Oberflächenprofilen
DE102007033835A1 (de) * 2007-07-18 2009-01-29 Eads Deutschland Gmbh Bildaufnahmetechnik zur direkten Objektsegmentierung in Bildern

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010017604B4 (de) * 2009-09-01 2016-03-10 Werth Messtechnik Gmbh Verfahren zum optischen Messen von Strukturen eines Objekts
DE102013211286A1 (de) * 2013-06-17 2014-12-18 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren zur Vermessung eines Werkstücks mit einem optischen Sensor

Similar Documents

Publication Publication Date Title
DE102014206309B4 (de) System und Verfahren zum Erhalten von Bildern mit Versatz zur Verwendung für verbesserte Kantenauflösung
DE112013004103B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE102009057886A1 (de) Abbildungsvorrichtung
DE60113564T2 (de) Bildverarbeitungseinrichtung und Mustererkennungsvorrichtung, bei der die Bildverarbeitungseinrichtung verwendet wird
DE102012016160A1 (de) Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation
DE19623172C1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102009057885A1 (de) Abbildungsvorrichtung
DE102014006717A1 (de) Verfahren zur Erzeugung einer dreidimensionalen Information eines Objektes mit einem Digitalmikroskop und Datenverarbeitungsprogramm zur Abarbeitung des Verfahrens
EP2791896B1 (de) Verfahren zur erzeugung von superaufgelösten bildern mit verbesserter bildauflösung und messvorrichtung
DE102010037746A1 (de) Verfahren zum optischen Antasten einer Kante in oder an einem Oberflächenbereich
DE102010017604B4 (de) Verfahren zum optischen Messen von Strukturen eines Objekts
DE102015208087A1 (de) Verfahren zum Generieren eines reflektionsreduzierten Kontrastbildes und diesbezügliche Vorrichtungen
DE112004002663T5 (de) Bildsubtraktion von Beleuchtungsartefakten
DE102009024030B3 (de) Verfahren zur optischen Ermittlung von geometrischen Oberflächenmerkmalen
DE102018104913A1 (de) Schwingungsüberwachung eines Objekts mittels Videokamera
DE102012200930A1 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze vor einem Hintergrund
DE102019100011B4 (de) Verfahren zur 3D-Rekonstruktion eines Objekts
EP3561769A2 (de) Verfahren zur erkennung von diskontinuitäten an der oberfläche eines körpers
AT508873B1 (de) Verfahren zur aufnahme eines bildes
DE102007038785A1 (de) Verfahren und Vorrichtung zum Bestimmen von Geometriedaten eines Messobjekts
DE102016104043A1 (de) Verfahren zum Erzeugen eines rauschreduzierten Bilds anhand eines Rauschmodells von mehreren Bildern, sowie Kamerasystem und Kraftfahrzeug
DE102020201379A1 (de) Konturerkennungsvorrichtung, konturerkennungssystem und konturerkennungsverfahren
DE3824092C2 (de)
EP3204916A1 (de) Verfahren sowie wärmebildaufnahmevorrichtung zur erzeugung radiometrischer bilder mit in teilbereichen erhöhter auflösung
DE102009009572B3 (de) Verfahren zur entropiebasierten Bestimmung von Objektrandkurven

Legal Events

Date Code Title Description
R020 Patent grant now final

Effective date: 20110427