DE102012013079A1 - Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur - Google Patents

Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur Download PDF

Info

Publication number
DE102012013079A1
DE102012013079A1 DE201210013079 DE102012013079A DE102012013079A1 DE 102012013079 A1 DE102012013079 A1 DE 102012013079A1 DE 201210013079 DE201210013079 DE 201210013079 DE 102012013079 A DE102012013079 A DE 102012013079A DE 102012013079 A1 DE102012013079 A1 DE 102012013079A1
Authority
DE
Germany
Prior art keywords
pattern
segments
pixels
camera
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE201210013079
Other languages
English (en)
Other versions
DE102012013079B4 (de
Inventor
Christian Bräuer-Burchardt
Gunther Notni
Peter Kühmstedt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102012013079.1A priority Critical patent/DE102012013079B4/de
Publication of DE102012013079A1 publication Critical patent/DE102012013079A1/de
Application granted granted Critical
Publication of DE102012013079B4 publication Critical patent/DE102012013079B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung und ein Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur, wobei das Verfahren die folgenden Schritte umfasst: – Projizieren eines periodischen Musters (13) auf ein Objekt (3) und Aufnehmen eines Bildes des Objekts (3) mit dem aufprojizierten periodischen Muster (13) mittels einer ersten Kamera, – Projizieren eines weiteren Musters (14) auf das Objekt (3) und Aufnehmen eines Bildes des Objekts (3) mit dem aufprojizierten weiteren Muster (14) mittels der ersten Kamera, – für eine Vielzahl von Objektpunkten jeweils Identifizieren von Paaren einander und dem jeweiligen Objektpunkt entsprechender Punkte in einer Bildebene (6) der ersten Kamera und in einer weiteren Ebene, wobei die weitere Ebene a) eine Bildebene (7) einer zweiten Kamera ist, mit der ebenfalls ein Bild des Objekts (3) mit dem aufprojizierten periodischen Muster (13) und ein Bild des Objekts (3) mit dem aufprojizierten weiteren Muster (14) aufgenommen werden, oder b) durch ein bildgebendes Element (5) eines Projektors (4) definiert ist, der das periodische Muster (13) und das weitere Muster (14) auf das Objekt (3) projiziert, und – Ermitteln einer Tiefeninformation durch Triangulieren in Abhängigkeit von Positionen der einander und dem jeweiligen Objektpunkt entsprechenden Punkte in der Bildebene (6) der ersten Kamera und in der weiteren Ebene...

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur nach dem Oberbegriff des Anspruchs 1. Die Erfindung betrifft ferner eine Vorrichtung zum Durchführen des Verfahrens.
  • Entsprechende Verfahren kommen z. B. in der industriellen Qualitätskontrolle, bei medizinischen Anwendungen, bei der Archivierung von Kulturerbegütern oder in der Kriminalistik zum Einsatz.
  • Ein Verfahren nach dem Oberbegriff des Anspruchs 1 ist beispielsweise aus der Offenlegungsschrift DE 10 2006 049 695 A1 bekannt. Bei dem darin beschriebenen Verfahren wird mindestens ein Streifenmuster auf ein Objekt projiziert. Mittels zweier Kameraobjektive, die relativ zueinander einen definierten Abstand und eine definierte Orientierung haben, werden aus verschiedenen Richtungen zwei Bilder des Objekts mit dem aufprojizierten Streifenmuster aufgenommen. Für Bildpunkte in beiden Bildern werden Phasenwerte des Streifenmusters ermittelt und anhand dieser Phasenwerte Paare von einander entsprechenden Bildpunkten in den beiden Bildern bestimmt, die jeweils demselben Objektpunkt entsprechen. Durch Triangulieren auf Basis solcher jeweils einander entsprechenden Bildpunkte in den beiden Bildern wird eine Tiefeninformation für den diesen Bildpunkten entsprechenden Objektpunkt ermittelt. Diese Schritte werden für eine Vielzahl von Objektpunkten durchgeführt, so dass Informationen über die Beschaffenheit der Oberfläche des Objekts in drei Dimensionen gewonnen werden.
  • Zur Bestimmung der Paare einander entsprechender Bildpunkte in den beiden Bildern werden in den beiden Bildern Paare einander entsprechender Epipolarlinien bestimmt. Ein solches Paar einander entsprechender Epipolarlinien ist gegeben durch Abbildungen aller Punkte aus einer Ebene, die durch die Projektionszentren der beiden Kameraobjektive verläuft. Mit der Bestimmung solcher Paare von einander entsprechenden Epipolarlinien ist das Problem der Identifikation einander entsprechender Bildpunkte in den beiden Bildern jeweils auf ein eindimensionales Problem reduzierbar. Gemäß dem in DE 10 2006 049 695 A1 beschriebenen Verfahren werden die Epipolarlinien jeweils in Intervalle stetigen Phasenverlaufs des Streifenmusters eingeteilt. Daraufhin werden in einander entsprechenden Epipolarlinien jeweils einander entsprechende Intervalle identifiziert und innerhalb der einander entsprechenden Intervalle Punkte gleicher Phasenwerte einander zugeordnet. Das Identifizieren einander entsprechender Intervalle erfolgt dabei durch Vergleich der Anzahl von in den verschiedenen Intervallen enthaltenden Perioden des Streifenmusters.
  • Ein Nachteil dieser Vorgehensweise besteht darin, dass stetige Intervalle in den einander entsprechenden Epipolarlinien z. B. in Folge von Abschattungen jeweils eine unterschiedliche Anzahl von Perioden enthalten können. Die entsprechenden Intervalle können dann nicht miteinander identifiziert werden, so dass auch Informationen in den nicht abgeschatteten Bereichen verlorengehen.
  • Eine weitere Möglichkeit, einander entsprechende Bildpunkte in den beiden Bildern aufzufinden, bietet die Verwendung von Graycode-Verfahren. Dabei werden nacheinander unterschiedliche Streifenmuster auf das Objekt projiziert und jeweils Bilder des Objekts mit den aufprojizierten Streifenmustern mittels zweier Kameras aufgenommen. Das Projizieren der Muster wird dabei derart vorgenommen, dass Bildpunkten in den Bildebenen der beiden Kameras durch die Folge von Bildern eindeutig ein Vektor mit binärisierten Intensitätswerten zugeordnet werden kann. Durch Vergleich der den Bildpunkten in den Bildebenen der beiden Kameras jeweils zugeordneten Vektoren können dann einander entsprechende Bildpunkte ermittelt werden.
  • Ein Nachteil des Graycode-Verfahrens besteht darin, dass eine gegenüber Fehlidentifikationen genügend robuste Ermittlung der einander entsprechenden Bildpunkte die Projektion einer Vielzahl von Streifenmustern auf das Objekt notwendig macht. Die Folge sind entsprechend lange Projektions- und Aufnahmezeiten, was für viele Anwendungen unerwünscht ist. Kürzere Projektions- und Aufnahmezeiten sind z. B. besonders vorteilhaft bei handgeführten Messsystemen, die anfällig gegenüber Verwackelungen sind, oder bei bewegten oder beweglichen Objekten, z. B. bei Patienten oder bei Fließbandabläufen.
  • Der vorliegenden Erfindung liegt somit die Aufgabe zugrunde, ein Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur zu entwickeln, bei dem eine Projektions- und Aufnahmezeit möglichst gering ist und das dennoch eine Rekonstruktion der dreidimensionalen Kontur mit möglichst hoher räumlicher Auflösung gewährleistet.
  • Diese Aufgabe wird gelöst durch ein Verfahren nach Anspruch 1 sowie durch eine Vorrichtung nach Anspruch 11. Spezielle Ausgestaltungen sind in den Unteransprüchen beschrieben.
  • Vorgeschlagen wird also ein Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur, das die folgenden Schritte umfasst:
    • – Projizieren eines periodischen Musters auf ein Objekt und Aufnehmen eines Bildes des Objekts mit dem aufprojizierten periodischen Muster mittels einer ersten Kamera,
    • – Projizieren eines weiteren Musters auf das Objekt und Aufnehmen eines Bildes des Objekts mit dem aufprojizierten weiteren Muster mittels der ersten Kamera,
    • – für eine Vielzahl von Objektpunkten jeweils Identifizieren von Paaren einander und dem jeweiligen Objektpunkt entsprechender Punkte in einer Bildebene der ersten Kamera und in einer weiteren Ebene, wobei die weitere Ebene a) eine Bildebene einer zweiten Kamera ist, mit der ebenfalls ein Bild des Objekts mit dem aufprojizierten periodischen Muster und ein Bild des Objekts mit dem aufprojizierten weiteren Muster aufgenommen werden, oder b) durch ein bildgebendes Element eines Projektors definiert ist, der das periodische Muster und das weitere Muster auf das Objekt projiziert, und
    • – Ermitteln einer Tiefeninformation durch Triangulieren in Abhängigkeit von Positionen der einander und dem jeweiligen Objektpunkt entsprechenden Punkte in der Bildebene der ersten Kamera und in der weiteren Ebene,
    wobei die Paare einander entsprechender Punkte identifiziert werden, indem den Punkten jeweils zugeordnete Epipolarlinien in der Bildebene der ersten Kamera und in der weiteren Ebene bestimmt werden, Phasenwerte des periodischen Musters für Punkte der einander entsprechenden Epipolarlinien ermittelt werden, Paare einander entsprechender Segmente in den einander entsprechenden Epipolarlinien identifiziert werden, wobei die einander entsprechenden Segmente jeweils derselben Periode des periodischen Musters zugeordnet sind, und in den einander entsprechenden Segmenten Punkte gleicher Phasenwerte einander zugeordnet werden.
  • Das Verfahren zeichnet sich dadurch aus, dass das weitere Muster ein aus einer Vielzahl von Pixeln gebildeter Barcode oder zweidimensionaler Punktcode ist, dessen Pixel jeweils einen Wert aus einer endlichen Wertemenge annehmen, und dass die einander entsprechenden Segmente identifiziert werden, indem den Segmenten sowohl in der Bildebene der ersten Kamera als auch in der weiteren Ebene jeweils eine Kodierung zugeordnet wird, die jeweils durch eine zusammenhängende Menge von Pixeln des weiteren Musters definiert ist, welche mit dem Segment überlappt, dem die Kodierung zugeordnet wird, wobei Segmente in der Bildebene der ersten Kamera und in der weiteren Ebene, denen jeweils übereinstimmende Kodierungen zugeordnet werden, als einander entsprechende Segmente identifiziert werden.
  • Gegenüber den bekannten Graycode-Verfahren zeichnet die vorliegende Erfindung sich also vor allem dadurch aus, dass eine Information, anhand derer einem gegebenen ersten Bildpunkt in der Bildebene der ersten Kamera ein diesem ersten Bildpunkt entsprechender zweiter Bildpunkt in der weiteren Ebene zugeordnet wird, nicht in einer zeitlichen Folge von Intensitätswerten am ersten Bildpunkt kodiert ist, sondern in der zusammenhängenden Menge von Pixeln des weiteren Musters, bei der es sich z. B. um eine Umgebung des ersten Bildpunkts handeln kann. Eine Information, die bei den bekannten Graycode-Verfahren nur in einer Vielzahl von projizierten Mustern kodierbar ist, kann gemäß dem hier vorgeschlagenen Verfahren also in einer einzigen Projektion, nämlich in dem auf das Objekt projizierten weiteren Muster enthalten sein. Eine Projektions- und Aufnahmezeit kann damit erheblich reduziert werden.
  • Dadurch, dass den Segmenten sowohl in der Bildebene der ersten Kamera als auch in der weiteren Eben jeweils eine Kodierung zugeordnet wird und Segmente in einander entsprechenden Epipolarlinien mit jeweils übereinstimmenden Kodierungen als einander entsprechende Segmente identifiziert werden, kann zudem ein Informationsverlust wie bei dem in DE 10 2006 049 695 A1 beschriebenen Verfahren erheblich reduziert werden. Beidem hier vorgeschlagenen Verfahren bleibt ein Informationsverlust nämlich auf die jeweils abgeschatteten Segmente beschränkt.
  • Die Pixel, aus denen der Barcode oder der zweidimensionale Punktcode des weiteren Musters gebildet ist, sind nicht notwendigerweise identisch mit Pixeln eines Detektors in der Bildebene der ersten Kamera, z. B. eines CCD- oder eines CMOS-Chips. Ebenso sind die Pixel, aus denen der Barcode oder der zweidimensionale Punktcode des weiteren Musters gebildet ist, nicht notwendigerweise identisch mit Pixeln des bildgebenden Elements des Projektors, der das periodische Muster und das weitere Muster auf das Objekt projiziert.
  • Zum erfolgreichen Durchführen des Verfahrens sind die erste Kamera bzw. die Bildebene der ersten Kamera und die weitere Ebene relativ zueinander in einem definierten Abstand und in einer definierten Orientierung angeordnet. Insbesondere sind innere und äußere Kameraparameter und ggf. eine Verzeichnung der Kameraobjektive bekannt. Diese können z. B. vor der Durchführung des hier beschriebenen Verfahrens durch ein geeignetes Kalibrationsverfahren bestimmt werden. Um die Phasenwerte des periodischen Musters für die Punkte in den einander entsprechenden Epipolarlinien mit möglichst großer Genauigkeit zu ermitteln, kann das periodische Muster mehrfach nacheinander auf das Objekt projiziert werden, wobei eine Phase des periodischen Musters zwischen aufeinanderfolgenden Projektionen dann jeweils um einen definierten Wert verschoben ist. Die in den einander entsprechenden Epipolarlinien ermittelten Phasenwerte werden auch Rohphasenwerte genannt. Eine Sequenz von relativ zueinander phasenverschobenen Projektionen des periodischen Musters auf das Objekt kann z. B. 3, 4, 6, 8 oder 16 Projektionen umfassen. Gewöhnlich werden das periodische Muster und das weitere Muster zeitlich nacheinander auf das Objekt projiziert.
  • Eine spezielle Ausführungsform, bei der sowohl die Projektion des weiteren Musters als auch die Erkennung des weiteren Musters bzw. die Erkennung der zusammenhängenden Menge von Pixeln des weiteren Musters in besonders einfacher Weise realisiert ist, zeichnet sich dadurch aus, dass die Werte der Wertemenge durch einen hellen Helligkeitswert und einen dunklen Helligkeitswert oder durch zwei oder drei Grundfarben oder durch zwei oder drei Grundfarben und einen Wert für dunkle Pixel gegeben sind. Der Projektor zum Projizieren des weiteren Musters und die Kamera bzw. die Kameras zum Aufnehmen des Bildes bzw. der Bilder des Objekts mit dem aufprojizierten weiteren Muster können bei dieser Ausführungsform besonders einfach und kostengünstig ausgestaltet ein.
  • Typischerweise handelt es sich bei dem periodischen Muster um ein Streifenmuster, vorzugsweise um ein (1 + cos)-Muster. Das Streifenmuster wird dann vorzugsweise derart projiziert, dass die Streifen annähernd orthogonal zu einer Ebene ausgerichtet sind, die im oben genannten Fall a) von den optischen Achsen der ersten Kamera und der zweiten Kamera bzw. die im oben genannten Fall b) von der optischen Achse der ersten Kamera und von der optischen Achse des Projektors aufgespannt wird. Z. B. werden die Streifen derart projiziert, dass sie mit der von den jeweiligen optischen Achsen aufgespannten Ebene einen Winkel einschließen, der zwischen 80° und 100°, vorzugsweise zwischen 85° und 95° beträgt.
  • Eine spezielle Ausführungsform, die sowohl ein besonders einfaches Projizieren des weiteren Musters und des Streifenmusters als auch ein besonders einfaches Identifizieren der einander entsprechenden Segmente gestattet, zeichnet sich dadurch aus, dass Pixel des weiteren Musters in Zeilen und Spalten angeordnet sind, wobei das Streifenmuster und das weitere Muster derart projiziert werden, dass die Streifen parallel zu den Zeilen oder den Spalten des weiteren Musters ausgerichtet sind. Diese Ausrichtung des Streifenmusters und des weiteren Musters kann z. B. in der Projektorebene gegeben sein.
  • Eine weitere spezielle Ausführungsform, bei der das Zuordnen der Kodierungen zu den Segmenten besonders robust und wenig anfällig für Fehlzuordnungen ist, zeichnet sich dadurch aus, dass die Segmente entlang einer durch das jeweilige Segment definierten ersten Richtung jeweils durch zwei Endpunkte dieses Segments begrenzt werden, wobei die mit dem jeweiligen Segment überlappende zusammenhängende Menge entlang der ersten Richtung vollständig zwischen den Endpunkten dieses Segments liegt und/oder sich vom ersten zum zweiten Endpunkt dieses Segments erstreckt, und/oder dass eine Ausdehnung der zusammenhängenden Menge entlang einer zur ersten Richtung senkrechten zweiten Richtung für die Segmente jeweils identisch gewählt wird.
  • In diesem Fall ist also sichergestellt, dass verschiedene zusammenhängende Mengen von Pixeln des weiteren Musters, die benachbarten Segmenten zugeordnet sind, nicht überlappen. Die Ausdehnung der zusammenhängenden Menge entlang der zweiten Richtung kann z. B. durch einen Benutzer vorgegeben werden. Insbesondere kann die Ausdehnung der zusammenhängenden Menge entlang der zweiten Richtung sich über mehrere Kantenlängen der Pixel des weiteren Musters erstrecken. Typischerweise umfasst die zusammenhängende Menge jeweils einen rechteckigen Pixelblock von Pixeln des weiteren Musters.
  • Das Zuordnen der Kodierungen zu den Segmenten und damit das Identifizieren der einander entsprechenden Segmente kann zusätzlich dadurch vereinfacht werden, dass die zusammenhängende Menge jeweils derart gewählt wird, dass die unterschiedlichen Segmenten zugeordneten zusammenhängenden Mengen jeweils eine identische Anzahl von Pixeln des weiteren Musters umfassen. Auch dies kann dazu beitragen, Fehlzuordnen zu verhindern.
  • Eine weitere spezielle Ausführungsform zeichnet sich dadurch aus, dass zum Bestimmen der Kodierung die Pixel der zusammenhängenden Menge identifiziert werden, indem Begrenzungen von mit dem jeweiligen Segment überlappenden Pixeln der zusammenhängenden Menge entlang einer durch dieses Segment definierten ersten Richtung anhand der entlang dieses Segments ermittelten Phasenwerte des periodischen Musters und anhand eines Längenverhältnisses zwischen einer Länge dieses Segments und einer Länge der Pixel entlang der ersten Richtung ermittelt werden und/oder indem entlang einer zur ersten Richtung senkrechten zweiten Richtung Begrenzungen der Pixel der zusammenhängenden Menge mittels eines Kantendetektionsverfahrens ermittelt werden.
  • Typischerweise ist die Länge der Segmente jeweils größer als eine Kantenlänge der Pixel des weiteren Musters. Entlang der ersten Richtung überlappt jedes der Segmente dann gewöhnlich mit mehreren Pixeln der zusammenhängen Menge, die dem Segment jeweils zugeordnet ist. Um das Identifizieren der mit dem jeweiligen Segment überlappenden Pixel der zusammenhängenden Menge entlang der ersten Richtung zu erleichtern, ist es zweckmäßig, das periodische Muster und das weitere Muster derart zu projizieren, dass vorgegebene Phasenwerte des periodischen Musters entlang der ersten Richtung jeweils mit Begrenzungen von Pixeln des weiteren Musters zusammenfallen. Z. B. können das periodische Muster und das weitere Muster derart projiziert werden, dass die Intensitätsminima und/oder die Intensitätsmaxima des periodischen Musters jeweils mit Begrenzungen von Pixeln des weiteren Musters zusammenfallen. Dies lässt sich natürlich besonders einfach dann realisieren, wenn das periodische Muster ein Streifenmuster ist, dessen Streifen parallel zu den Zeilen oder den Spalten des weiteren Musters ausgerichtet sind. Für ein gegebenes Segment fallen dann die Endpunkte dieses Segments z. B. jeweils mit Begrenzungen von Pixeln des weiteren Musters zusammen, wobei diese Begrenzungen die entsprechende Epipolarlinie typischerweise in etwa senkrecht schneiden. Gewöhnlich gibt es dann weitere Begrenzungen von Pixeln des weiteren Musters, die zwischen den Endpunkten dieses Segments liegen und das Segment jeweils in etwa senkrecht schneiden. Anhand der entlang des Segments ermittelten Phasenwerte der periodischen Musters können die Schnittpunkte dieser Begrenzungen mit dem Segment in einfacher Weise bestimmt werden, wenn die Länge des Segments einerseits und die Länge der Pixel entlang der ersten Richtung andererseits bekannt sind, wenn also bekannt ist, wie viele Pixel des weiteren Musters zwischen den Endpunkten des Segments liegen. Sobald nun die Begrenzungen der Pixel der zusammenhängenden Menge, die dem jeweiligen Segment zugeordnet ist, ermittelt worden sind, sind damit die einzelnen Pixel der zusammenhängenden Menge identifiziert, so dass deren Werte bestimmt werden können.
  • Eine weitere spezielle Ausführungsform sieht nun vor, dass zum Bestimmen der Kodierung die Werte der Pixel der zusammenhängenden Menge bestimmt werden, indem für diese Pixel jeweils ein Messwert ermittelt wird und dem jeweiligen Pixel durch Vergleich des für diesen Pixel ermittelten Messwertes mit mindestens einem ersten Schwellwert genau einer der Werte aus der Wertemenge zugeordnet wird.
  • Damit wird z. B. der Tatsache Rechnung getragen, dass die Messwerte, also die mittels der ersten Kamera und/oder mittels der zweiten Kamera gemessenen Intensitätswerte oder Farbwerte der Pixel der zusammenhängenden Menge von Pixeln des weiteren Musters, entlang der Oberfläche des Objekts z. B. infolge inhomogenen Lichteinfalls variieren können. Die solcherart mittels des ersten Schwellwertes vorgenommene Diskretisierung oder Binärisierung der Messwerte dient also einem möglichst fehlerfreien Bestimmen der Werte der Pixel der zusammenhängenden Menge. Ein Wert des ersten Schwellwerts kann z. B. abhängig von den jeweils herrschenden Lichtverhältnissen gewählt werden. Es können auch jeweils unterschiedliche erste Schwellwerte für die verschiedenen Detektorpixel der ersten Kamera und/oder der zweiten Kamera festgelegt werden. Dazu kann z. B. eine Kalibrierungsaufnahme des Objekts gemacht werden, mit der einer gegebenenfalls inhomogenen Beleuchtung des Objekts Rechnung getragen werden kann.
  • Weiterhin kann es vorgesehen sein, dass eine Abstandsfunktion definiert ist, die zwei Kodierungen jeweils einen Abstandswert zuordnet, wobei zum Identifizieren der einander entsprechenden Segmente die Kodierungen der Segmente in einander entsprechenden Epipolarlinien genau dann als übereinstimmend bewertet werden, wenn der Abstand zwischen diesen Kodierungen ein Minimum annimmt und/oder einen zweiten Schwellwert unterschreitet.
  • Auch dies trägt dazu bei, dass einander entsprechende Segmente in den einander entsprechenden Epipolarlinien möglichst fehlerfrei identifiziert werden. Über die Abstandsfunktion kann z. B. im mathematischen Sinne eine Metrik auf dem Raum der Kodierungen definiert sein. Ebenso kann über die Abstandsfunktion zwei verschiedenen zusammenhängenden Mengen von Pixeln des weiteren Musters jeweils ein Abstandswert zugeordnet werden. Sind die zusammenhängenden Mengen z. B. jeweils durch rechteckige Pixelblöcke mit einer identischen Anzahl von Zeilen und Spalten gegeben, so kann der Abstandswert, der zweien dieser Blöcke zugeordnet wird, durch die Anzahl der Pixelpositionen gegeben sein, in denen die beiden Pixelblöcke unterschiedliche Werte haben.
  • Die den Segmenten zugeordneten zusammenhängenden Mengen oder die den Segmenten zugeordneten Kodierungen sollten jeweils eine vorgegebene Mindestanzahl von Pixeln bzw. eine vorgegebene Mindestanzahl von Stellen aufweisen. Ist einem Segment z. B. infolge von Abschattung eine zusammenhängende Menge von Pixeln des weiteren Musters zugeordnet, die weniger Pixel aufweist, als durch die Mindestanzahl vorgegeben ist, so können beim Identifizieren des diesem Segment entsprechenden Segments auch die den jeweiligen Nachbarsegmenten zugeordneten zusammenhängenden Mengen von Pixeln des weiteren Musters berücksichtigt werden. Weisen z. B. zwei Segmente in einander entsprechenden Epipolarlinien übereinstimmende Kodierungen auf und haben diese Kodierungen jeweils weniger Stellen, als durch die Mindestanzahl vorgegeben ist, so kann zur Vermeidung einer Fehlidentifikation zusätzlich gefordert werden, dass auch die Kodierungen der jeweiligen Nachbarsegmente übereinstimmen müssen, damit die erstgenannten Segmente als einander entsprechende Segmente identifiziert werden.
  • Eine weitere spezielle Ausführungsform ist dadurch gekennzeichnet, dass das weitere Muster durch eine Aneinanderreihung von jeweils eine Kodierung wiedergebenden Pixelblöcken gegebenen ist, wobei die Pixelblöcke jeweils eine Mehrzahl von Pixeln des weiteren Musters umfassen und wobei Abstandswerte von Kodierungen, die jeweils aneinander angrenzenden Pixelblöcken zugeordnet sind, jeweils größer sind als ein dritter Schwellwert.
  • Vorzugsweise sind die zusammenhängenden Mengen, die jeweils den Segmenten der Epipolarlinien zugeordnet werden, gerade durch die Pixelblöcke des weiteren Musters gegeben. Benachbarte Pixelblöcke des weiteren Musters sind dann normalerweise benachbarten Segmenten einer gegebenen Epipolarlinie zugeordnet. Um bei der Identifizierung der einander entsprechenden Segmente in einander entsprechenden Epipolarlinien eine Fehlidentifizierung möglichst effektiv zu vermeiden, sollte daher benachbarten Pixelblöcken des weiteren Musters jeweils ein möglichst großer Abstandswert zugeordnet werden. Dies wird gerade dadurch realisiert, dass das weitere Muster derart gestaltet ist, dass aneinander angrenzenden Pixelblöcken des weiteren Musters jeweils ein Abstandswert zugeordnet ist, der größer ist als der dritte Schwellwert. Durch die spezielle Ausgestaltung des weiteren Musters kann also dafür Sorge getragen werden, dass die einander entsprechenden Segmente einander möglichst zuverlässig zugeordnet werden.
  • Eine weitere spezielle Ausführungsform sieht vor, dass die Pixelblöcke jeweils dieselbe Blocklänge haben, wobei eine Periodenlänge des periodischen Musters der Blocklänge entspricht oder ein 2n-faches der Blocklänge beträgt, wobei n eine natürliche Zahl ist.
  • Vorgeschlagen wird außerdem eine Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur. Die vorgeschlagene Vorrichtung umfasst einen Projektor mit einem bildgebenden Element und einem Projektionsobjektiv, eine Kamera oder eine erste und eine zweite Kamera sowie eine Steuer- und Recheneinheit zum Ansteuern des Projektors und der mindestens einen Kamera sowie zum Auswerten von mittels der mindestens einen Kamera aufgenommenen Bilddaten, wobei die Steuer- und Recheneinheit eingerichtet ist, den Projektor und die mindestens eine Kamera zur Durchführung des zuvor beschriebenen Verfahrens anzusteuern.
  • Ein Ausführungsbeispiel der Erfindung ist in den Zeichnungen dargestellt und wird anhand der nachfolgenden Beschreibung näher erläutert. Es zeigen:
  • 1 Eine Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Oberfläche eines Objekts, wobei die Vorrichtung eine Steuer- und Recheneinheit, zwei Kameras und einen Projektor aufweist, der ein Streifenmuster auf die Oberfläche des Objekts projiziert,
  • 2 einen vom Projektor auf das Objekt projizierten binären Matrixcode,
  • 3 einen vom Projektor auf das Objekt projizierten binären Barcode,
  • 4a einen Ausschnitt der Oberfläche des Objekts mit dem aufprojizierten Matrixcode,
  • 4b eine (1 + cos)-Intensitätsverteilung des Streifenmusters aus 1,
  • 4c einen Ausschnitt einer Bildebene einer ersten Kamera aus 1, der zu dem Ausschnitt aus 4a optisch konjugiert ist,
  • 4d einen Ausschnitt einer weiteren Ebene, der ebenfalls zu dem Ausschnitt aus 4a optisch konjugiert ist, wobei die weitere Ebene eine Bildebene der zweiten Kamera aus 1 oder eine Projektorfläche des Projektors ist,
  • 5 schematisch die Vorrichtung aus 1, wobei einander entsprechende Epipolarlinien dargestellt sind, die in den Bildebenen der Kameras und in der Projektorebene verlaufen,
  • 6 ein Segment der Epipolarlinie in der Bildebene der ersten Kamera, mit diesem Segment überlappende Pixel des Matrixcodes aus 2 und eine Kurve, die einen Phasenverlauf des Streifenmusters entlang des Segments wiedergibt, sowie
  • 7 eine Tabelle mit Abstandswerten, die jeweils einem Paar von Segmenten in einander entsprechenden Epipolarlinien zugeordnet sind und zum Identifizieren von einander entsprechenden Segmenten dienen.
  • 1 zeigt eine Vorrichtung 1 zum berührungslosen Erfassen einer dreidimensionalen Kontur einer Oberfläche 2 eines Objekts 3. Die Vorrichtung 1 umfasst einen Projektor 4 mit einem bildgebenden Element 5, eine erste Kamera, schematisch dargestellt durch eine erste Bildebene 6 der ersten Kamera, eine zweite Kamera, schematisch dargestellt durch eine zweite Bildebene 7 der zweiten Kamera, sowie eine Steuer- und Recheneinheit 8. Die Steuer- und Recheneinheit 8 ist eingerichtet, den Projektor 4 und die Kameras anzusteuern und mit den Kameras aufgenommene Bilddaten auszuwerten. Bei einer abgewandelten Ausführungsform kann die Vorrichtung 1 auch nur die erste Kamera bzw. nur die erste Bildebene 6 aufweisen. Im Folgenden soll die Ausführungsform mit zwei Kameras Ausführungsform a) oder Fall a) genannt werden. Die Ausführungsform mit nur einer Kamera soll dagegen Ausführungsform b) oder Fall b) heißen.
  • Die Bildebenen 6 und 7 der Kameras sind hier jeweils durch einen monochromen CCD-Kamerachip definiert. Bei abgewandelten Ausführungsformen können die Kamerachips auch farbsensitiv sein. Sie können dann z. B. eingerichtet sein, zwei oder drei der Grundfarben rot, grün und blau und unterschiedliche Intensitätswerte zu unterscheiden. Die Kamerachips weisen jeweils eine Vielzahl von Kamerapixeln auf, die in Zeilen und Spalten angeordnet sind. Der Projektor 4 umfasst eine hier nicht dargestellte Lichtquelle. Das bildgebende Element 5 des Projektors 4 ist als LCD-Chip ausgebildet, der eine Lichtintensität des von der Lichtquelle ausgesendeten Lichtes transmissiv modulieren kann. Das bildgebende Element 5 definiert eine Projektorebene 11 und weist in Zeilen und Spalten angeordnete Pixel auf, die mittels der Steuer- und Recheneinheit 8 unabhängig von einander ansteuerbar sind. Z. B. hat der LCD-Chip des bildgebenden Elements 5 eine Größe von 1024×768 Pixeln.
  • Durch hier nicht gezeigte Kameraobjektive sind eine erste optische Achse 9 der ersten Kamera und eine zweite optische Achse 10 der zweiten Kamera definiert. Die optischen Achsen 9 und 10 stehen jeweils senkrecht auf den Bildebenen 6 und 7. Die optischen Achsen 9 und 10 spannen eine Ebene auf. Mittels der Kameraobjektive kann die Oberfläche 2 des Objekts 3 in die Bildebenen 6 und 7 der ersten und der zweiten Kamera abgebildet werden. Die erste und die zweite Kamera sind also eingerichtet, Bilder des Objekts 3 bzw. der Oberfläche 2 aus unterschiedlichen Richtungen aufzunehmen. So entspricht jedem Objektpunkt der Oberfläche 2 jeweils genau ein zu diesem Objektpunkt konjugierter Bildpunkt in der ersten Bildebene 6 und jeweils genau ein zu diesem Objektpunkt konjugierter Bildpunkt in der zweiten Bildebene 7.
  • Ein ebenfalls nicht dargestelltes Projektorobjektiv definiert eine optische Achse 12 des Projektors 4, die z. B. in der von den optischen Achsen 9 und 10 der Kameras aufgespannten Ebene liegt und mit einer Winkelhalbierenden des von den optischen Achsen 9 und 10 eingeschlossenen Winkels zusammenfällt. Vorzugsweise schließt die optische Achse 12 bei leicht abgewandelten Ausführungsformen mit der von den optischen Achsen 9 und 10 aufgespannten Ebene stets einen Winkel von weniger als 10°, besonders vorzugsweise von weniger als 5° ein. Bei der Ausführungsform b) spannen die optischen Achsen 9 und 12 vorzugsweise ebenfalls eine Ebene auf. Die optische Achse 12 des Projektors 4 steht senkrecht auf der Projektorebene 11. Auch der Projektor 4 ist relativ zur Oberfläche 2 derart angeordnet, dass jedem Objektpunkt der Oberfläche 2 genau ein zu diesem Objektpunkt konjugierter Punkt in der Projektorebene 11 entspricht. Die erste Kamera, die zweite Kamera und der Projektor 4 sind ferner derart angeordnet, dass sie relativ zu einander jeweils einen definierten Abstand und eine definierte Orientierung aufweisen.
  • Im Folgenden wird ein Verfahren zum Erfassen einer dreidimensionalen Kontur der Oberfläche 2 des Objekts 3 mittels der Vorrichtung 1 beschrieben. Das Verfahren basiert darauf, dass für eine Vielzahl von Objektpunkten der Oberfläche 2 jeweils ein Paar von zum jeweiligen Objektpunkt konjugierten Punkten identifiziert wird. Dabei liegt der erste Punkt dieses Paares jeweils in der Bildebene 6 der ersten Kamera und der zweite Punkt dieses Paares liegt jeweils in einer weiteren Ebene, wobei die weitere Ebene im Fall a) durch die zweite Bildebene 7 der zweiten Kamera und im Fall b) durch die Projektorebene 11 gegeben ist. Um die Fälle a) und b) weitestgehend zusammenzufassen, wird im Folgenden, soweit dadurch keine Unklarheiten entstehen, stets der Begriff „weitere Ebene” verwendet, der dann alternativ für die zweite Bildebene 7 (Fall a)) oder für die Projektorebene 11 (Fall b)) steht. Zu einem gegebenen Objektpunkt optisch konjugierte Punkte werden im Folgenden auch diesem Objektpunkt entsprechende Punkte genannt. Auch wird gesagt, dass zwei Punkte, von denen der erste in der Bildebene 6 und der zweite in der weiteren Ebene liegt, und die zu demselben Objektpunkt optisch konjugiert sind, einander entsprechen. Ist für einen gegebenen Objektpunkt der Oberfläche 2 ein solches Paar von zu diesem Objektpunkt konjugierten Punkten in der Bildebene 6 und in der weiteren Ebene identifiziert, so kann anhand einer Position des ersten Punktes in der Bildebene 6, anhand einer Position des zweiten Punktes in der weiteren Ebene sowie anhand der bekannten relativen Anordnung der ersten Bildebene 6 und der weiteren Ebene eine Tiefeninformation des Objektpunktes in bekannter Weise durch Triangulieren bestimmt werden. Wenn so für eine Vielzahl von Objektpunkten der Oberfläche 2 jeweils eine dreidimensionale Position ermittelt worden ist, ist damit die dreidimensionale Beschaffenheit der Oberfläche 2 rekonstruierbar.
  • In einem ersten Schritt des Verfahrens wird mittels des bildgebenden Elements 5 ein periodisches Muster 13 auf die Oberfläche 2 des Objekts 3 projiziert. Es sei betont, dass die hier und im Weiteren beschriebenen Verfahrensschritte nicht notwendigerweise in der hier angegebenen Reihenfolge durchgeführt werden müssen. Bei dem periodischen Muster 13 handelt es sich insbesondere um ein Streifenmuster, dessen Intensität senkrecht zur Streifenrichtung durch eine (1 + cos)-Funktion gegeben ist. Es werden z. B. mindestens zehn, mindestens zwanzig oder mindestens fünfzig Perioden des periodischen Musters 13 auf das Objekt 3 projiziert. Zweckmäßigerweise wird das periodische Muster 13 dabei derart projiziert, dass die Streifenrichtung in der Projektorebene 11 parallel zu den Zeilen oder zu den Spalten ausgerichtet ist, die durch die Pixel des bildgebenden Elements 5 definiert sind. Das Streifenmuster wird bei der Ausführungsform a) ferner derart auf das Objekt 3 projiziert, dass die Streifen in etwa senkrecht zu der durch die optischen Achsen 9 und 10 aufgespannten Ebene ausgerichtet sind. Bei der Ausführungsform b) erfolgt die Projektion des periodischen Musters 13 vorzugsweise derart, dass die Streifen in etwa orthogonal zur durch die optischen Achsen 9 und 12 aufgespannten Ebene orientiert sind. In jedem Fall wird das Streifenmuster stets derart projiziert, dass es mit der von den optischen Achsen 9 und 10 bzw. von den optischen Achsen 9 und 12 aufgespannten Ebene jeweils einen Winkel einschließt, der zwischen 80° und 90°, vorzugsweise zwischen 85° und 90° beträgt.
  • Im Fall a) wird nun mittels der ersten Kamera und mittels der zweiten Kamera jeweils mindestens ein Bild des Objekts 3 mit dem aufprojizierten periodischen Muster 13 aufgenommen. Im Fall b) nimmt lediglich die erste Kamera mindestens ein Bild des Objekts 3 mit dem aufprojizierten periodischen Muster 13 auf. Im Folgenden wird der Einfachheit halber nicht mehr explizit darauf hingewiesen, dass sich Verfahrensschritte, die im Fall a) beide Kameras und/oder beide Bildebenen 6 und 7 betreffen, im Fall b) nur auf die erste Kamera und/oder auf die erste Bildebene 6 beziehen. Das Objekt 3 mit dem aufprojizierten periodischen Muster 13 wird also in die erste Bildebene 6 und in die zweite Bildebene 7 abgebildet. Jedem Punkt in der ersten Bildebene 6 der ersten Kamera und jedem Punkt in der weiteren Ebene wird dann mittels der Steuer- und Recheneinheit 8 ein Phasenwert des periodischen Musters 13 zwischen 0 und 2π zugeordnet, wodurch ein erstes Rohphasenbild in der ersten Bildebene 6 und ein weiteres Rohphasenbild in der weiteren Ebene gegeben sind. Typischerweise wird das periodische Muster 13 zum Erstellen des ersten und des weiteren Rohphasenbildes mehrfach phasenverschoben auf das Objekt 3 projiziert, z. B. dreimal, viermal, sechsmal, achtmal oder sechzehnmal. Für jede dieser Projektionen wird dann jeweils ein Bild des Objekts 3 mit dem aufprojizierten periodischen Muster 13 mittels der ersten bzw. mittels der ersten und der zweiten Kamera aufgenommen. Durch die Aufnahme mehrerer phasenverschobener Projektionen des periodischen Musters 13 auf der Oberfläche 2 können die Rohphasenbilder mit größerer Genauigkeit erzeugt werden. Die Zuordnung der Phasenwerte erfolgt dabei bezogen auf die Kamerapixel bzw. bezogen auf die Projektorpixel mit Subpixelgenauigkeit, z. B. mittels Interpolation.
  • Daraufhin steuert die Steuer- und Recheneinheit 8 den Projektor 4 derart an, dass der Projektor 4 ein weiteres Muster 14 auf die Oberfläche 2 des Objekts 3 projiziert. Das weitere Muster 14 dient der eindeutigen Identifizierung der verschiedenen Perioden des periodischen Musters 13 in der ersten Bildebene 6 und in der weiteren Ebene, wie an späterer Stelle näher erläutert wird. Hier ist das weitere Muster 14 durch einen zweidimensionalen Punktcode gegeben, der auch Matrixcode heißt. Ein Beispiel für einen derartigen Matrixcode ist in 2 dargestellt. Anstatt durch einen Matrixcode kann das weitere Muster 14 auch als Barcode gegeben sein, wie in 3 illustriert. Hier und im Folgenden sind wiederkehrende Merkmale jeweils mit identischen Bezugszeichen versehen.
  • Das weitere Muster 14 setzt sich aus einer Vielzahl von quadratischen Pixeln zusammen. Bei den in den 2 und 3 dargestellten Beispielen ist das weitere Muster 14 jeweils ein Binärmuster. Dies bedeutet, dass die einzelnen Pixel des weiteren Musters 14 jeweils einen von zwei unterschiedlichen Helligkeitswerten annehmen, die hier durch die Farben schwarz und weiß wiedergegeben sind. Bei abgewandelten Ausführungsformen können die Werte der Pixel des weiteren Musters 14 z. B. auch durch zwei oder drei der Grundfarben rot, grün und blau und ggf. durch einen weiteren Wert für schwarze Pixel gegeben sein. Selbstverständlich sind auch andere Farbwerte denkbar. Die einzelnen Pixel des weiteren Musters 14 können jeweils durch einen oder durch mehrere der Pixel des bildgebenden Elements 5 erzeugt werden. Wie das periodische Musters 13, so wird zweckmäßigerweise auch das weitere Muster 14 derart projiziert, dass die Zeilen und Spalten, in denen die Pixel des weiteren Musters 14 angeordnet sind, in der Projektorebene 11 jeweils parallel zu den Zeilen und Spalten ausgerichtet sind, die durch die Pixel des bildgebenden Elements 5 definiert sind. Das periodische Muster 13 und das weitere Muster 14 werden folglich derart projiziert, dass die Streifen des periodischen Musters 13 parallel zu den Zeilen oder den Spalten des weiteren Musters 14 ausgerichtet sind. Damit wird die später beschriebene Auswertung von mit den Kameras aufgenommenen Bilddaten durch die Steuer- und Recheneinheit 8 vereinfacht.
  • Wie im zuvor beschriebenen Fall des periodischen Musters 13 wird mittels der ersten Kamera und der zweiten Kamera nun jeweils mindestens ein Bild des Objekts 3 mit dem aufprojizierten weiteren Muster 14 aufgenommen. Das Objekt 3 mit dem aufprojizierten weiteren Muster 14 wird also ebenfalls in die erste Bildebene 6 und in die zweite Bildebene 7 abgebildet.
  • 4a illustriert schematisch einen Ausschnitt 27 der Oberfläche 2 mit einem Ausschnitt des aufprojizierten weiteren Musters 14 mit quadratischen Pixeln 34, von denen hier nur einige bezeichnet sind. Schwarze und weiße Pixelwerte sind exemplarisch nur für eine Pixelzeile des weiteren Musters 14 explizit dargestellt. Streifen des periodischen Musters auf der Oberfläche 2 sollen entlang einer y-Richtung 26 ausgerichtet sein (nicht gezeigt). Zur Veranschaulichung einer relativen Anordnung der Projektionen des weiteren Musters 14 und des periodischen Musters 13 im Ausschnitt 27 ist in 4b eine Intensitätsverteilung 29 des periodischen Musters 13 entlang einer x-Richtung 25, also senkrecht zur Streifenrichtung wiedergegeben. Die Intensitätsverteilung 29 weist Perioden 29a–c mit einer Periodenlänge 36 auf. Die Pixel 34 des weiteren Musters 14 sind in entlang der x-Richtung 25 ausgerichteten Zeilen und in entlang der y-Richtung 26 ausgerichteten Spalten angeordnet. Hervorzuheben ist ferner, dass eine Kantenlänge 35 der Pixel 34 jeweils genau ein Achtel der Periodenlänge 36 des periodischen Musters 13 beträgt, so dass sich jeweils acht aneinandergereihte Pixel 34 des weiteren Musters 14 entlang der x-Richtung 25 über eine der Perioden 29a–c des periodischen Musters 13 erstrecken. Bei alternativen Ausführungsformen kann die Periodenlänge 36 ein 2n-faches der Kantenlänge 35 betragen, wobei n eine natürliche Zahl ist. Bevorzugte Werte für n sind jedoch 2, 3, oder 4. 4c zeigt einen Ausschnitt 30 der Bildebene 6 der ersten Kamera, wobei das aus dem Ausschnitt 27 der Oberfläche 2 aus 4a in die Bildebene 6 abgebildete weitere Muster 14 dargestellt ist. 4d zeigt einen Ausschnitt 32 der weiteren Ebene, der dem Ausschnitt 27 der Oberfläche 2 aus 4a entspricht, wobei ebenfalls das aus dem Ausschnitt 27 in die weitere Ebene abgebildete (Fall a)) bzw. das von der weiteren Ebene in den Ausschnitt 27 projizierte (Fall b)) weitere Muster 14 dargestellt ist. Auch in den 4c und 4d ist eine Streifenrichtung des periodischen Musters jeweils entlang der y-Richtung 26 ausgerichtet.
  • Bei den Aufnahmen der Bilder des Objekts 3 mit dem aufprojizierten periodischen Muster 13 und bei den Aufnahmen der Bilder des Objekts 3 mit dem aufprojizierten weiteren Muster 14 ist die relative Anordnung des Objekts 3, des Projektors 4, der ersten Kamera und der zweiten Kamera jeweils identisch. Bei der Abbildung des Objekts 3 mit dem aufprojizierten periodischen Muster 13 in die erste Bildebene 6 und bei der Abbildung des Objekts 3 mit dem aufprojizierten weiteren Muster 14 in die erste Bildebene 6 entsprechen identische Punkte in der Bildebene 6 also jeweils identischen Objektpunkten der Oberfläche 2. Dasselbe gilt für die entsprechenden Abbildungen des Objekts 3 in die zweite Bildebene 7. Ebenso entsprechen bei der Projektion des periodischen Musters 13 und bei der Projektion des weiteren Musters 14 auf das Objekt 3 identische Punkte in der Projektorebene 11 jeweils identischen Objektpunkten der Oberfläche 2.
  • Im nächsten Schritt werden für eine Vielzahl von Objektpunkten in der ersten Bildebene 6 der ersten Kamera und in der weiteren Ebene jeweils Paare von einander und dem jeweiligen Objektpunkt entsprechenden Punkten identifiziert. Dazu werden in der ersten Bildebene 6 z. B. in der Mitte jeder Pixelzeile des Kamerachips Punkte als Korrespondenzpunkte ausgewählt. Ein Beispiel für einen solchen Korrespondenzpunkt ist der in 5 gezeigte Punkt 19 in der ersten Bildebene 6. Durch diesen Korrespondenzpunkt 19 ist im Fall a) zusammen mit einem ersten Projektionszentrum 15 der ersten Kamera und mit einem zweiten Projektionszentrum 16 der zweiten Kamera eine erste Epipolarebene definiert. Im Fall b) ist eine zweite Epipolarebene durch den Korrespondenzpunkt 19, das Projektionszentrum 15 der ersten Kamera und durch ein Projektionszentrum 17 des Projektors 4 gegeben, wobei die erste und die zweite Epipolarebene in 5 zusammenallen.
  • Im Fall a) sind durch Schnittlinien der ersten Epipolarebene mit der ersten Bildebene 6 und mit der zweiten Bildebene 7 einander entsprechende Epipolarlinien 20 in der ersten Bildebene 6 und 21 in der zweiten Bildebene 7 gegeben. Im Fall b) ist die der Epipolarlinie 20 entsprechende Epipolarlinie 22 in der Projektorebene 11 durch eine Schnittlinie der zweiten Epipolarebene mit der Projektorebene 11 definiert. Um die Fälle a) und b) weitestgehend zusammenzufassen, sollen sowohl die Epipolarlinie 21 in der zweiten Bildebene 7 als auch die Epipolarlinie 22 in der Projektorebene 11 im Weiteren als Epipolarlinie 23 in der weiteren Ebene bezeichnet werden. Die einander entsprechenden Epipolarlinien 20 und 23 werden jeweils mittels der Steuer- und Recheneinheit 8 bestimmt. Die einander entsprechenden Epipolarlinien 20 und 23 können als Abbildungen aller Punkte aus der ersten bzw. der zweiten Epipolarebene definiert werden. Demnach befindet sich ein Punkt, der dem Punkt 19 auf der Epipolarlinie 20 entspricht, in der weiteren Ebene auf der Epipolarlinie 23. Das Problem, zu einem gegebenen Punkt in der ersten Bildebene 6 einen diesem Punkt entsprechenden Punkt in der weiteren Ebene zu finden, wird mit der Bestimmung der einander entsprechenden Epipolarlinien 20 und 23 somit jeweils auf ein eindimensionales Problem reduziert.
  • Die 4c und 4d zeigen, dass die Epipolarlinien 20 und 23 (jeweils gestrichelt) sich jeweils entlang der x-Richtung 25 durch die zuvor gezeigten Ausschnitte 30 in der ersten Bildebene 6 und 32 in der weiteren Ebene erstrecken. Die Epipolarlinien 20 und 23 sind also jeweils etwa senkrecht zu den Streifen des periodischen Musters 13 in der Bildebenen 6 und in der weiteren Ebene ausgerichtet. Anhand der zuvor bestimmten Rohphasenbilder ermittelt die Steuer- und Recheneinheit 8 Phasenwerte des periodischen Musters 13 entlang der Epipolarlinien 20 und 23 und unterteilt die Epipolarlinien 20 und 23 jeweils in Segmente 20a–c und 23a–c, wobei die einzelnen Segmente den Perioden 29a–c des periodischen Musters 13 entsprechen. Die Unterteilung der Epipolarlinien 20 und 23 in die Segmente 20a–c und 23a–c erfolgt dabei derart, dass Endpunkte 39a–d der Segmente 20a–c und Endpunkte 40a–d der Segmente 23a–c jeweils mit Intensitätsminima des periodischen Musters 13 zusammenfallen. In dem hier nicht explizit dargestellten Fall, dass eine Periode des periodischen Musters 13 teilweise abgeschattet ist, entspricht ein dieser Periode zugeordnetes Segment nur dem sichtbaren Teil der jeweiligen Periode. In diesem Fall ist dann gewöhnlich wenigstens ein Endpunkt des jeweiligen Segments durch eine Unstetigkeitsstelle der Phasenwerte des periodischen Musters 13 entlang der jeweiligen Epipolarlinie gegeben.
  • Sofern einander entsprechende Segmente in den Epipolarlinien 20 und 23 identifiziert sind, werden solche Punkte in diesen einander entsprechenden Segmenten, denen identische Phasenwerte des periodischen Musters 13 zugeordnet sind, als einander entsprechende Punkte identifiziert. Anhand der Positionen dieser Punkte in der ersten Bildebene 6 und in der weiteren Ebene wird dann eine dreidimensionale Information für einen diesen Punkten entsprechenden Objektpunkt der Oberfläche 2 durch Triangulieren ermittelt. Im Folgenden wird erläutert, wie gemäß dem hier vorgeschlagenen Verfahren eine Identifizierung einander entsprechender Segmente in der Epipolarlinie 20 in der ersten Bildebene 6 einerseits und in der Epipolarlinie 23 in der weiteren Ebene andererseits mittels im weiteren Muster 14 kodierter Informationen vorgenommen wird.
  • Dazu wird den in 4c gezeigten Segmenten 20a–c der Epipolarlinie 20 in der ersten Bildebene 6 jeweils eine von Mengen 37a–c von zusammenhängenden Pixeln des weiteren Musters 14 zugeordnet. Ebenso wird den in 4d gezeigten Segmenten 23a–c der Epipolarlinie 23 in der weiteren Ebene jeweils eine von Mengen 38a–c von zusammenhängenden Pixeln des weiteren Musters 14 zugeordnet.
  • Die dem Segment 20a zugeordnete Menge 37a überlappt mit dem Segment 20a, umfasst acht in einer Zeile angeordnete Pixel des weiteren Musters 14 und erstreckt sich entlang der Epipolarlinie 20 vom Endpunkt 39a des Segments 20a bis zum Endpunkt 39b des Segments 20a über die gesamte Länge des Segments 20a. Die dem Segment 20b zugeordnete Menge 37b überlappt mit dem Segment 20b, umfasst acht in einer Zeile angeordnete Pixel des weiteren Musters 14 und erstreckt sich entlang der Epipolarlinie 20 vom Endpunkt 39b des Segments 20b bis zum Endpunkt 39c des Segments 20b über die gesamte Länge des Segments 20b. Die dem Segment 20c zugeordnete Menge 37c überlappt mit dem Segment 20c, umfasst acht in einer Zeile angeordnete Pixel des weiteren Musters 14 und erstreckt sich entlang der Epipolarlinie 20 vom Endpunkt 39c des Segments 20c bis zum Endpunkt 39d des Segments 20c über die gesamte Länge des Segments 20c.
  • Die dem Segment 23a zugeordnete Menge 38a überlappt mit dem Segment 23a, umfasst die acht in einer Zeile angeordneten Pixel des weiteren Musters 14 und erstreckt sich entlang der Epipolarlinie 23 vom Endpunkt 40a des Segments 23a bis zum Endpunkt 40b des Segments 23a über die gesamte Länge des Segments 23a. Die dem Segment 23b zugeordnete Menge 38b überlappt mit dem Segment 23b, umfasst die acht in einer Zeile angeordneten Pixel des weiteren Musters 14 und erstreckt sich entlang der Epipolarlinie 23 vom Endpunkt 40b des Segments 23b bis zum Endpunkt 40c des Segments 23b über die gesamte Länge des Segments 23b. Die dem Segment 23c zugeordnete Menge 38c überlappt mit dem Segment 23c, umfasst die acht in einer Zeile angeordneten Pixel des weiteren Musters 14 und erstreckt sich entlang der Epipolarlinie 23 vom Endpunkt 40c des Segments 23c bis zum Endpunkt 40d des Segments 23c über die gesamte Länge des Segments 23a.
  • Senkrecht zu den Epipolarlinien 20 bzw. 23, also entlang der y-Richtung 26, erstrecken sich die Mengen 37a–c und 38a–c jeweils über eine Breite, die der Kantenlänge 35 der Pixel 34 des weiteren Musters 14 entspricht. Bei alternativen Ausführungsformen können sich die Mengen 37a–c und 38a–c senkrecht zur Epipolarlinie 20 bzw. 23 auch jeweils über ein Vielfaches der Kantenlänge 35 erstrecken. Z. B. können die Mengen 37a–c und 38a–c auch jeweils einen Pixelblock des weiteren Musters 14 umfassen, der zwei oder drei Zeilen enthält. Eine Ausdehnung der Mengen 37a–c und 38a–c senkrecht zur Epipolarlinie 20 bzw. 23 ist dabei für jede der Mengen 37a–c und 38a–c identisch und durch einen Benutzer vorgebbar. Die Mengen 37a–c und 38a–c überlappen gegenseitig nicht, weisen jeweils dieselbe ganze Anzahl von Pixeln des weiteren Musters 14 auf und sind jeweils in rechteckigen Pixelblöcken mit einer identischen Anzahl von Zeilen- und Spalten angeordnet.
  • Den Segmenten 20a–c in der ersten Bildebene 6 und den Segmenten 23a–c in der weiteren Ebene wird durch die Mengen 37a–c und 38a–c, mit denen die Segmente 20a–c und 23a–c jeweils überlappen, jeweils eine Kodierung zugeordnet. Diese Kodierungen sind jeweils durch die Werte und die Positionen der Pixel in den Mengen 37a–c und 38a–c definiert. Beispielsweise kann jeder der Mengen 37a–c und 38a–c jeweils eine achtstellige Binärzahl zugeordnet werden, indem weißen Pixeln der Wert 0 und schwarzen Pixeln der Wert 1 zugewiesen wird. Den Segmenten 20a und 20b werden damit z. B. die Binärzahlen 11001100 und 01010101 als Kodierung zugeordnet. Segmente der Epipolarlinie 20 in der ersten Bildebene 6 einerseits und der Epipolarlinie 23 in der weiteren Ebene andererseits, denen auf diese Weise jeweils übereinstimmende Kodierungen zugeordnet werden, werden dann als einander entsprechende Segmente identifiziert, wie an späterer Stelle erläutert wird.
  • Zum Bestimmen der den Segmenten 20a–c und 23a–c jeweils zugeordneten Kodierungen werden die einzelnen Pixel der Mengen 37a–c und 38a–c zunächst identifiziert, indem ihre jeweiligen Begrenzungen bestimmt werden. Daraufhin werden dann die den einzelnen Pixeln jeweils zugeordneten Werte erfasst. Bei der Ausführungsform b), bei der die weitere Ebene durch die Projektorebene 11 gegeben ist, kann das Bestimmen der genannten Pixelbegrenzungen und das Ermitteln der genannten Pixelwerte in Bezug auf die Mengen 38a–c in der Projektorebene 11 gewöhnlich entfallen, da das weitere Muster 14 und das periodische Muster 13 in der Projektorebene 11 unmittelbar durch die Steuer- und Recheneinheit 8 vorgegeben werden und daher bekannt sind.
  • Eine Ermittlung von Begrenzungen 41a–i der Pixel der mit dem Segment 20b überlappenden Menge 37b entlang der durch das Segment 20b vorgegebenen x-Richtung 25 ist in 6 dargestellt. Die Ausdehnung der einzelnen Pixel der Menge 37b in nimmt in 6 entlang der x-Richtung 25 aufgrund einer Wölbung der Oberfläche 2 ab, was in der rein schematischen Ansicht der 4c nicht gezeigt ist. Die Begrenzungen 41a–i verlaufen in etwa entlang der y-Richtung 26 und schneiden das Segment 20b bzw. die Epipolarlinie 20 damit im rechten Winkel. Aus dem z. B. in der Projektorebene 11 bestimmten oder durch die Steuer- und Recheneinheit 8 vorgegebenen Längenverhältnis der Periodenlänge 36 des periodischen Musters 13 zur Kantenlänge 35 der Pixel des weiteren Musters 14 können x-Positionen der Begrenzungen 41a–i anhand einer Kurve 42 ermittelt werden, die die zuvor bestimmten Phasenwerte des periodischen Musters 13 entlang des Segments 20b wiedergibt. Im vorliegenden Fall erstrecken sich jeweils genau acht Pixel des weiteren Musters 14 entlang der Epipolarlinie 20 über genau eine der Perioden 29a–c des periodischen Musters 13. Damit sind ausgehend von der x-Position der Begrenzung 41a, die mit einem Intensitätsminimum des periodischen Musters 13 zusammenfällt, die x-Positionen der Begrenzungen 41b–i entlang des Segments 20b jeweils durch diejenigen x-Positionen bestimmt, an denen die Kurve 42 Werte k·2π/8 annimmt, wobei k eine natürliche Zahl mit 2 ≤ k ≤ 8 ist. Begrenzungen der Pixel der Menge 37b senkrecht zum Segment 20b bzw. zur Epipolarlinie 20 werden mittels eines Kantendetektionsverfahrens ermittelt.
  • Sobald die Pixel der Mengen 37a–c und 38a–c in der oben beispielhaft für die Menge 37b erläuterten Weise identifiziert worden sind, wird für jeden der Pixel ein gemittelter Grauwert als Messwert bestimmt. Dieser Grauwert wird jeweils mit mindestens einem vorgegebenen Pixelschwellwert verglichen, der für alle Pixel identisch oder in Abhängigkeit von Beleuchtungsverhältnissen für die einzelnen Pixel unterschiedlich gewählt werden kann. In Abhängigkeit von einem Ergebnis dieses Vergleichs wird dem jeweiligen Pixel dann genau einer der vorgegebenen Pixelwerte zugeordnet. Im vorliegend beschriebenen Fall wird jedem Pixel also entweder der Wert „weiß” oder „schwarz” zugewiesen. Die derart bestimmten Werte der Pixel der Mengen 37a–c und 38a–c definieren die den Segmenten 20a–c und 23a–c jeweils zugeordneten Kodierungen.
  • Die Entscheidung darüber, ob zwei Kodierungen übereinstimmen, wird anhand einer Abstandsfunktion vorgenommen, durch die jedem Paar von Kodierungen ein Abstandswert zugeordnet ist. Der Abstandswert ist z. B. durch eine Zahl gegeben, die größer oder gleich Null ist. Durch die Abstandsfunktion kann z. B. im mathematischen Sinne eine Metrik auf dem Raum der Kodierungen definiert sein. Ebenso kann je zwei Teilmengen von Pixeln des weiteren Musters 14, die eine identische Anzahl von Pixeln des weiteren Musters 14 aufweisen, durch die Abstandsfunktion jeweils ein Abstandswert zugeordnet werden. Insbesondere kann z. B. zwei rechteckigen Pixelblöcken des weiteren Musters 14, die jeweils eine identische Anzahl von Zeilen und Spalten aufweisen, durch die Abstandsfunktion ein Abstandswert zugeordnet werden. Zwei Kodierungen oder zwei Teilmengen des Musters 14 stimmen dann überein, wenn der diesen zwei Kodierungen oder diesen zwei Teilmengen durch die Abstandsfunktion zugeordnete Abstandswert ein Minimum annimmt und/oder kleiner ist als ein vorgegebener Abstandsschwellwert.
  • Bei der hier beschriebenen Ausführungsform ist die Abstandsfunktion derart realisiert, dass zwei auf Übereinstimmung zu prüfende Kodierungen Stelle für Stelle verglichen werden, wobei der diesen Kodierungen zugeordnete Abstandswert vor Beginn des Vergleichs mit dem Wert 0 initialisiert wird und wobei der Abstandswert für jede Stelle, in der sich die zu vergleichenden Kodierungen unterscheiden, um 1 inkrementiert wird. Zwei Kodierungen, die in jeder Stelle übereinstimmen, wird damit der Abstandswert 0 zugeordnet. In Bezug auf die Mengen 37a–c und 38a–c ist dies gleichbedeutend damit, dass je zwei dieser Mengen zur Bestimmung des diesen zwei Mengen zugeordneten Abstandswertes pixelweise verglichen werden, wobei der Abstandswert vor Beginn des pixelweisen Vergleichs mit dem Wert 0 initialisiert wird und wobei der Abstandswert für jeden Pixel, in dem die dem jeweiligen Pixel zugeordneten Werte in den beiden zu vergleichenden Mengen unterschiedlich sind, um 1 inkrementiert wird.
  • Um z. B. ein dem Segment 20b der Epipolarlinie 20 entsprechendes Segment der Epipolarlinie 23 zu ermitteln, wird die dem Segment 20b zugeordnete Kodierung 01010101 mit den den Segmenten 23a, 23b und 23c zugeordneten Kodierungen 11001100, 01010101 und 00110011 verglichen. 7 zeigt eine Tabelle, die gemäß der zuvor beschriebenen Realisierung der Abstandsfunktion bestimmte Abstandswerte zwischen je einem der Segmente 20a–c in der ersten Bildebene 6 und je einem der Segmente 23a–c in der weiteren Ebene bzw. zwischen den diesen Segmenten jeweils zugeordneten Kodierungen wiedergibt.
  • Hier soll der vorgegebene Abstandsschwellwert den Wert 2 haben. Dadurch, dass der Abstandsschwellwert einen Wert hat, der größer ist als 0, werden zwei Segmente auch dann noch als übereinstimmend identifiziert, wenn sich die diesen Segmenten jeweils zugeordneten Kodierungen geringfügig unterscheiden. Damit kann z. B. der Tatsache Rechnung getragen werden, dass es bei der oben beschriebenen Erfassung der Pixelwerte durch Ermittlung eines Grauwertes und Vergleich des Grauwertes mit einem Pixelschwellwert infolge räumlich inhomogener und/oder zeitlich veränderlicher Lichtverhältnisse zu Fehlern kommen kann. Der dem Segmentpaar 20b und 23b zugeordnete Abstandswert 0 ist kleiner als der Abstandsschwellwert 2 und ist ferner kleiner als die den Segmentpaaren 20b und 23a sowie 20b und 23c jeweils zugeordneten Abstandswerte, die hier jeweils den Wert 4 haben. Damit wird das Segment 23b als das dem Segment 20b entsprechende Segment identifiziert. In analoger Weise wird das Segment 23a als das dem Segment 20a entsprechende Segment identifiziert und das Segment 23c wird als das dem Segment 20c entsprechende Segment identifiziert.
  • Um Fehler bei der Identifikation von einander entsprechenden Segmenten in der ersten Bildebene 6 und in der weiteren Ebene weitestgehend zu vermeiden, wird das weitere Muster 14 gemäß einem Algorithmus erzeugt, der im Folgenden beschrieben werden soll. Danach ist das weitere Muster 14 durch eine zweidimensionale Aneinanderreihung von rechteckigen Pixelblöcken gegeben, die jeweils eine identische Anzahl von Zeilen und Spalten aufweisen und denen in der oben beschriebenen Weise jeweils eine Kodierung zugeordnet ist oder zugeordnet werden kann. Typischerweise sind die Pixelblöcke durch eine einzige Zeile oder Spalte der Länge Z gegeben, wobei Z eine natürliche Zahl ist. Z definiert also eine für alle Pixelblöcke identische Blocklänge der Pixelblöcke. Z wird dabei derart gewählt, dass die Periodenlänge 36 des periodischen Musters 13 der Blocklänge Z entspricht oder gleich einem 2n-fachen der Blocklänge Z ist, wobei n eine natürliche Zahl ist.
  • Haben die Pixelblöcke jeweils die Größe 1 × Z, so werden, wenn es für jeden Pixel des weiteren Musters genau zwei mögliche Werte gibt (z. B. „schwarz” und „weiß”), zunächst alle 2Z verschiedenen Pixelblöcke erzeugt. Aus diesen werden dann m/Z Pixelblöcke ausgewählt und entlang einer Längsrichtung der Pixelblöcke aneinandergereiht. Dabei ist m die Länge der Zeilen oder der Spalten des bildgebenden Elements 5 des Projektors 4, gemessen in Vielfachen einer Kantenlänge der Pixel des weiteren Musters 14 in der Projektorebene 11. Die derart aneinandergereihten Pixelblöcke bilden z. B. eine erste Zeile des weiteren Musters 14. Eine unmittelbar an diese erste Zeile des weiteren Musters 14 senkrecht zur Längsrichtung der Pixelblöcke sich anschließende zweite Zeile des weiteren Musters wird gegenüber der ersten Zeile um ein Vielfaches p der Kantenlänge der Pixel des weiteren Musters 14 oder der Blocklänge Z verschoben, vorzugsweise unter Berücksichtigung periodischer Randbedingungen. Wird p = 0 gewählt, so entsteht folglich ein zweidimensionaler Barcode.
  • Zur Vermeidung von Fehlern bei der Identifikation der einander entsprechenden Segmente ist es vorteilhaft, wenn aneinander angrenzende Paare von Pixelblöcken oder solche Paare von Pixelblöcken, deren räumlicher Abstand – gemessen zum Beispiel in Vielfachen der Blocklänge – kleiner ist als ein Mindestabstand, möglichst „verschieden” sind, wenn der ihnen durch die oben definierte Abstandsfunktion zugeordnete Abstandswert also jeweils möglichst groß ist, z. B. größer als ein weiterer Schwellwert, wobei der weitere Schwellwert mit dem räumlichen Abstand der jeweiligen Pixelblöcke abnehmen kann. Beispielsweise wird das weitere Muster derart erzeugt, dass der zwei in derselben Zeile des weitere Musters 14 aneinander angrenzenden Pixelblöcken zugeordnete Abstandswert größer ist als ein erster Schwellwert und dass der übernächsten Nachbarn (d. h. Pixelblöcken) in derselben Zeile des weiteren Musters 14 zugeordnete Abstandswert größer ist als ein zweiter Schwellwert, wobei der zweite Schwellwert kleiner sein kann als der erste Schwellwert etc.
  • Zur Bewertung der „Güte” der einzelnen (bis auf Verschiebungen um p identischen) Zeilen des weiteren Musters 14 kann eine Bewertungszahl berechnet werden. Die Bewertungszahl ist z. B. die Summe der mit ihrem jeweiligen räumlichen Abstand in der Zeile (unmittelbarer Nachbar, übernächster Nachbar etc.) gewichteten Abstandswerte aller Paare von Pixelblöcken in der Zeile, wobei das Gewicht mit dem räumlichen Abstand abnehmen kann. Das weitere Muster 14 ist mit dieser Definition der Bewertungszahl gegenüber Fehlidentifikationen also dann besonders robust, wenn die Bewertungszahl für die Zeilen des weiteren Musters 14 möglichst groß ist. Die Erzeugung des weiteren Musters 14 kann nun z. B. derart vorgenommen werden, dass die Zeilen des weiteren Musters 14 solange zufällig erzeugt werden, bis die Bewertungszahl einen vorgegebenen Schwellwert überschreitet. Ebenso kann die Zeile mit der aktuell höchsten Bewertungszahl jeweils gespeichert und die zufällige Erzeugung der Zeilen nach einer Maximalzahl von Versuchen abgebrochen werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102006049695 A1 [0003, 0004, 0013]

Claims (12)

  1. Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur, umfassend die folgenden Schritte: – Projizieren eines periodischen Musters (13) auf ein Objekt (3) und Aufnehmen eines Bildes des Objekts (3) mit dem aufprojizierten periodischen Muster (13) mittels einer ersten Kamera, – Projizieren eines weiteren Musters (14) auf das Objekt (3) und Aufnehmen eines Bildes des Objekts (3) mit dem aufprojizierten weiteren Muster (14) mittels der ersten Kamera, – für eine Vielzahl von Objektpunkten jeweils Identifizieren von Paaren einander und dem jeweiligen Objektpunkt entsprechender Punkte in einer Bildebene (6) der ersten Kamera und in einer weiteren Ebene, wobei die weitere Ebene a) eine Bildebene (7) einer zweiten Kamera ist, mit der ebenfalls ein Bild des Objekts (3) mit dem aufprojizierten periodischen Muster (13) und ein Bild des Objekts (3) mit dem aufprojizierten weiteren Muster (14) aufgenommen werden, oder b) durch ein bildgebendes Element (5) eines Projektors (4) definiert ist, der das periodische Muster (13) und das weitere Muster (14) auf das Objekt (3) projiziert, und – Ermitteln einer Tiefeninformation durch Triangulieren in Abhängigkeit von Positionen der einander und dem jeweiligen Objektpunkt entsprechenden Punkte in der Bildebene (6) der ersten Kamera und in der weiteren Ebene, wobei die Paare einander entsprechender Punkte identifiziert werden, indem den Punkten jeweils zugeordnete Epipolarlinien (20, 21, 22, 23) in der Bildebene (6) der ersten Kamera und in der weiteren Ebene bestimmt werden, Phasenwerte des periodischen Musters (13) für Punkte der einander entsprechenden Epipolarlinien (20, 21, 22, 23) ermittelt werden, Paare einander entsprechender Segmente (20a–c, 23a–c) in den einander entsprechenden Epipolarlinien (20, 21, 22, 23) identifiziert werden, wobei die einander entsprechenden Segmente (20a–c, 23a–c) jeweils derselben Periode des periodischen Musters (13) zugeordnet sind, und in den einander entsprechenden Segmenten (20a–c, 23a–c) Punkte gleicher Phasenwerte einander zugeordnet werden, dadurch gekennzeichnet, dass das weitere Muster (14) ein aus einer Vielzahl von Pixeln (34) gebildeter Barcode oder zweidimensionaler Punktcode ist, dessen Pixel jeweils einen Wert aus einer endlichen Wertemenge annehmen, und dass die einander entsprechenden Segmente (20a–c, 23a–c) identifiziert werden, indem den Segmenten (20a–c, 23a–c) sowohl in der Bildebene (6) der ersten Kamera als auch in der weiteren Ebene jeweils eine Kodierung zugeordnet wird, die jeweils durch eine zusammenhängende Menge (37a–c, 38a–c) von Pixeln (34) des weiteren Musters (14) definiert ist, welche mit dem Segment überlappt, dem die Kodierung zugeordnet wird, wobei Segmente (20a–c) in der Bildebene (6) der ersten Kamera und in der weiteren Ebene, denen jeweils übereinstimmende Kodierungen zugeordnet werden, als einander entsprechende Segmente identifiziert werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Werte der Wertemenge durch einen hellen Helligkeitswert und einen dunklen Helligkeitswert oder durch zwei oder drei Grundfarben oder durch zwei oder drei Grundfarben und einen Wert für dunkle Pixel gegeben sind.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das periodische Muster (13) ein Streifenmuster, vorzugsweise ein (1 + cos)-Muster ist.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass Pixel des weiteren Musters (14) in Zeilen und Spalten angeordnet sind, wobei das Streifenmuster und das weitere Muster (14) derart projiziert werden, dass die Streifen parallel zu den Zeilen oder den Spalten des weiteren Musters (14) ausgerichtet sind.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Segmente (20a–c, 23a–c) entlang einer durch das jeweilige Segment definierten ersten Richtung jeweils durch zwei Endpunkte (39a–d, 40a–d) dieses Segments begrenzt werden, wobei die mit dem jeweiligen Segment überlappende zusammenhängende Menge (37a–c, 38a–c) entlang der ersten Richtung vollständig zwischen den Endpunkten (39a–d, 40a–d) dieses Segments liegt und/oder sich vom ersten zum zweiten Endpunkt dieses Segments erstreckt, und/oder dass eine Ausdehnung der zusammenhängenden Menge (37a–c, 38a–c) entlang einer zur ersten Richtung senkrechten zweiten Richtung für die Segmente (20a–c, 23a–c) jeweils identisch gewählt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die zusammenhängende Menge (37a–c, 38a–c) jeweils derart gewählt wird, dass die zusammenhängende Menge (37a–c, 38a–c) für jedes der Segmente (20a–c, 23a–c) jeweils eine identische Anzahl von Pixeln (34) des weiteren Musters (14) umfasst.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Bestimmen der Kodierung die Pixel der zusammenhängenden Menge (37a–c, 38a–c) identifiziert werden, indem Begrenzungen (41a–i) von mit dem jeweiligen Segment überlappenden Pixeln der zusammenhängenden Menge (37a–c, 38a–c) entlang einer durch dieses Segment definierten ersten Richtung anhand der entlang dieses Segments ermittelten Phasenwerte des periodischen Musters (13) und anhand eines Längenverhältnisses zwischen einer Länge dieses Segments und einer Länge der Pixel entlang der ersten Richtung ermittelt werden und/oder indem entlang einer zur ersten Richtung senkrechten zweiten Richtung Begrenzungen (41a–i) der Pixel der zusammenhängenden Menge (37a–c, 38a–c) mittels eines Kantendetektionsverfahrens ermittelt werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zum Bestimmen der Kodierung die Werte der Pixel der zusammenhängenden Menge (37a–c, 38a–c) bestimmt werden, indem für diese Pixel jeweils ein Messwert ermittelt wird und dem jeweiligen Pixel durch Vergleich des für diesen Pixel ermittelten Messwertes mit mindestens einem ersten Schwellwert genau einer der Werte aus der Wertemenge zugeordnet wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Abstandsfunktion definiert ist, die zwei Kodierungen jeweils einen Abstandswert zuordnet, wobei zum Identifizieren der einander entsprechenden Segmente (20a–c, 23a–c) die Kodierungen der Segmente (20a–c, 23a–c) in einander entsprechenden Epipolarlinien (20, 21, 22, 23) genau dann als übereinstimmend bewertet werden, wenn der Abstand zwischen diesen Kodierungen ein Minimum annimmt und/oder einen zweiten Schwellwert unterschreitet.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass das weitere Muster (14) durch eine Aneinanderreihung von jeweils eine Kodierung wiedergebenden Pixelblöcken gegebenen ist, wobei die Pixelblöcke jeweils eine Mehrzahl von Pixeln (34) des weiteren Musters (14) umfassen und wobei Abstandswerte von Kodierungen, die jeweils aneinander angrenzenden Pixelblöcken zugeordnet sind, jeweils größer sind als ein dritter Schwellwert.
  11. Verfahren nach den Ansprüchen 4 und 10, dadurch gekennzeichnet, dass die Pixelblöcke jeweils dieselbe Blocklänge haben, wobei eine Periodenlänge (36) des periodischen Musters (13) der Blocklänge entspricht oder ein 2n-faches der Blocklänge beträgt, wobei n eine natürliche Zahl ist.
  12. Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur, umfassend einen Projektor (4) mit einem bildgebenden Element (5) und einem Projektionsobjektiv, a) eine Kamera oder b) eine erste und eine zweite Kamera sowie eine Steuer- und Recheneinheit (8) zum Ansteuern des Projektors (4) und der mindestens einen Kamera sowie zum Auswerten von mittels der mindestens einen Kamera aufgenommenen Bilddaten, wobei die Steuer- und Recheneinheit (8) eingerichtet ist, den Projektor (4) und die mindestens eine Kamera zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche anzusteuern.
DE102012013079.1A 2012-06-25 2012-06-25 Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur Active DE102012013079B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102012013079.1A DE102012013079B4 (de) 2012-06-25 2012-06-25 Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012013079.1A DE102012013079B4 (de) 2012-06-25 2012-06-25 Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur

Publications (2)

Publication Number Publication Date
DE102012013079A1 true DE102012013079A1 (de) 2014-04-24
DE102012013079B4 DE102012013079B4 (de) 2023-06-22

Family

ID=50436663

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012013079.1A Active DE102012013079B4 (de) 2012-06-25 2012-06-25 Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur

Country Status (1)

Country Link
DE (1) DE102012013079B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018208417A1 (de) * 2018-05-28 2019-11-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Projektionsvorrichtung und Projektionsverfahren

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006049695A1 (de) 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19821611A1 (de) 1998-05-14 1999-11-18 Syrinx Med Tech Gmbh Verfahren zur Erfassung der räumlichen Struktur einer dreidimensionalen Oberfläche
US6341016B1 (en) 1999-08-06 2002-01-22 Michael Malione Method and apparatus for measuring three-dimensional shape of object
US20040041996A1 (en) 2002-08-28 2004-03-04 Fuji Xerox Co., Ltd. Range finder and method
DE102004008904A1 (de) 2004-02-24 2005-09-08 Siemens Ag Vorrichtung und Verfahren zur Bestimmung von Raumkoordinaten eines Objekts

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006049695A1 (de) 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018208417A1 (de) * 2018-05-28 2019-11-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Projektionsvorrichtung und Projektionsverfahren
US11029145B2 (en) 2018-05-28 2021-06-08 Fraunhofer-Gasellschaft zur Förderung der angewandten Forschung e.V. Projection device and projection method

Also Published As

Publication number Publication date
DE102012013079B4 (de) 2023-06-22

Similar Documents

Publication Publication Date Title
DE102008002730B4 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
EP1242786B1 (de) Verfahren zur ermittlung von dreidimensionalen oberflächenkoordinaten
EP1078219B1 (de) Erfassung der räumlichen struktur einer dreidimensionalen oberfläche
EP3033588B1 (de) Verfahren und vorrichtung zum berührungslosen vermessen von oberflächenkonturen
EP2469224B1 (de) Verfahren zur intraoralen optischen Vermessung von Objekten unter Verwendung eines Triangulationsverfahrens
EP1971820B1 (de) Erstellung eines abstandsbildes
EP1290408B1 (de) Verfahren und anordnungen zur photogrammetrischen erfassung der raumform eines objekts
DE4318140C2 (de) Verfahren zur Zuordnung der einkoppelseitigen Enden der einzelnen Lichtleitfasern eines Lichtleiterbündels zu den auskoppelseitigen Enden dieser Lichtleitfasern
DE102017116758B4 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
EP2865987B1 (de) Verfahren und Scanner zum berührungslosen Ermitteln der Position und dreidimensionalen Form von Produkten auf einer laufenden Fläche
DE102012023623B4 (de) Verfahren zum Zusammensetzen von Teilaufnahmen einer Oberfläche eines Objektes zu einer Gesamtaufnahme des Objektes und System zum Erstellen einer Gesamtaufnahme eines Objektes
DE10212364A1 (de) Verfahren und Vorrichtung zur Bestimmung der Absolut-Koordinaten eines Objekts
DE102008002725A1 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
EP2887010B1 (de) Verfahren und Vorrichtung zum dreidimensionalen optischen Vermessen von Objekten mit einem topometrischen Messverfahren sowie Computerprogramm hierzu
DE19953063A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102012222505B4 (de) Verfahren zum Erfassen dreidimensionaler Daten eines zu vermessenden Objekts, Verwendung eines derartigen Verfahrens zur Gesichtserkennung und Vorrichtung zur Durchführung eines derartigen Verfahrens
DE102012013079A1 (de) Verfahren und Vorrichtung zum berührungslosen Erfassen einer dreidimensionalen Kontur
DE102009006089B4 (de) Verfahren zur Zuordnung von Bildpunkten
DE102021004071B3 (de) Vorrichtung und Verfahren zum Erzeugen photometrischer Stereobilder und eines Farbbildes
DE102017220720B4 (de) Verfahren und Vorrichtung zum berührungslosen Vermessen dreidimensionaler Oberflächenkonturen
DE102013208466B4 (de) Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen
DE102017106217B4 (de) Verfahren und Vorrichtung zur optoelektronischen Entfernungsmessung
DE102014210024A1 (de) Vorrichtung und Verfahren zur Bestimmung der Topografie einer Oberfläche
EP4102462A1 (de) Verfahren zur erzeugung von tiefenbildern und korrespondierende tiefenbildberechnungseinrichtung
EP2950268A1 (de) Verfahren und Vorrichtung zur Erfassung der dreidimensionalen Form eines Objekts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009460000

Ipc: G06V0030180000

R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06V0030180000

Ipc: G06V0020640000

R018 Grant decision by examination section/examining division
R020 Patent grant now final