DE102013208466A1 - Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen - Google Patents

Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen Download PDF

Info

Publication number
DE102013208466A1
DE102013208466A1 DE102013208466.8A DE102013208466A DE102013208466A1 DE 102013208466 A1 DE102013208466 A1 DE 102013208466A1 DE 102013208466 A DE102013208466 A DE 102013208466A DE 102013208466 A1 DE102013208466 A1 DE 102013208466A1
Authority
DE
Germany
Prior art keywords
camera
pixels
image plane
projector
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102013208466.8A
Other languages
English (en)
Other versions
DE102013208466B4 (de
Inventor
Christian Bräuer-Burchardt
Peter Kühmstedt
Gunther Notni
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to DE102013208466.8A priority Critical patent/DE102013208466B4/de
Publication of DE102013208466A1 publication Critical patent/DE102013208466A1/de
Application granted granted Critical
Publication of DE102013208466B4 publication Critical patent/DE102013208466B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft eine Vorrichtung und ein Verfahren zum berührungslosen Vermessen von Oberflächenkonturen mit einem Projektor (3) zum Projizieren von Lichtmustern, einer ersten Kamera (1) und einer zweiten Kamera (2) und sieht vor, dass eine Folge von Lichtmustern auf eine zu vermessende Oberfläche (5) projiziert wird, einander korrespondierende Bildpunkte (14, 15) in einer Bildebene der ersten Kamera (1) und in einer Bildebene der zweiten Kamera (2) identifiziert werden und Raumkoordinaten von Objektpunkten (12) auf der Oberfläche (5) durch Triangulieren auf Basis der als einander korrespondierend identifizierten Bildpunkte (14, 15) in den Bildebenen der Kameras (1, 2) berechnet werden. Um die korrespondierenden Bildpunkte (14, 15) in den Bildebenen der Kameras (1, 2) eindeutig zu identifizieren, werden dabei zunächst Grobkoordinaten der Objektpunkte (12) durch Triangulieren auf Basis der Bildpunkte (14) in der Bildebene der ersten Kamera (1) und als dazu korrespondierend identifizierter Projektionsrichtungen des Projektors (3) berechnet.

Description

  • Die Erfindung betrifft eine Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen mit einem Projektor und zwei Kameras gemäß dem Oberbegriff des Hauptanspruchs sowie ein entsprechendes Verfahren zum berührungslosen Vermessen von Oberflächenkonturen gemäß dem Oberbegriff des Nebenanspruchs.
  • Aus dem Stand der Technik ist es bekannt, Oberflächenkonturen berührungslos zu vermessen, indem mit einem Projektor eine Folge von Lichtmustern auf eine zu vermessende Oberfläche projiziert wird, mit zwei Kameras jeweils Bilder der Oberfläche mit den darauf projizierten Lichtmustern aufgenommen werden, einander korrespondierende Bildpunkte in einer Bildebene der zwei Kameras durch Vergleichen von in den Bildpunkten der beiden Kameras während des Projizierens der Folge von Lichtmustern erfassten Folgen von Helligkeitswerten identifiziert werden und schließlich Raumkoordinaten von Objektpunkten auf der Oberfläche durch Triangulieren auf Basis der als einander korrespondierend identifizierten Bildpunkte in den Bildebenen der Kameras berechnet werden. Ein solches Verfahren ist z. B. in der Druckschrift DE 101 49 750 A1 beschrieben.
  • Eine Schwierigkeit bei Verfahren dieser Art liegt darin, die einander korrespondierenden Bildpunkte oder homologe Bildpunkte in den beiden Bildebenen zuverlässig und eindeutig zu identifizieren, weil dazu in der Regel eine relativ große Zahl projizierter Muster notwendig ist, was wiederum nachteilig lange Messzeiten mit sich bringt.
  • Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, eine entsprechende Vorrichtung und ein Verfahren vorzuschlagen, die eine möglichst zuverlässige berührungslose Vermessung von Oberflächenkonturen in vergleichsweise kurzer Zeit erlauben. Diese Aufgabe wird erfindungsgemäß durch eine Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen mit den Merkmalen des Hauptanspruchs und durch ein Verfahren mit den Merkmalen des Nebenanspruchs gelöst. Vorteilhafte Ausgestaltungen und Weiterentwicklungen der Erfindung ergeben sich mit den Merkmalen der Unteransprüche.
  • Die erfindungsgemäße Vorrichtung umfasst einen Projektor zum Projizieren von Lichtmustern auf eine zu vermessende Oberfläche, eine erste Kamera und eine zweite Kamera zum Aufnehmen von Bildern der Oberfläche mit den darauf projizierten Lichtmustern sowie eine Steuer- und Auswerteeinheit zum Ansteuern des Projektors und zum Auswerten der aufgenommenen Bilder in Abhängigkeit von den projizierten Lichtmustern. Die Steuer- und Auswerteeinheit dieser Vorrichtung ist eingerichtet, folgende Schritte auszuführen:
    • – Auslösen einer Projektion einer Folge von Lichtmustern durch den Projektor,
    • – Identifizieren einander korrespondierender Bildpunkte in einer Bildebene der ersten Kamera und in einer Bildebene der zweiten Kamera durch Vergleichen von in den Bildpunkten der beiden Kameras während des Projizierens der Folge von Lichtmustern erfassten Folgen von Helligkeitswerten und
    • – Berechnen von Raumkoordinaten von Objektpunkten auf der Oberfläche durch Triangulieren auf Basis der als einander korrespondierend identifizierten Bildpunkte in den Bildebenen der Kameras.
  • Dabei ist die Steuer- und Auswerteeinheit eingerichtet, zum Identifizieren der korrespondierenden Bildpunkte in den Bildebenen der Kameras außerdem folgende Schritte auszuführen:
    • – Identifizieren jeweils einer korrespondierenden Projektionsrichtung des Projektors für jeden einer Mehrzahl von Bildpunkten in der Bildebene der ersten Kamera durch Vergleichen der in den Bildpunkten der ersten Kamera erfassten Folgen von Helligkeitswerten mit Helligkeitswerten, die durch die Folge von Lichtmustern für verschiedene Projektionsrichtungen des Projektors definiert sind,
    • – Berechnen von Grobkoordinaten der Objektpunkte auf der Oberfläche durch Triangulieren auf Basis der Bildpunkte in der Bildebene der ersten Kamera und der als dazu korrespondierend identifizierten Projektionsrichtungen des Projektors und
    • – Auflösen einer beim Vergleichen der in den Bildpunkten der beiden Kameras erfassten Folgen von Helligkeitswerten verbleibende Mehrdeutigkeit durch Prüfen, ob Raumkoordinaten, die sich durch Triangulieren auf Basis von als möglicherweise einander korrespondierend identifizierten Bildpunkten in den Bildebenen der Kameras ergeben, mit den Grobkoordinaten kompatibel sind.
  • Als einander korrespondierende Bildpunkte seien dabei Bildpunkte bezeichnet, in denen der gleiche Objektpunkt abgebildet wird. Solche Punkte können auch als homologe Punkte in den Bildebenen der zwei Kameras bezeichnet werden. Dementsprechend werden ein Bildpunkt in einer der Kameras und eine Projektionsrichtung des Projektors genau dann als einander korrespondieren bezeichnet, wenn ein Objektpunkt, der von einem den Projektor in Richtung der Projektionsrichtung verlassenden Lichtstrahl beleuchtet wird, durch ein Objektiv der Kamera auf den genannten Bildpunkt abgebildet wird. Der Begriff Projektionsrichtung bezeichnet hier also nicht eine optische Achse Hauptprojektionsrichtung des Projektors, sondern jeweils die Richtung eines bestimmten Strahles aus einem den Projektor verlassenden Lichtbündel. Selbstverständlich ist es gleichgültig, ob das Identifizieren jeweils einer korrespondierenden Projektionsrichtung für jeden einer Mehrzahl von Bildpunkten der ersten Kamera dadurch geschieht, dass für jeden der Mehrzahl von Bildpunkten der ersten Kamera jeweils die korrespondierende Projektionsrichtung gesucht wird, oder andersherum dadurch, dass für verschiedene Projektionsrichtungen jeweils der korrespondierende Bildpunkt in der Bildebene der ersten Kamera gesucht wird.
  • Als Triangulieren auf Basis zweier korrespondierender Bildpunkte sei dabei das Bestimmen des 3D-Punktes oder Objektpunktes bezeichnet, in dem sich zwei durch Objektive der beiden Kameras durch diese Bildpunkte verlaufende Strahlen schneiden. Schneiden sich die berechneten Strahlen aufgrund von Messungenauigkeiten nicht im Raum, so wird derjenige 3D-Punkt als Schnittpunkt betrachtet, der zu beiden Strahlen den kleinsten Abstand besitzt. Streng genommen handelt es sich also um ein Triangulieren auf Basis von Projektionszentren der beiden Kameras unter Zugrundelegung von durch die einander korrespondierenden Bildpunkte definierten Richtungen oder Strahlen. Demensprechend ist als Triangulieren auf Basis eines Bildpunktes in der Bildebene der ersten Kamera und der dazu korrespondierenden Projektionsrichtung die Bestimmung eines Objektpunkts zu verstehen, in dem ein den Projektor in Richtung der Projektionsrichtung verlassender Strahl einen Strahl schneidet, der durch das Objektiv der ersten Kamera auf jenen Bildpunkte abgebildet wird. Streng genommen handelt es sich also um ein Triangulieren auf Basis von Projektionszentren der ersten Kamera und des Projektors unter Zugrundelegung von durch den Bildpunkt in der ersten Kamera und die dazu korrespondierende Projektionsrichtung des Projektors definierten Richtungen oder Strahlen.
  • Dadurch, dass zum Identifizieren der einander korrespondierenden Bildpunkte in den beiden Kameras zunächst in beschriebener Weise Grobkoordinaten der Objektpunkte bestimmte werden, lässt sich die Anzahl der zu projizierenden Lichtmuster und damit die zum Aufnehmen der für die Vermessung benötigten Bilder notwendige Zeit vorteilhaft reduzieren. Dabei macht man sich zunutze, dass die Vorrichtung typischerweise eine Geometrie hat, bei der sich zwischen der ersten Kamera und dem Projektor ein deutlich kleinerer Triangulationswinkel ergibt als zwischen den zwei Kameras. Das führt dazu, dass die aus diesem Grund so bezeichneten Grobkoordinaten zwar nur mit geringerer Genauigkeit bestimmt werden können als die durch Triangulieren zwischen den beiden Kameras bestimmten Raumkoordinaten, dafür aber innerhalb eines vergleichsweise großen Messvolumens eindeutig – also ohne Mehrdeutigkeiten, die sich dadurch ergäben, dass wegen einer Periodizität der Lichtmuster oder sich wiederholender Charakteristika der Lichtmuster die zu einem Bildpunkt in der ersten Kamera korrespondierende Projektionsrichtung oder der zu einer Projektionsrichtung korrespondierende Bildpunkt in der ersten Kamera nicht eindeutig bestimmt werden können. Die größeren Triangulationswinkel zwischen den beiden Kameras dagegen erlauben die Bestimmung der Raumkoordinaten mit vorteilhaft großer Genauigkeit, führen jedoch dazu, dass ein bloßer Vergleich der in den Bildpunkten der beiden Kameras erfassten Folgen von Helligkeitswerten noch keine eindeutige Identifizierung einander korrespondierender Bildpunkte erlaubt, sofern nicht eine ausgesprochen große Zahl verschiedener Lichtmuster sukzessive projiziert wird. Das ist der vorliegenden Erfindung jedoch unschädlich, weil die durch Triangulieren zwischen der ersten Kamera und dem Projektor gewonnenen Grobkoordinaten dazu verwendet werden, die beim Aufsuchen korrespondierender Bildpunkte in den beiden Kameras verbleibenden Mehrdeutigkeiten aufzulösen. Dazu müssen lediglich aus den Raumkoordinaten, die sich durch Triangulieren auf Basis von zunächst nur als möglicherweise korrespondierend identifizierten Bildpunkten in den beiden Kameras ergeben, die Raumkoordinaten ausgewählt werden, die im Rahmen der Messgenauigkeit hinreichend nah an den Grobkoordinaten liegen, um mit diesen kompatibel zu sein. Wie leicht einzusehen ist, genügt eine wesentlich geringere Genauigkeit der Grobkoordinaten, um diese Auswahl in eindeutiger Weise möglich zu machen. Da es also durch die beschriebenen Maßnahmen nicht erforderlich ist, die einander korrespondierenden Bildpunkte in den Bildebenen der beiden Kameras allein durch Vergleich der dort erfassten Folgen von Helligkeitswerten eindeutig zu identifizieren, genügt eine vergleichsweise geringe Anzahl von Lichtmustern zur Vermessung der Oberfläche.
  • Das aus den gleichen Gründen vorteilhafte Verfahren zum berührungslosen Vermessen von Oberflächenkonturen, umfasst dementsprechend folgende Schritte:
    • – Projizieren einer Folge von Lichtmustern mit einem Projektor auf eine zu vermessende Oberfläche,
    • – Aufnehmen von Bildern der Oberfläche mit den darauf projizierten Lichtmustern mit einer erste Kamera und einer zweiten Kamera und
    • – Identifizieren einander korrespondierender Bildpunkte in einer Bildebene der ersten Kamera und in einer Bildebene der zweiten Kamera durch Vergleichen von in den Bildpunkten der beiden Kameras während des Projizierens der Folge von Lichtmustern erfassten Folgen von Helligkeitswerten,
    • – Berechnen von Raumkoordinaten von Objektpunkten auf der Oberfläche durch Triangulieren auf Basis der als einander korrespondierend identifizierten Bildpunkte in den Bildebenen der Kameras, wobei zum Identifizieren der korrespondierenden Bildpunkte in den Bildebenen der Kameras außerdem folgende Schritte ausgeführt werden:
    • – Identifizieren jeweils einer korrespondierenden Projektionsrichtung des Projektors für jeden einer Mehrzahl von Bildpunkten in der Bildebene der ersten Kamera durch Vergleichen der in den Bildpunkten der ersten Kamera erfassten Folgen von Helligkeitswerten mit Helligkeitswerten, die durch die Folge von Lichtmustern für verschiedene Projektionsrichtungen des Projektors definiert sind,
    • – Berechnen von Grobkoordinaten der Objektpunkte auf der Oberfläche durch Triangulieren auf Basis der Bildpunkte in der Bildebene der ersten Kamera und der als dazu korrespondierend identifizierten Projektionsrichtungen des Projektors,
    • – Auflösen einer beim Vergleichen der in den Bildpunkten der beiden Kameras erfassten Folgen von Helligkeitswerten verbleibende Mehrdeutigkeit durch Prüfen, ob Raumkoordinaten, die sich durch Triangulieren auf Basis von als möglicherweise einander korrespondierend identifizierten Bildpunkten in den Bildebenen der Kameras ergeben, mit den Grobkoordinaten kompatibel sind.
  • Es kann vorgesehen sein, dass das Identifizieren der zu den Bildpunkten in der Bildebene der ersten Kamera korrespondierenden Projektionsrichtungen und damit das Berechnen der Grobkoordinaten jeweils dadurch zu einem eindeutigen Ergebnis führt, dass eine Nebenbedingung eingehalten wird, die verlangt, dass der durch die Grobkoordinaten definierte Objektpunkt innerhalb eines vorgegebenen begrenzten Messvolumens liegt. Dementsprechend kann die die Steuer- und Auswerteeinheit der beschriebenen Vorrichtung eingerichtet sein, beim Berechnen der Grobkoordinaten durch Einhalten dieser Nebenbedingung jeweils zu einem eindeutigen Ergebnis zu kommen.
  • Es ist möglich – wenn auch selbstverständlich nicht nötig –, das begrenzte Messvolumen durch gegenständliche Barrieren zu begrenzen, die eine Anordnung eines zu vermessenden Objekts innerhalb des begrenzten Messvolumens erleichtern oder erzwingen können und/oder die – beispielsweise durch eine schwarze Farbgebung oder matte Oberfläche – verhindern können, dass die aufgenommenen Bilder durch Streuung oder Reflexion an Objekten außerhalb des Messvolumens verursachte Beiträge enthalten. Unabhängig davon kann im Hinblick auf eine möglichst hohe Zuverlässigkeit der Vermessung vorgesehen sein, dass die ermittelten Raumkoordinaten einer Stetigkeitsprüfung und/oder einer anderen weiteren Prüfung unterzogen werden, um fehlerhafte Raumkoordinaten, die auf durch Objektpunkte außerhalb des vorgegebenen Messvolumens verursachten Fehlberechnungen beruhen, zu identifizieren, wobei die so als fehlerhaft identifizierten Raumkoordinaten gelöscht werden können. Auch diese weitere Prüfung der ermittelten Raumkoordinaten und Löschung fehlerhafter Raumkoordinaten kann durch die dann entsprechend programmierte Steuer- und Auswerteeinheit erfolgen.
  • Zum Identifizieren der korrespondierenden Bildpunkte in den Bildebenen der Kameras können für jeden der genannten Mehrzahl von Bildpunkten in der Bildebene der ersten Kamera jeweils folgende Schritte ausgeführt werden:
    • – Bestimmen mehrerer Bildpunkte in der Bildebene der zweiten Kamera als Kandidaten für den zum jeweiligen Bildpunkt in der Bildebene der ersten Kamera korrespondierenden Bildpunkt durch Vergleichen von in den Bildpunkten der beiden Kameras während des Projizierens der Folge von Lichtmustern erfassten Folgen von Helligkeitswerten,
    • – Berechnen von Raumkoordinaten für jeden der genannten Kandidaten durch Triangulieren auf Basis des jeweiligen Bildpunkts in der Bildebene der ersten Kamera und des Kandidaten in der Bildebene der zweiten Kamera,
    • – Identifizieren des zum jeweiligen Bildpunkt in der Bildebene der ersten Kamera korrespondierenden Bildpunkts in der Bildebene der zweiten Kamera durch Auswahl des Kandidaten, der sich dadurch auszeichnet, dass die auf Basis dieses Kandidaten und des jeweiligen Bildpunkts in der Bildebene der ersten Kamera berechneten Raumkoordinaten innerhalb einer Messungenauigkeiten berücksichtigenden Umgebung der durch Triangulieren auf Basis des jeweiligen Bildpunkts in der Bildebene der ersten Kamera und der dazu korrespondierenden Projektionsrichtung des Projektors berechneten Grobkoordinaten liegt.
  • Demensprechend kann die Steuer- und Auswerteeinheit eingerichtet sein, zum Identifizieren der korrespondierenden Bildpunkte in den Bildebenen der Kameras für jeden der genannten Mehrzahl von Bildpunkten in der Bildebene der ersten Kamera jeweils die zuletzt genannten Schritte auszuführen. So lassen sich die einander korrespondierenden Bildpunkte mit relativ geringem Aufwand letztlich eindeutig bestimmten. Selbstverständlich kann aber auch eine andere Reihenfolge gewählt werden und z. B. zunächst ausgehend von einem bestimmten Bildpunkt in der Bildebene der zweiten Kamera eine Reihe von Kandidaten korrespondierender Bildpunkte in der Bildebene der ersten Kamera bestimmt werden, aus denen der richtige dann abhängig von den berechneten Grobkoordinaten ausgewählt wird. Die im letztgenannten Schritt beschriebene Auswahl des richtigen Kandidaten kann natürlich auch jeweils implizit einfach durch Auswahl der bei Zugrundelegung dieses Kandidaten berechneten Raumkoordinaten erfolgen.
  • Die Identifizierung einander korrespondierender Bildpunkte oder von Paaren korrespondierender Bildpunkte und Projektionsrichtungen kann jeweils durch Rückgriff auf die Epipolargeometrie und Ausnutzung von sich daraus ergebenden geometrischen Beschränkungen erleichtert werden. So ist es möglich, zum Identifizieren der einander korrespondierenden Bildpunkte in den Bildebenen der zwei Kameras jeweils nur Bildpunkte auf einer durch den jeweiligen Bildpunkt in der Bildebene der ersten oder zweiten Kamera vorgegebenen Epipolarlinie in der Bildebene der zweiten bzw. ersten Kamera oder in einer definierten Umgebung dieser Epipolarlinie zu prüfen und/oder zum Identifizieren der zu den Bildpunkten in der Bildebene der ersten Kamera korrespondierenden Projektionsrichtungen jeweils nur Bildpunkte auf einer durch die jeweilige Projektionsrichtung vorgegebenen Epipolarlinie oder jeweils nur Projektionsrichtungen in einer durch den jeweiligen Bildpunkt in der Bildebene der ersten Kamera vorgegebenen Epipolarebene zu prüfen.
  • Daher ist es besonders vorteilhaft, wenn die Steuer- und Auswerteeinheit eingerichtet ist,
    • – zum Identifizieren der einander korrespondierenden Bildpunkte in den Bildebenen der zwei Kameras jeweils nur Bildpunkte auf einer durch den jeweiligen Bildpunkt in der Bildebene der ersten oder zweiten Kamera vorgegebenen Epipolarlinie in der Bildebene der zweiten bzw. ersten Kamera oder in einer definierten engen Umgebung dieser Epipolarlinie zu prüfen und
    • – zum Identifizieren der zu den Bildpunkten in der Bildebene der ersten Kamera korrespondierenden Projektionsrichtungen jeweils nur Bildpunkte auf einer durch die jeweilige Projektionsrichtung vorgegebenen Epipolarlinie zu prüfen oder jeweils nur Projektionsrichtungen in einer durch den jeweiligen Bildpunkt in der Bildebene der ersten Kamera vorgegebenen Epipolarebene zu prüfen.
  • Typischerweise handelt es sich bei der Folge von Lichtmustern um gegeneinander phasenverschobene Streifenmuster, wobei den Bildpunkten und Projektionsrichtungen jeweils ein für den jeweiligen Bildpunkt oder die jeweilige Projektionsrichtung durch die Folge von Streifenmustern vorgegebener Phasenwert zugeordnet wird und jeweils Bildpunkte und Projektionsrichtungen gleicher Phasenwerte als einander korrespondierend oder möglicherweise korrespondierend erkannt werden. Das kann wieder durch eine entsprechende Einrichtung der Steuer- und Auswerteeinheit geschehen. Eine Ausdehnung des weiter oben genannte Messvolumen, innerhalb dessen eine eindeutige Bestimmung der Grobkoordinaten möglich ist, ergibt sich in in diesem Fall durch einfache geometrische Zusammenhänge aus einer Periodenlänge der Streifenmuster. Vorteilhafterweise ist es bei dieser Ausführung nicht notwendig, außer den Streifenmustern weitere Kodierungen oder Muster zu projizieren und aufzunehmen.
  • Typischerweise ist der Projektor zwischen den beiden Kameras angeordnet, wobei ein Abstand zwischen objektseitigen Projektionszentren der beiden Kameras zumindest doppelt so groß wie ein Abstand zwischen dem objektseitigen Projektionszentrum der ersten Kamera und einem Projektionszentrum des Projektors. Im Hinblick auf eine eindeutige Identifizierung der Paare korrespondierender Projektionsrichtungen und Bildpunkte in der ersten Kamera einerseits und möglichst genauen Bestimmung der Raumkoordinaten andererseits ist es besonders zweckmäßig, wenn der Abstand zwischen den Projektionszentren der beiden Kameras mehr als doppelt so groß ist als der Abstand zwischen dem objektseitigen Projektionszentrum der ersten Kamera und dem Projektionszentrum des Projektors.
  • In der Regel wird der Projektor ein bildgebendes Element zum Generieren der Lichtmuster aufweisen, wobei die Projektionsrichtungen durch Bildpunkte in einer durch das bildgebende Element aufgespannten Ebene vorgegeben sind und jeweils einem dieser Bildpunkte des Projektors entsprechen. Die Lichtmuster werden in diesem Fall auf dem bildgebenden Element des Projektors generiert. Das Identifizieren der zu den Bildpunkten in der Bildebene der ersten Kamera korrespondierenden Projektionsrichtungen kann dann durch ein Identifizieren von einender korrespondierenden Bildpunkten in der Bildebenen der ersten Kamera und in der Bildebene des Projektors erfolgen, indem die in den Bildpunkten der ersten Kamera erfassten Folgen von Helligkeitswerten mit Helligkeitswerten verglichen werden, die durch die Folge von Lichtmustern für verschiedene Bildpunkte auf dem bildgebenden Element des Projektors definiert sind. Möglich wäre aber auch die Verwendung anderer Projektoren. So kann es sich bei dem Projektor auch beispielsweise um einen Laserprojektor handeln.
  • Ein Ausführungsbeispiel der Erfindung wird nachfolgend anhand der 1 und 2 beschrieben. Es zeigt
  • 1 eine perspektivische Ansicht einer schematisch dargestellten Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen mit einem zu vermessenden Objekt und
  • 2 eine Aufsicht auf die Vorrichtung aus 1 in einer schematischen Darstellung, die geometrische Parameter dieser Vorrichtung besser erkennen lässt.
  • Die in 1 gezeigte Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen weist eine erste Kamera 1 und eine zweite Kamera 2 sowie einen zwischen den Kameras 1 und 2 angeordneten Projektor 3 zum projizieren von Lichtmustern auf. im vorliegenden Ausführungsbeispiel bilden die Kameras 1 und 2 und der Projektor 3 eine asymmetrische Anordnung, bei der die erste Kamera 1 näher am Projektor 3 und um einen kleineren Winkel τCP gegenüber dem Projektor 3 gekippt angeordnet ist als die zweite Kamera 2. Ein Triangulationswinkel τCC zwischen den beiden Kameras 1 und 2 ist hier also mehr als doppelt so groß wie der Winkel τCP Es sind jedoch auch symmetrische Ausführungen möglich, bei denen der Projektor 3 mittig zwischen den beiden Kameras 1 und 2 angeordnet ist. Der Projektor 3 und die Kameras 1 und 2 haben eine feste Anordnung relativ zueinander und sind in einem Sensorkopf der Vorrichtung angeordnet. Außerdem weist die Vorrichtung eine Steuer- und Auswerteeinheit 4 zum Ansteuern des Projektors 3 und zum Auswerten von mit den Kameras 1 und 2 aufgenommenen Bildern auf. In 1 ist auch ein hier kugelförmig dargestelltes Objekt mit einer zu vermessenden Oberfläche 5 eingezeichnet.
  • Der Projektor 3 weist ein bildgebendes Element 6 auf, auf dem die zu Projizierenden Lichtmuster generiert werden können, sowie ein Objektiv 7, das ein Projektionszentrum OP des Projektors 3 definiert und die Lichtmuster auf die Oberfläche 5 abbildet. Dabei gibt das Objektiv 7 jedem Bildpunkt auf dem bildgebenden Element 6 eine Projektionsrichtung vor, die als diesem Bildpunkt entsprechend angesehen werden kann.
  • Die beiden Kameras 1 und 2 weisen jeweils einen Kamerachip 8 bzw. 9 auf, der eine Bildebene der jeweiligen Kamera 1 bzw. 2 definiert, sowie ein Objektiv 10 bzw. 11. Dabei definiert das Objektiv 10 der ersten Kamera 1 ein Projektionszentrum O1 der ersten Kamera und das Objektiv 11 der zweiten Kamera 2 ein Projektionszentrum O2 der zweiten Kamera 2.
  • Die Steuer- und Auswerteeinheit 4 ist durch eine entsprechende Programmierung einrichtet, den Projektor 3 so anzusteuern und die dabei mit den Kameras 1 und 2 aufgenommenen Bilder der Oberfläche 5 so auszuwerten, dass die Oberfläche 5 durch das nachfolgend beschriebene Verfahren berührungslos vermessen wird.
  • Mit dem Projektor 3 wird eine Folge von Lichtmustern auf die Oberfläche 5 projiziert, die sich innerhalb eines Messvolumens MV (siehe 2) befindet. Bei diesen Lichtmustern handelt es sich um gegeneinander phasenverschobene Streifenmuster, die typischerweise durch einen (1 + cos)-förmigen Helligkeitsverlauf charakterisiert sind. Für jedes projizierte Lichtmuster nimmt sowohl die erste Kamera 1 als auch die zweite Kamera 2 jeweils ein Bilder der Oberfläche 5 mit dem jeweiligen darauf projizierten Lichtmuster auf.
  • Für eine Vielzahl von Objektpunkten auf der Oberfläche 5 werden nun jeweils Raumkoordinaten ermittelt. Dazu werden einander korrespondierende Bildpunkte in der Bildebene der ersten Kamera 1 und der Bildebene der zweiten Kamera 2 ermittelt durch Vergleichen von in den Bildpunkten der beiden Kameras 1 und 2 während des Projizierens der Folge von Lichtmustern erfassten Folgen von Helligkeitswerten. Die Raumkoordinaten der Objektpunkte auf der Oberfläche 5 werden dann durch Triangulieren auf Basis der als einander korrespondierend identifizierten Bildpunkte in den Bildebenen der Kameras 1 und 2 berechnet. Wie das im Einzelnen geschieht, wird nachfolgend für einen beispielhaft ausgewählten Objektpunkt 12 beschrieben.
  • Der Objektpunkt 12 wird durch einen bestimmten Bildpunkt 13 auf dem bildgebenden Element 6 des Projektors 3 beleuchtet. Durch die Objektive 10 und 11 der beiden Kameras 1 und 2 wird dieser Objektpunkt auf einen Bildpunkt 14 in der Bildebene der ersten Kamera 1 und einen Bildpunkt 15 in der Bildebene der zweiten Kamera 2 abgebildet. In diesem Sinne können der Bildpunkt 13 und die a priori nicht bekannten Bildpunkte 14 und 15 als einander korrespondierend oder als homologe Punkte angesehen werden. Die genaue Lage der korrespondierenden Bildpunkte 14 und 15 hängt von der Lage des Objektpunkts 12 im Raum ab und erlaubt dessen Raumkoordinaten durch Triangulieren zu bestimmten. Das ist ein einfaches mathematisches Problem, so dass wir uns hier darauf beschränken können, zu erläutern, wie die homologen Punkte aufgefunden werden.
  • Zunächst wird der zum Bildpunkt 13 auf dem bildgebenden Element 6 korrespondierende Bildpunkt 14 identifiziert. Dazu kommen nur Punkte auf einer durch den Bildpunkt 13 vorgegebenen Epipolarlinie 16 in Frage, weshalb auch nur Punkte auf dieser Epipolarlinie 16 geprüft werden. Der zum Bildpunkt 13 korrespondierende Bildpunkt 14 wird nun identifiziert durch Vergleichen der in den Punkten auf der Epipolarlinie 16 durch den Kamerachip 8 erfassten Folgen von Helligkeitswerten mit Helligkeitswerten, die während der Folge von Lichtmustern in dem Bildpunkt 13 auf der bildgebenden Element 6 wiedergegeben werden, die also durch die Folge von Streifenmustern für diesen Bildpunkt 13 definiert sind. Dazu wird den Bildpunkten 13 und 14 und dem übrigen Bildpunkten jeweils ein für den jeweiligen Bildpunkt durch die Folge von Streifenmustern vorgegebener Phasenwert zugeordnet und der Bildpunkt 14 als jener erkannt, dem der gleiche Phasenwert zugeordnet ist wie dem Bildpunkt 13. Natürlich kann genauso gut andersherum der Bildpunkt 13 auf dem bildgebenden Element aufgefunden werden als zu dem dann vorgegebenen Bildpunkt 14 in der Bildebene der ersten Kamera 1 korrespondierender Bildpunkt. Auch in diesem Fall kann die Suche auf eine Epipolarlinie beschränkt werden, die einer durch die entsprechenden Projektionsrichtungen aufgespannten Epipolarebene entspricht.
  • Durch Triangulieren auf Basis der einander korrespondierenden Bildpunkte 13 und 14 auf dem bildgebenden Element 6 und in der Bildebene der ersten Kamera 1 werden nun Grobkoordinaten des Objektpunkt 12 berechnet. Diese Grobkoordinaten können aufgrund des relativ kleinen Triangulationswinkels τCP (siehe 2) zwar noch nicht mit der angestrebten Genauigkeit ermittelt werden, dafür aber eindeutig in dem Sinne, dass Mehrdeutigkeiten bei der Auffindung der korrespondierenden Bildpunkte 13 und 14 vermieden werden. Durch Einhalten einer Nebenbedingung wird nämlich sichergestellt, dass das Identifizieren der einander korrespondierenden Bildpunkte 13 und 14 auf dem Bildgebenden Element 6 und in der Bildebene der ersten Kamera 1 zu einem eindeutigen Ergebnis führt. Diese Nebenbedingung verlangt, dass der durch die Grobkoordinaten definierte Objektpunkt 12 innerhalb eines vorgegebenen begrenzten Messvolumens liegt. Dieses Messvolumen kann bei gegebener Geometrie und Folge von Lichtmustern bestimmt werden, wie weiter untern noch ausführlicher erläutert wird.
  • Eine beim Vergleichen der in den Bildpunkten 14, 15, 15' der beiden Kameras 1 und 2 erfassten Folgen von Helligkeitswerten verbleibende Mehrdeutigkeit kann jetzt aufgelöst werden, indem geprüft wird, ob Raumkoordinaten, die sich durch Triangulieren auf Basis von als möglicherweise einander korrespondierend identifizierten Bildpunkten 14, 15, 15' in den Bildebenen der Kameras 1 und 2 ergeben, mit den eindeutig – wenn auch weniger genau – bestimmten Grobkoordinaten kompatibel sind. Wegen des größeren Abstandes zwischen den Projektionszentren der beiden Kameras 1 und 2 führt nämlich ein bloßer Vergleich der in den Bildpunkten 14, 15, 15' der beiden Kameras 1 und 2 erfassten Folgen von Helligkeitswerten noch nicht zu einer eindeutigen Identifizierung der korrespondierenden Bildpunkte 14 und 15.
  • Zum Identifizieren des zum Bildpunkt 14 in der der Bildebene der ersten Kamera 1 korrespondierenden Bildpunkts 15 in den Bildebene der zweiten Kamera 2 werden also folgende Schritte ausgeführt:
    Zunächst werden mehrere Bildpunkte 15, 15' in der Bildebene der zweiten Kamera 2 als Kandidaten für den zum Bildpunkt 14 korrespondierenden Bildpunkt bestimmte. Das geschieht durch Vergleichen von in den Bildpunkten 14, 15, 15' der beiden Kameras 1 und 2 während des Projizierens der Folge von Lichtmustern erfassten Folgen von Helligkeitswerten. Dabei nutzt man wieder das Wissen über die Epipolargeometrie aus. Daher werden nur Punkte auf einer durch den Bildpunkt 14 in der Bildebene der ersten Kamera 1 und durch die Relativanordnung der beiden Kameras 1 und 2 vorgegebenen Epipolarlinie 17 darauf geprüft, ob sie als zum Bildpunkt 14 korrespondierend in Frage kommen. Als zumindest möglicherweise zum Bildpunkt 14 korrespondierend werden dabei alle diejenigen Bildpunkte 15 und 15' auf der Epipolarlinie 17 identifiziert, denen der gleiche Phasenwert zugeordnet ist wie dem Bildpunkt 14. Die Bildpunkte 15 und 15' werden also als Kandidaten für den zunächst noch nicht eindeutig bekannten tatsächlich korrespondierenden Bildpunkt 15 behandelt.
  • Für jeden der als möglicherweise zum Bildpunkt 14 korrespondierend aufgefundenen Bildpunkte 15, 15' werden nun Raumkoordinaten berechnet durch Triangulieren auf Basis des Bildpunkts 14 in der Bildebene der ersten Kamera und des Kandidaten in der Bildebene der zweiten Kamera 2.
  • Jetzt wird der zum Bildpunkt 14 in der Bildebene der ersten Kamera 1 korrespondierenden Bildpunkt 15 in der Bildebene der zweiten Kamera 2 identifiziert durch Auswahl des Kandidaten, der sich dadurch auszeichnet, dass die auf Basis dieses Kandidaten und des Bildpunkts 14 berechneten Raumkoordinaten innerhalb einer Umgebung der Grobkoordinaten liegt, die durch Triangulieren auf Basis der Bildpunkte 14 und 13 berechnet worden sind. Die Umgebung wird so groß definiert, dass sie alle einzukalkulierende Messungenauigkeiten beim Triangulieren zwischen den Bildpunkten 13 und 14 zu berücksichtigt, wobei diese Umgebung immer noch hinreichend klein ist, um sicherzustellen, dass nur die auf Basis des Bildpunkts 15 berechneten Raumkoordinaten in diese Umgebung fallen, nicht jedoch die Raumkoordinaten, die sich bei Zugrundelegen irgendeines der anderen Kandidaten, also irgendeines der Bildpunkte 15', ergeben. Die Auswahl des richtigen Kandidaten kann natürlich implizit geschehen indem aus den für die verschiedenen Bildpunkte 15 und 15' berechneten Raumkoordinaten einfach die Raumkoordinaten als dadurch sowohl eindeutig als auch hinreichend genau bestimmte Koordinaten des Objektpunkts 12 ausgewählt werden, die in die genannte Umgebung fallen. Die Umgebung kann z. B. durch jeweils einen Fehlerbalken geeigneter Größe für jede von drei Raumkoordinaten X, Y und Z definiert werden.
  • In der beschriebenen Weise werden außer für den Objektpunkt 12 auch Raumkoordinaten für viele andere Punkte auf der Oberfläche 5 ermittelt, so dass sich eine ganze Punktewolke ergibt. Die so ermittelten Raumkoordinaten können jetzt noch einer Stetigkeitsprüfung und/oder einer anderen weiteren Prüfung unterzogen werden, um fehlerhafte Raumkoordinaten zu identifizieren. Solche fehlerhaften Raumkoordinaten können z. B. auf durch Objektpunkte außerhalb des vorgegebenen Messvolumens verursachten Fehlberechnungen beruhen. Es kann vorgesehen sein, dass die so identifizierten fehlerhaften Raumkoordinaten aus der genannten Punktewolke gelöscht werden.
  • Mit der beschriebenen Vorrichtung wird ein Verfahren zur berührungslosen 3D-Vermessung der Oberfläche von Objekten mittels strukturierter Beleuchtung und die dazugehörige Messanordnung durchgeführt. Dabei wird ausschließlich eine phasenverschobene Sequenz von (1 + cos)-Mustern verwendet, jedoch keine zusätzlichen Muster. Damit unterscheidet sich das Verfahren von herkömmlicher Streifenprojektionstechnik dadurch, dass weder eine zusätzliche Mustersequenz (z. B. Gray-Code-Sequenz) zur Phasenentfaltung benötigt wird noch Nachbarschaftsverfahren zur Phasenentfaltung angewendet werden. Mit dem neuen Verfahren ergeben sich kürzere zu projizierende Bildsequenzen und damit eine Verkürzung der Messzeit, ohne dass dadurch die Messgenauigkeit beeinflusst wird. Kernstück des Verfahrens ist eine eindeutige Zuordnung korrespondierender Perioden der Streifenprojektion in Stereobildpaaren unter Verwendung der Geometriedaten der Projektionseinheit, welche als inverse Kamera in die Berechnungen mit eingeht. Dabei wird der Triangulationswinkel τCP zwischen einer der beiden Kameras 1, 2 und der Projektionseinheit so gering gewählt, dass die Korrespondenz zwischen Bildpunkt und Projektionsursprung in der Projektionsbildebene eindeutig ist und keine Phasenverstetigung erfolgen muss. Um die Leistungsfähigkeit moderner Streifenprojektionssysteme bezüglich der Messgenauigkeit zu erzielen, wird zusätzlich eine Triangulation zwischen korrespondierenden Bildpunkten in beiden Kamerabildern mit größerem Triangulationswinkel τCC durchgeführt. Die Eindeutigkeit wird hierbei durch Vergleich mit dem Ergebnis der eindeutigen Korrespondenz zwischen Kamera 1 und Projektor 3 erzielt.
  • Entscheidende Kenngrößen für den Einsatz eines Verfahrens von Streifenprojektion mit Phasenschieben sind im Wesentlichen eine hohe Messgenauigkeit und eine kurze Messzeit. Während die Messgenauigkeit bei Verwendung der Phasenschiebetechnik neben den äußeren Messbedingungen wesentlich durch die Periodenlänge und die Anzahl der verwendeten (1 + cos)-Muster bestimmt wird, ist die Messzeit u. a. von der Anzahl der projizierten Musterbilder abhängig. Damit führt die Einsparung von Codes bei Projektion und Beobachtung zu kürzeren Bildaufnahmezeiten und damit zu einer geringeren Anfälligkeit für Verwacklungen bei handgeführten Messsystemen. Ein weiterer Vorteil einer kurzen Bildsequenz ist, dass das Messobjekt nur für kürzere Zeit stillstehen muss, was bei sich potenziell bewegenden Objekten (z. B. Patienten) oder bei Fließbandabläufen eine höhere Robustheit bzw. höhere Effizienz bewirkt.
  • Die hier beschriebenen Maßnahmen ergeben eine Verkürzung der Messzeit gegenüber Verfahren, welche die Streifenprojektionstechnik im Zusammenhang mit dem Gray-Code oder anderen Verstetigungsverfahren, die weitere Bilder benötigen, benutzen, ohne Genauigkeitsverlust und mit vergleichbarer Robustheit. Die Verkürzung der Messzeit wird dabei durch Verringerung der Anzahl der notwendig zu projizierenden Muster erreicht. Für den Sensorkopf, der den Projektor und die zwei Kameras 1, 2 umfasst, wird eine gewählte Periodenlänge für die Projektion des phasenverschobenen (1 + cos)-Musters so gewählt und – abhängig von einem vorgegebenen endlichen Messvolumen MV – eine optimale Anordnung zwischen dem Stereo-Kamerapaar und der Projektionseinheit so konstruiert, dass eine eindeutigen 3D-Punktberechnung mittels Triangulation erfolgen kann und Mehrdeutigkeiten bei der Zuordnung korrespondierender Punkte in den beiden Kamerabildern ausgeschlossen werden können. Dabei wird dieselbe Robustheit und Genauigkeit der Punktzuordnung wie bei einem vergleichbaren herkömmlichen Verfahren realisiert und gleichzeitig die notwendige Anzahl projizierter Muster so reduziert, dass keine zusätzlichen Bilder zur phasenverschobenen (1 + cos)-Mustersequenz projiziert werden müssen.
  • Die Vorrichtung aus 1 ist in 2 noch einmal in einer Weise dargestellt, in der die Relativanordnung der zwei Kameras 1 und 2 und des Projektors 3 und die diese Anordnung charakterisierenden geometrischen Größen besser zu erkennen sind. Dabei sind einige Komponenden der Vorrichtung in 2 der Übersichtlichkeit halber weggelassen. Alle wiederkehrenden Merkmale sind dort wieder mit den gleichen Bezugszeichen versehen. Die in den 1 und 2 dargestellte Vorrichtung zur Erzeugung und Auswertung der notwendigen Bilddaten ist durch eine feste Anordnung des Projektors 3 zur Projektion phasenverschobener (1 + cos)-Muster und der zwei Kameras 1, 2 gekennzeichnet. Dabei wird von den Kameras 1, 2 ein bestimmtes Messvolumen (MV) beobachtet, welches von der Projektionseinheit vollständig ausgeleuchtet wird.
  • Die Vorrichtung wird durch ein geeignetes Verfahren kalibriert, so dass alle inneren und äußeren Kameraparameter (inklusive der Projektorparameter sowie der Verzeichnung der optischen Komponenten) bekannt sind. Der mit der Vorrichtung durchgeführte Bildaufnahmeprozess liefert eine Bildsequenz von phasenverschobenen (1 + cos)-Mustern (typischerweise mit einer Anzahl von 3, 4, 6, 8 oder 16 Lichtmustern). Aus der (1 + cos)-Sequenz wird pro Kamera mit bekannten Phasenauswerteverfahren ein Rohphasenbild erzeugt. Aus den Rohphasenbildern und den zusätzlich vorhandenen Geometriedaten der Vorrichtung erfolgt die Berechnung der 3D-Oberflächenpunkte durch das aus der Photogrammetrie hinreichend bekannte Verfahren der Triangulation.
  • Input des Verfahrens sind die durch Kalibrierung durch ein übliches Kalibrierverfahren erhaltenen Geometriedaten der mindestens drei optischen Komponenten (innere und äußere Kameraparameter, Verzeichnung) und die aus der Streifenprojektionstechnik aus der (1 + cos)-Muster-Bildsequenz berechneten Rohphasenbilder. Ziel des Verfahrens ist die Realisierung der korrekten Zuordnung der subpixelgenauen Lage eines Bildpunktes im Kamerabild der Kamera 2 zu einem gegebenen Bildpunkt im Bild der Kamera 1, wobei hierfür die Epipolargeometrie und die Kalibrierdaten des Projektors 3 benutzt werden.
  • Die Streifenmuster oder (1 + cos)-Muster werden in einer Projektionsrichtung annähernd orthogonal (maximale Abweichung ca. 10°) zur Epipolarlinienrichtung der Hauptstrahlen projiziert. Die Geometriedaten des durch den Projektor 3 und die zwei Kameras 1, 2 gebildeten Sensors (innere und äußere Kameraparameter der beteiligten optischen Komponenten, inklusive Verzeichnung) sind durch ein geeignetes Kalibrierverfahren hinreichend genau bestimmt. Es wird nur eine Hauptprojektionsrichtung oder Sensorausrichtung verwendet. Die Suche korrespondierender Punkte in den beiden Kamerabildern wird eindimensional unter Verwendung der Epipolargeometrie realisiert. Das Ziel des Verfahrens ist die Identifikation und subpixelgenaue Lokalisierung von m korrespondierenden Bildpunkt-Koordinatenpaaren in den beiden Kamerabildern. Es können alternativ verschiedene Algorithmen zur Bestimmung der Phasenlage unter Verwendung von beispielsweise zwischen drei und sechzehn phasenverschobenen (1 + cos)-Streifenbildern verwendet werden, aus denen sich ein sogenanntes Rohphasenbild ergibt, welches jedem Kamerabildpunkt einen Phasenwert ψ zwischen 0 und 2π zuordnet. Input des Verfahrens sind zwei Rohphasenbilder ψi (i = 1, 2) sowie die Geometriedaten (Xi, Yi, Zi, ωi, φi, κi) der äußeren und (ci, x0i, y0i) inneren Orientierung und ggf. Operatoren Vi zur Korrektur von Verzeichnungen der beiden Kameras 1, 2 und des Projektors 3 (i = 1, 2, 3). Es erfolgt die Auswahl von n Korrespondenzpunkten in der Primärkamera 1 (z. B. mittlere Pixel jeder Zeile). Daraus ergeben sich n korrespondierende Epipolarlinien, welche den Suchraum für korrespondierende Punktepaare bestimmen.
  • Die Idee des Verfahrens beruht im Wesentlichen auf dem Design der geometrischen Anordnung der drei optischen Komponenten des Sensors in solch einer Weise, dass
    • • die Triangulation (in diesem Falle der Schnitt eines Sehstrahls von einem Bildpunkt mit einer Ebene ausgehend von der Projektor-Bildebene entsprechend des beobachteten Phasenwertes) zwischen der Kamera 1 und der Projektionseinheit 3 zur groben Lokalisierung der zu berechnenden 3D-Punkte durchgeführt wird,
    • • diese Triangulation durch die Wahl eines bestimmtem Triangulationswinkels zwischen den Hauptstrahlen von Kamera 1 und Projektor 3 und einem vorgegebenen Messvolumen eindeutig ist,
    • • die grobe Lokalisierung der zu berechnenden 3D-Punkte verwendet wird, so dass aus mehreren Kandidaten von Bildpunkten aus Kamera 2 der korrekte korrespondierende Punkt gefunden wird, und
    • • die Triangulation zur genauen 3D-Punktberechnung zwischen den Sehstrahlen der als korrekt erkannten korrespondierenden Bildpunkte aus Kamera 1 und Kamera 2 durchgeführt wird.
  • Um diese Vorgehensweise zu ermöglichen, wird folgende Anforderung an das System gestellt:
    • • Das Messvolumen MV ist begrenzt und wird ohne Beschränkung der Allgemeinheit (o. B. d. A.) als konvexer prismatischer Körper bzw. dessen umschreibender Quader im Weltkoordinatensystem definiert.
  • Der Algorithmus zum Erreichen einer eindeutigen Punktkorrespondenzfindung und 3D-Punktberechnung für die Punkte p aus dem Kamerabild der Kamera 1 ist folgender:
    • • Es werden die Parameter τCP (Triangulationswinkel zwischen den Hauptstrahlen von Kamera 1 und Projektor 3), Anzahl N bzw. Periodenlänge λN der projizierten Streifen und Messvolumentiefe mvt so gewählt, dass jeder beobachtete Rohphasenwert im festgelegten Messvolumen MV eindeutig ist, d. h. eindeutig einem verstetigten Phasenwert zugeordnet werden kann.
    • • Die Triangulation zwischen einem Kamerapunkt und dem korrespondierenden Projektorpunkt (bzw. der Projektorspalte) wird durchgeführt, um einen groben Messwert M zu erhalten.
    • • Auf der zum Punkt p und durch die Kalibrierdaten eindeutig bestimmten korrespondierenden Epipolarlinie werden alle zu p potenziell korrespondierenden Punkte qi (entsprechend der beobachteten Rohphasenwerte) auf dem durch die Messvolumenlage bestimmten Abschnitt s zur Berechnung potenzieller 3D-Punkte m1, ..., mn verwendet.
    • • Alle mi werden mit M verglichen; dasjenige mi mit dem kleinsten euklidischen Abstand zu M ist der gesuchte korrekte 3D-Punkt.
  • Alle wichtigen Parameter der Vorrichtung können wie folgt bestimmt werden.
  • Der Chip der Projektionseinheit 3 habe eine Pixelgröße von dx × dy Pixeln mit einer o. B. d. A. quadratischen Pixelgröße von pps × pps mm. Die Kamerakonstante des Projektors 3 sei cp. Das Projektionszentrum OP des Projektors 3 liege o. B. d. A. im Ursprung des Weltkoordinatensystems WKS. Das Messvolumen MV ist o. B. d. A. ein Quader der Breite mvb, der Höhe mvh und der Tiefe mvt und sei im WKS o. B. d. A. parallel zu den Koordinatenachsen ausgerichtet. Die Breite des Messvolumen-Quaders (von der Richtung des Sensorkopfs her betrachtet) sei größer als seine Höhe. Zur Vereinfachung betrachten wir die gesamte Geometrie o. B. d. A. in nur einer Raumebene, und zwar in der durch Z = 0 definierten Ebene.
  • Die Kameras 1 und 2 seien durch die Parameter Chipgröße dxc × dyc (in Pixeln) und der o. B. d. A. quadratischen Pixelgröße cps gekennzeichnet. Die Kamerakonstanten der Kameras 1 und 2 seien durch cc1 und cc2 gegeben. O. B. d. A. liegen die Projektionszentren O1, O2 und OP der drei optischen Komponenten in der durch Y = 0 definierten Raumebene E0. (Dies ist keine Einschränkung des allgemeinen Falls. Sollte es aus designtechnischen Gründen erforderlich sein, das Projektionszentrum OP des Projektors 3 aus dieser Ebene herauszunehmen, werden die Parameter cp und pps entsprechend angepasst.)
  • Die Parameter mvb und mvh seien konstant (entsprechend den Parametern cc1 und cc2, dxc, dyc und der Basislänge bcc zwischen den beiden Kameras 1, 2 sowie dem Schnittpunkt MVC der Hauptstrahlen im Zentrum des Messvolumens), wogegen die Messvolumentiefe mvt zunächst als variabel betrachtet wird.
  • Der Messvolumenquader befindet sich in der Entfernung dmax bis dmin von der Referenzebene E0 und die Messvolumentiefe beträgt entsprechend mvt = dmax – 4 dmin. Es sei dmean = ½(dmax + dmin).
  • Entsprechend der gewählten Anordnung entspricht die Entfernung d jeweils der Y-Koordinate: dmin = Ymin, dmean = Ymean, dmax = Ymax.
  • Die Messvolumenbreite mvb ist typischerweise geringfügig kleiner als das von beiden Kameras 1, 2 beobachtete und vom Projektor 3 ausgeleuchtete Feld in der Entfernung dmin und ergibt sich aus der Spaltenzahl des Kamerachips 8 bzw. 9, der Pixelgröße, der Entfernung dmin und der Kamerakonstante cp.
  • Es sei b die Basislänge zwischen Kamera 1 und dem Projektor 3. Entsprechend den bisherigen Vereinbarungen liegt das Projektionszentrum von Kamera 1 o. B. d. A. bei (–b, 0, 0). Der Haupt-Triangulationswinkel τCP zwischen den Hauptstrahlen von Kamera 1 und Projektor 3 sei als Haupttriangulationswinkel bezeichnet. Der tatsächliche Triangulationswinkel einer 3D-Punktberechnung variiert zwischen τmin und τmax und hängt von τCP, der Größe und dem Abstand des Messvolumens MV ab.
  • Der Haupt-Triangulationswinkel τCP ergibt sich aus der Basislänge b, d. h. dem Abstand der Projektionszentren O1 und OP, und der mittleren Messvolumenentfernung dmean, während τmin und τmax von der Gesamtlage des Messvolumens abhängen.
  • Es sei nλ die Anzahl der Pixel auf dem das bildgebende Element 6 bildenden Projektorchip, die eine (1 + cos)-Periode erzeugen und λ die korrespondierende metrische Periodenlänge auf dem Projektorchip, so dass nλ = λ·pps gilt. N sei die Anzahl der projizierten Streifen, und es gilt N = dx/nλ.
  • Jeder Punkt im Messvolumen ist einem spezifischen Phasenwert φ zugeordnet.
  • Zwischen der Messvolumentiefe mvt, der projizierten Streifenanzahl N und dem Haupttriangulationswinkel besteht ein annähernd proportionaler Zusammenhang. Je nachdem, welche beiden der drei Größen vorgegeben sind, ergeben sich drei typische Anwendungsfälle, die im Folgenden betrachtet und für die die entsprechenden Berechnungsformeln angegeben werden.
  • Bestimmung des Haupt-Triangulationswinkels τCP
  • Es sei die Messvolumentiefe mvt gegeben und die Streifenperiodenlänge λ (bzw. N, nλ) ausgewählt. Es soll eine eindeutige Zuordnung jedes gemessenen Rohphasenwertes φw zum absoluten Phasenwert φ erfolgen. Das heißt, jeder beliebige von einem Bildpunkt von Kamera 1 ausgehende Sehstrahl r darf innerhalb des Messvolumens MV nur maximal eine Streifenperiode schneiden. Der Haupt-Triangulationswinkel τCP wie auch die Triangulationswinkel τmin und τmax können unter Verwendung der Parameter Messvolumengröße, Anzahl der in das Messvolumen MV projizierten Streifen, den Kamerakonstanten cp und cc, sowie dem Abstand des Messvolumens MV vom Projektionszentrum OP berechnet werden.
  • Bestimmung von N und nλ
  • Wenn die Größen mvt und τCP gegeben bzw. gewählt sind, wird für eine eindeutige Zuordnung die maximal mögliche Anzahl Nmax zu projizierender Streifen berechnet, die sich aus Lage und Größe des Messvolumens und der Basislänge ergibt. Ausgehend von Nmax ergibt sich die tatsächlich projizierte Streifenanzahl N als nächstkleinere Zweierpotenz. Entsprechend ergibt sich für nλ die Beziehung nλ = dx/N.
  • Bestimmung von mvt
  • Wenn nλ und τCP gegeben bzw. ausgewählt sind, wird aus den restlichen Parametern die maximal mögliche Messvolumentiefe mvt bestimmt.
  • Entsprechend den Ausführungen in den vorangegangenen Absätzen wird die Messanordnung für einen optischen, auf Streifenprojektionstechnik basierenden Sensor so gewählt, dass
    • • für eine gegebene Streifenbreite und eine gegebenes maximale Messvolumentiefe mvt der maximale Haupt-Triangulationswinkel τCP,
    • • für eine gegebene Messvolumentiefe mvt und einen Haupttriangulationswinkel τCP die maximale Anzahl von Streifen (bzw. entsprechend die minimal mögliche Streifenperiodenlänge) oder
    • • für eine gegebene Streifenbreite und einen Haupttriangulationswinkel TCP die maximale Messvolumentiefe
    bestimmt werden können.
  • Zu beachten ist hierbei, dass die Messgenauigkeit proportional zur Anzahl der projizierten Streifen ist, so dass ein möglichst kleines nλ gewünscht ist, wobei entsprechend den übrigen Systemparametern eine untere Schranke für nλ gegeben ist, beispielsweise typischerweise durch nλ ≥ 8.
  • Zu beachten ist außerdem, dass der minimale Triangulationswinkel τmin eine bestimmt Mindestgröße nicht unterschreiten darf. Theoretisch muss τmin > 0 gelten, jedoch ist ein bestimmter, den zu erwartenden Messungenauigkeiten geschuldeter Schwellwert thr mit τmin > thr sinnvoll, beispielsweise thr = 0.5°.
  • Bei Beobachtung von Punkten außerhalb des Messvolumens kann es vorkommen, dass falschpositive 3D-Messwerte generiert werden. Diese können a-posteriori durch ein geeignetes Verfahren als Ausreißer detektiert und aus der Menge der Ergebnis-Punktwolke entfernt werden.
  • Eine Möglichkeit zur vollständigen Vermeidung falschpositiver Messwerte besteht in der physischen Einschränkung gemessener Objektpunkte auf das tatsächliche Messvolumen, z. B. durch Anbringung schwarzer Bereiche außerhalb des Messvolumens. An diesen Orten werden dann keine Messwerte erfasst, so dass die Vermeidung der Erzeugung von Phasenwerten für Punkte außerhalb des Messvolumens erzwungen werden kann. Das in 2 dargestellte Messvolumen MV kann dazu seitlich und oder an einer dem Sensorkopf abgewandten Seite durch in den Figuren nicht eigens dargestellte gegenständliche Barrieren begrenzt sein.
  • Das beschriebene Verfahren lässt sich auch anwenden, wenn statt der (1 + cos)-Muster andere Muster mit strukturierter Beleuchtung verwendet werden. So kann es sich bei den Lichtmustern auch z. B. um statistische Muster, vorzugsweise bandbreitenbegrenzte statistische Muster, handeln. Entscheidendes Kriterium hierbei ist, dass die Geometrie der Anordnung so gewählt wird, dass eine Einschränkung des Suchbereiches für korrespondierende Punkte im Kamerabild von Kamera 2 zu gegebenen Punkten von Kamera 1 so realisiert wird, dass das projizierte Muster in diesem Bereich eindeutig ist, d. h. der Ursprung des Musters in diesem eindeutigen Bereich im Kamerabild von Kamera 1 auf dem Projektorchip eindeutig zurückverfolgt werden kann, so dass eine eindeutige Triangulation zwischen Kamera 3 und Projektor 3 durchgeführt werden kann.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10149750 A1 [0002]

Claims (15)

  1. Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen, umfassend einen Projektor (3) zum Projizieren von Lichtmustern auf eine zu vermessende Oberfläche (5), eine erste Kamera (1) und eine zweite Kamera (2) zum Aufnehmen von Bildern der Oberfläche (5) mit den darauf projizierten Lichtmustern sowie eine Steuer- und Auswerteeinheit (4) zum Ansteuern des Projektors (3) und zum Auswerten der aufgenommenen Bilder in Abhängigkeit von den projizierten Lichtmustern, wobei die Steuer- und Auswerteeinheit (4) eingerichtet ist, folgende Schritte auszuführen: – Auslösen einer Projektion einer Folge von Lichtmustern durch den Projektor (3), – Identifizieren einander korrespondierender Bildpunkte (14, 15) in einer Bildebene der ersten Kamera (1) und in einer Bildebene der zweiten Kamera (2) durch Vergleichen von in den Bildpunkten (14, 15, 15') der beiden Kameras (1, 2) während des Projizierens der Folge von Lichtmustern erfassten Folgen von Helligkeitswerten, – Berechnen von Raumkoordinaten von Objektpunkten (12) auf der Oberfläche (5) durch Triangulieren auf Basis der als einander korrespondierend identifizierten Bildpunkte (14, 15) in den Bildebenen der Kameras (1, 2), dadurch gekennzeichnet, dass die Steuer- und Auswerteeinheit (4) eingerichtet ist, zum Identifizieren der korrespondierenden Bildpunkte (14, 15) in den Bildebenen der Kameras (1, 2) außerdem folgende Schritte auszuführen: – Identifizieren jeweils einer korrespondierenden Projektionsrichtung des Projektors (3) für jeden einer Mehrzahl von Bildpunkten (14) in der Bildebene der ersten Kamera (1) durch Vergleichen der in den Bildpunkten (14) der ersten Kamera (1) erfassten Folgen von Helligkeitswerten mit Helligkeitswerten, die durch die Folge von Lichtmustern für verschiedene Projektionsrichtungen des Projektors (3) definiert sind, – Berechnen von Grobkoordinaten der Objektpunkte (12) auf der Oberfläche (5) durch Triangulieren auf Basis der Bildpunkte (14) in den Bildebene der ersten Kamera (1) und der als dazu korrespondierend identifizierten Projektionsrichtungen des Projektors (3), – Auflösen einer beim Vergleichen der in den Bildpunkten (14, 15, 15') der beiden Kameras (1, 2) erfassten Folgen von Helligkeitswerten verbleibende Mehrdeutigkeit durch Prüfen, ob Raumkoordinaten, die sich durch Triangulieren auf Basis von als möglicherweise einander korrespondierend identifizierten Bildpunkten (14, 15, 15') in den Bildebenen der Kameras (1, 2) ergeben, mit den Grobkoordinaten kompatibel sind.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Steuer- und Auswerteeinheit (4) eingerichtet ist, beim Berechnen der Grobkoordinaten durch Einhalten einer Nebenbedingung jeweils zu einem eindeutigen Ergebnis zu kommen, wobei die Nebenbedingung verlangt, dass der durch die Grobkoordinaten definierte Objektpunkt (12) innerhalb eines vorgegebenen begrenzten Messvolumens (MV) liegt.
  3. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass das begrenzte Messvolumen (MV) durch gegenständliche Barrieren begrenzt ist.
  4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Steuer- und Auswerteeinheit (4) eingerichtet ist, zum Identifizieren der korrespondierenden Bildpunkte (14, 15) in den Bildebenen der Kameras (1, 2) für jeden der genannten Mehrzahl von Bildpunkten in der Bildebene der ersten Kamera (1) jeweils folgende Schritte auszuführen: – Bestimmen mehrerer Bildpunkte (15, 15') in der Bildebene der zweiten Kamera (2) als Kandidaten für den zum jeweiligen Bildpunkt (14) in der Bildebene der ersten Kamera (1) korrespondierenden Bildpunkt (15) durch Vergleichen von in den Bildpunkten (14, 15, 15') der beiden Kameras (1, 2) während des Projizierens der Folge von Lichtmustern erfassten Folgen von Helligkeitswerten, – Berechnen von Raumkoordinaten für jeden der genannten Kandidaten durch Triangulieren auf Basis des jeweiligen Bildpunkts (14) in der Bildebene der ersten Kamera (1) und des Kandidaten in der Bildebene der zweiten Kamera (2), – Identifizieren des zum jeweiligen Bildpunkt (14) in der Bildebene der ersten Kamera (1) korrespondierenden Bildpunkts (15) in der Bildebene der zweiten Kamera (2) durch Auswahl des Kandidaten, der sich dadurch auszeichnet, dass die auf Basis dieses Kandidaten und des jeweiligen Bildpunkts (14) in der Bildebene der ersten Kamera (1) berechneten Raumkoordinaten innerhalb einer Messungenauigkeiten berücksichtigenden Umgebung der durch Triangulieren auf Basis des jeweiligen Bildpunkts (14) in der Bildebene der ersten Kamera (1) und der dazu korrespondierenden Projektionsrichtung des Projektors (3) berechneten Grobkoordinaten liegt.
  5. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Steuer- und Auswerteeinheit (4) eingerichtet ist, – zum Identifizieren der einander korrespondierenden Bildpunkte (14, 15) in den Bildebenen der zwei Kameras (1, 2) jeweils nur Bildpunkte (15, 15') auf einer durch den jeweiligen Bildpunkt (14) in der Bildebene der ersten oder zweiten Kamera (1, 2) vorgegebenen Epipolarlinie (17) in der Bildebene der zweiten bzw. ersten Kamera (2, 1) zu prüfen und – zum Identifizieren der zu den Bildpunkten (14) in der Bildebene der ersten Kamera (1) korrespondierenden Projektionsrichtungen jeweils nur Bildpunkte (14) auf einer durch die jeweilige Projektionsrichtung vorgegebenen Epipolarlinie (16) zu prüfen oder jeweils nur Projektionsrichtungen in einer durch den jeweiligen Bildpunkt (14) in der Bildebene der ersten Kamera (1) vorgegebenen Epipolarebene zu prüfen.
  6. Vorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Folge von Lichtmustern gegeneinander phasenverschobene Streifenmuster sind, wobei die Steuer- und Auswerteeinheit (4) eingerichtet ist, den Bildpunkten (14, 15, 15') und Projektionsrichtungen jeweils einen für den jeweiligen Bildpunkt (14, 15, 15') oder die jeweilige Projektionsrichtung durch die Folge von Streifenmustern vorgegebenen Phasenwert zuzuordnen und jeweils Bildpunkte (14, 15, 15') und Projektionsrichtungen gleicher Phasenwerte als einander korrespondierend oder möglicherweise korrespondierend zu erkennen.
  7. Vorrichtung nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass der Projektor (3) zwischen den beiden Kameras (1, 2) angeordnet ist, wobei ein Abstand zwischen objektseitigen Projektionszentren (O1, O2) der beiden Kameras (1, 2) doppelt so groß oder mehr als doppelt so groß ist wie ein Abstand (b) zwischen dem objektseitigen Projektionszentrum (O1) der ersten Kamera (1) und einem Projektionszentrum (OP) des Projektors (3).
  8. Vorrichtung nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass der Projektor (3) ein bildgebendes Element (6) zum Generieren der Lichtmuster aufweist, wobei die Projektionsrichtungen durch Bildpunkte (13) in einer durch das bildgebende Element (6) aufgespannten Ebene vorgegeben sind und jeweils einem dieser Bildpunkte (13) des Projektors (3) entsprechen.
  9. Verfahren zum berührungslosen Vermessen von Oberflächenkonturen, umfassend folgende Schritte: – Projizieren einer Folge von Lichtmustern mit einem Projektor (3) auf eine zu vermessende Oberfläche (5), – Aufnehmen von Bildern der Oberfläche (5) mit den darauf projizierten Lichtmustern mit einer erste Kamera (1) und einer zweiten Kamera (2), – identifizieren einander korrespondierender Bildpunkte (14, 15) in einer Bildebene der ersten Kamera (1) und in einer Bildebene der zweiten Kamera (2) durch Vergleichen von in den Bildpunkten (14, 15, 15') der beiden Kameras (1, 2) während des Projizierens der Folge von Lichtmustern erfassten Folgen von Helligkeitswerten, – Berechnen von Raumkoordinaten von Objektpunkten (12) auf der Oberfläche (5) durch Triangulieren auf Basis der als einander korrespondierend identifizierten Bildpunkte (14, 15) in den Bildebenen der Kameras (1, 2), dadurch gekennzeichnet, dass zum Identifizieren der korrespondierenden Bildpunkte (14, 15) in den Bildebenen der Kameras (1, 2) außerdem folgende Schritte ausgeführt werden: – identifizieren jeweils einer korrespondierenden Projektionsrichtung des Projektors (3) für jeden einer Mehrzahl von Bildpunkten (14) in der Bildebene der ersten Kamera (1) durch Vergleichen der in den Bildpunkten (14) der ersten Kamera (1) erfassten Folgen von Helligkeitswerten mit Helligkeitswerten, die durch die Folge von Lichtmustern für verschiedene Projektionsrichtungen des Projektors (3) definiert sind, – Berechnen von Grobkoordinaten der Objektpunkte (12) auf der Oberfläche (5) durch Triangulieren auf Basis der Bildpunkte (14) in der Bildebene der ersten Kamera (1) und der als dazu korrespondierend identifizierten Projektionsrichtungen des Projektors (3), – Auflösen einer beim Vergleichen der in den Bildpunkten (14, 15, 15') der beiden Kameras (1, 2) erfassten Folgen von Helligkeitswerten verbleibende Mehrdeutigkeit durch Prüfen, ob Raumkoordinaten, die sich durch Triangulieren auf Basis von als möglicherweise einander korrespondierend identifizierten Bildpunkten (14, 15, 15') in den Bildebenen der Kameras (1, 2) ergeben, mit den Grobkoordinaten kompatibel sind.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass das Identifizieren der zu den Bildpunkten (14) in der Bildebene der ersten Kamera (1) korrespondierenden Projektionsrichtungen und damit das Berechnen der Grobkoordinaten jeweils dadurch zu einem eindeutigen Ergebnis führt, dass eine Nebenbedingung eingehalten wird, wobei diese Nebenbedingung verlangt, dass der durch die Grobkoordinaten definierte Objektpunkt (12) innerhalb eines vorgegebenen begrenzten Messvolumens (MV) liegt.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die ermittelten Raumkoordinaten einer Stetigkeitsprüfung und/oder einer anderen weiteren Prüfung unterzogen werden, um fehlerhafte Raumkoordinaten, die auf durch Objektpunkte außerhalb des vorgegebenen Messvolumens (MV) verursachten Fehlberechnungen beruhen, zu identifizieren, wobei die fehlerhaften Raumkoordinaten gelöscht werden.
  12. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass zum Identifizieren der korrespondierenden Bildpunkte (14, 15) in den Bildebenen der Kameras (1, 2) für jeden der genannten Mehrzahl von Bildpunkten (14) in der Bildebene der ersten Kamera (1) jeweils folgende Schritte ausgeführt werden: – Bestimmen mehrerer Bildpunkte (15, 15') in der Bildebene der zweiten Kamera (2) als Kandidaten für den zum jeweiligen Bildpunkt (14) in der Bildebene der ersten Kamera (1) korrespondierenden Bildpunkt durch Vergleichen von in den Bildpunkten der beiden Kameras (1, 2) während des Projizierens der Folge von Lichtmustern erfassten Folgen von Helligkeitswerten, – Berechnen von Raumkoordinaten für jeden der genannten Kandidaten durch Triangulieren auf Basis des jeweiligen Bildpunkts (14) in der Bildebene der ersten Kamera (1) und des Kandidaten in der Bildebene der zweiten Kamera (2), – Identifizieren des zum jeweiligen Bildpunkt (14) in der Bildebene der ersten Kamera (1) korrespondierenden Bildpunkts (15) in der Bildebene der zweiten Kamera (2) durch Auswahl des Kandidaten, der sich dadurch auszeichnet, dass die auf Basis dieses Kandidaten und des jeweiligen Bildpunkts (14) in der Bildebene der ersten Kamera (1) berechneten Raumkoordinaten innerhalb einer Messungenauigkeiten berücksichtigenden Umgebung der durch Triangulieren auf Basis des jeweiligen Bildpunkts (14) in der Bildebene der ersten Kamera (1) und der dazu korrespondierenden Projektionsrichtung des Projektors (3) berechneten Grobkoordinaten liegt.
  13. Verfahren nach einem der Ansprüche 9 bis 11, dadurch gekennzeichnet, dass zum Identifizieren der einander korrespondierenden Bildpunkte (14, 15) in den Bildebenen der zwei Kameras (1, 2) jeweils nur Bildpunkte (15, 15') auf einer durch den jeweiligen Bildpunkt in der Bildebene der ersten oder zweiten Kamera (1, 2) vorgegebenen Epipolarlinie (17) in der Bildebene der zweiten bzw. ersten Kamera (2, 1) geprüft werden und dass zum Identifizieren der zu den Bildpunkten (14) in der Bildebene der ersten Kamera (1) korrespondierenden Projektionsrichtungen jeweils nur Bildpunkte (14) auf einer durch die jeweilige Projektionsrichtung vorgegebenen Epipolarlinie (16) oder jeweils nur Projektionsrichtungen in einer durch den jeweiligen Bildpunkt (14) in der Bildebene der ersten Kamera (1) vorgegebenen Epipolarebene geprüft werden.
  14. Verfahren nach einem der Ansprüche 9 bis 12, dadurch gekennzeichnet, dass die Folge von Lichtmustern gegeneinander phasenverschobene Streifenmuster sind, wobei den Bildpunkten (14, 15, 15') und Projektionsrichtungen jeweils ein für den jeweiligen Bildpunkt (14, 15, 15') oder die jeweilige Projektionsrichtung durch die Folge von Streifenmustern vorgegebener Phasenwert zugeordnet wird und jeweils Bildpunkte (14, 15, 15') und Projektionsrichtungen gleicher Phasenwerte als einander korrespondierend oder möglicherweise korrespondierend erkannt werden.
  15. Verfahren nach einem der Ansprüche 9 bis 13, dadurch gekennzeichnet, dass die Lichtmuster auf einem bildgebenden Element (6) des Projektors (3) generiert werden, wobei die Projektionsrichtungen durch Bildpunkte (13) in einer durch das bildgebende Element (6) aufgespannten Ebene vorgegeben sind und jeweils einem dieser Bildpunkte (13) des Projektors (3) entsprechen, so dass das Identifizieren der zu den Bildpunkten (14) in der Bildebene der ersten Kamera (1) korrespondierenden Projektionsrichtungen durch ein Identifizieren von einender korrespondierenden Bildpunkten (14, 13) in der Bildebenen der ersten Kamera (1) und in der Bildebene des Projektors (3) erfolgt, indem die in den Bildpunkten (14) der ersten Kamera (1) erfassten Folgen von Helligkeitswerten mit Helligkeitswerten verglichen werden, die durch die Folge von Lichtmustern für verschiedene Bildpunkte (13) auf dem bildgebenden Element (6) des Projektors (3) definiert sind.
DE102013208466.8A 2013-05-08 2013-05-08 Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen Active DE102013208466B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102013208466.8A DE102013208466B4 (de) 2013-05-08 2013-05-08 Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102013208466.8A DE102013208466B4 (de) 2013-05-08 2013-05-08 Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen

Publications (2)

Publication Number Publication Date
DE102013208466A1 true DE102013208466A1 (de) 2014-11-13
DE102013208466B4 DE102013208466B4 (de) 2016-01-14

Family

ID=51787531

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102013208466.8A Active DE102013208466B4 (de) 2013-05-08 2013-05-08 Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen

Country Status (1)

Country Link
DE (1) DE102013208466B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10643343B2 (en) 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4130237A1 (de) * 1991-09-11 1993-03-18 Zeiss Carl Fa Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von objektoberflaechen
DE10149750A1 (de) 2001-03-09 2002-09-19 Tecmath Ag Handgeführter 3D-Scanner
US20070211258A1 (en) * 2006-03-07 2007-09-13 Korea Advanced Institute Of Science And Technology Three-dimensional shape measurement apparatus and method for eliminating2pi ambiguity of moire principle and omitting phase shifting means
DE102007022361A1 (de) * 2007-05-04 2008-11-06 Friedrich-Schiller-Universität Jena Vorrichtung und Verfahren zum berührungslosen Erfassen räumlicher Koordinaten einer Oberfläche

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4130237A1 (de) * 1991-09-11 1993-03-18 Zeiss Carl Fa Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von objektoberflaechen
DE10149750A1 (de) 2001-03-09 2002-09-19 Tecmath Ag Handgeführter 3D-Scanner
US20070211258A1 (en) * 2006-03-07 2007-09-13 Korea Advanced Institute Of Science And Technology Three-dimensional shape measurement apparatus and method for eliminating2pi ambiguity of moire principle and omitting phase shifting means
DE102007022361A1 (de) * 2007-05-04 2008-11-06 Friedrich-Schiller-Universität Jena Vorrichtung und Verfahren zum berührungslosen Erfassen räumlicher Koordinaten einer Oberfläche

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
C. Bräuer-Burchardt et al.; "Phase unwrapping using geometric constraints for high-speed fringe projection based 3D measurements"; Proc. SPIE 8789, Modeling Aspects in Optical Metrology IV, 2013, S. 878906-1 - 10 *
C. Bräuer-Burchardt et al.; "Phase unwrapping using geometric constraints for high-speed fringe projection based 3D measurements"; Proc. SPIE 8789, Modeling Aspects in Optical Metrology IV, 2013, S. 878906-1 – 10
P. Kühmstedt et al.; "3D shape measurement with phase correlation based fringe projection"; Proc. SPIE 6616, Optical Measurement Systems for Industrial Inspection V, 2007, S. 66160B1 - 9 *
P. Kühmstedt et al.; "3D shape measurement with phase correlation based fringe projection"; Proc. SPIE 6616, Optical Measurement Systems for Industrial Inspection V, 2007, S. 66160B1 – 9
R. Ishiyama et al.; "Absolute phase measurements using geometric constraints between multiple cameras and projectors"; Appl. Opt. 46, 2007, S. 3528 – 3538
R. Ishiyama et al.; "Absolute phase measurements using geometric constraints between multiple cameras and projectors"; Appl. Opt. 46, 2007, S. 3528 - 3538 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10643343B2 (en) 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras

Also Published As

Publication number Publication date
DE102013208466B4 (de) 2016-01-14

Similar Documents

Publication Publication Date Title
DE112010005008B4 (de) System und Verfahren zur Bestimmung von Kamerafehlkalibrierung im Laufzeitbetrieb
EP2273229B1 (de) Verfahren zur Bestimmung der 3D-Koordinaten eines Objekts
EP3195256B1 (de) Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
WO2017220598A1 (de) Verfahren zur dreidimensionalen vermessung bewegter objekte bei einer bekannten bewegung
DE102006049695A1 (de) Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
DE112014001470T5 (de) Diagnostizierung einer Mehrwegestörung und Entfernung einer Mehrwegestörung bei 3D-Scannern durch angeleitete Sondenuntersuchung
DE19637682B4 (de) Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens
AT506110A1 (de) Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten
DE102009032771B4 (de) Messeinrichtung und Verfahren zum dreidimensionalen optischen Vermessen von Objekten
EP1597539A1 (de) Verfahren und optisches system zur vermessung der topographie eines messobjekts
DE19928341A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
WO1997042464A1 (de) Vorrichtung zum berührungsfreien vermessen einer dreidimensionalen objektoberfläche
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE19634254B4 (de) Optisch-numerisches Verfahren zur Ermittlung der gesamten Oberfläche eines dreidimensionalen Objektes
DE19812609C2 (de) Verfahren zur Bestimmung der Position und Drehlage eines Objektes
DE102013013791A1 (de) Verfahren und Vorrichtung zum berührungslosen Vermessen von Oberflächenkonturen
DE19741392A1 (de) Verfahren zur Korrektur gemessener Entfernungswerte
DE102017116758B4 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
DE102018201692A1 (de) Verfahren zu einer indirekten Abstandsmessung
WO2012048889A1 (de) Vorrichtung und verfahren zur dreidimensionalen bilderfassung
DE19953063A1 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102013208466B4 (de) Vorrichtung und Verfahren zum berührungslosen Vermessen von Oberflächenkonturen
DE102019110729A1 (de) Verfahren zur Ausrichtung mindestens eines Kalibrierkörpers und Vorrichtung zum dreidimensionalen optischen Vermessen von Objekten
WO2016202562A1 (de) Streifenprojetionsverfahren, streifenprojektionsvorrichtung und computerprogrammprodukt

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final