DE102006042311B4 - Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich - Google Patents

Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich Download PDF

Info

Publication number
DE102006042311B4
DE102006042311B4 DE102006042311A DE102006042311A DE102006042311B4 DE 102006042311 B4 DE102006042311 B4 DE 102006042311B4 DE 102006042311 A DE102006042311 A DE 102006042311A DE 102006042311 A DE102006042311 A DE 102006042311A DE 102006042311 B4 DE102006042311 B4 DE 102006042311B4
Authority
DE
Germany
Prior art keywords
mirrors
illumination
sensor
views
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102006042311A
Other languages
English (en)
Other versions
DE102006042311A1 (de
Inventor
Ralf Lampalzer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
3D Shape GmbH
Original Assignee
3D Shape GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 3D Shape GmbH filed Critical 3D Shape GmbH
Priority to DE102006042311A priority Critical patent/DE102006042311B4/de
Priority to US11/851,093 priority patent/US20080074648A1/en
Publication of DE102006042311A1 publication Critical patent/DE102006042311A1/de
Application granted granted Critical
Publication of DE102006042311B4 publication Critical patent/DE102006042311B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zur umfassenden 3D-Messung der Form eines Objektes, basierend auf der Verwendung eines optischen 3D-Sensors mit einer Beobachtungseinrichtung und einer steuerbaren Beleuchtung (6) wobei eine Höhenkarte messbar ist, sowie mit mehreren Spiegeln S1, S2, ..., SN; wobei – im Gesichtsfeld der Beobachtungseinrichtung die Spiegel S1, S2, ..., SN räumlich so angeordnet werden, dass der optische 3D-Sensor mehrere 3D-Ansichten A0, A1, ..., AN des Objektes misst, durch direkte Beobachtung die 3D-Anssicht A0 und durch Beobachtung über die Spiegel Si die 3D-Ansichten Ai; – die Beleuchtung für die 3D-Ansichten Ai jeweils über den Spiegel (Si) erfolgt; – in einem weiteren Verfahrensschritt die 3D-Ansichten Ai aufgrund der bekannten räumlichen Positionen des 3D-Sensors und der Spiegel Si zu einer umfassenden 3D-Ansicht registriert werden; – wobei die steuerbare Beleuchtung (6) des 3D-Sensors so gesteuert wird, dass Spiegel oder Spiegelpaare durch Teilung des Gesichtsfeldes der Beleuchtung nacheinander beleuchtet werden und mindestens ein Paar von Spiegeln so angeordnet wird, dass bei gleichzeitiger Beleuchtung über diese Spiegel kein Punkt auf dem Objekt aus mehreren Richtungen gleichzeitig beleuchtet wird, wobei mindestens ein Paar von Spiegeln so angeordnet wird, dass die Beleuchtungsrichtungen, aus denen das Objekt über die Spiegel dieses Paares beleuchtet wird, annähernd im 180°-Winkel entgegengesetzt zueinander stehen.

Description

  • In vielen Anwendungen in Medizin, Technik und Kunst werden 3D-Sensoren zur dreidimensionalen Erfassung der Form eingesetzt. Beispielhafte Aufgabenstellungen sind: Erfassung von Bauteilen in der Automobilindustrie, Vermessung von Statuen. Beispielhafte medizinische Aufgabenstellungen, bei denen lebende Menschen oder Teile von Menschen erfasst werden, sind: 3D-Erfassung des Kopfes, Erfassung von Gesichtern, von Brüsten, Rücken, Füßen. Beispielhafte Messprinzipien für optische 3D-Sensoren sind Lasertriangulation oder codierte Beleuchtung, etwa mit Streifenprojektion.
  • Ein optischer Sensor führt die Erfassung oder Messung in der Regel nur aus einer Blickrichtung aus. Eine häufige Aufgabenstellung ist aber die Rundum-Vermessung des Objektes oder zumindest die Vermessung aus einem Winkelbereich, der größer ist als derjenige, der sich aus nur einer Ansicht ergibt. („3D-Weitwinkelmessung”). Dieses Problem wird üblicherweise durch Aufnahme des Objektes aus mehreren Richtungen und Zusammensetzen (Registrieren) der verschiedenen Ansichten gelöst. Dabei wird üblicherweise das Objekt oder der Sensor neu positioniert.
  • Eine weitere Anforderung ist es, die benötigte Zeit für einen Messablauf so gering wie möglich zu halten, sowie den Arbeitsschritt einer Neupositionierung einzusparen. Bei Messungen im Medizinbereich ist die schnelle Messung zudem wegen möglicher – auch unwillkürlicher – Bewegung des Menschen erforderlich.
  • Bei manchen Systemen erfolgt die Neupositionierung daher durch eine motorische Bewegung. Das System G-Scan der Fraunhofer-Gesellschaft dient zur Vermessung menschlicher Gesichter, vgl. Produktblatt zum Sensor „gscan”, Fraunhofer Institut für angewandte Optik und Feinmechanik Jena, http://www.iof.fhg.de/departments/optical-systems/_media/g-scan_11_2004_d.pdf. Hier erfolgt weder eine Neupositionierung des Sensors noch des Objektes. Vielmehr erfolgt nur eine virtuelle” Neupositionierung des Sensors, indem ein Spiegel zeitlich nacheinander in vier Positionen gedreht wird und in jeder Position ein Strahlengang entsteht, der mit Hilfe eines jeweils weiteren Spiegels eine neue virtuelle Position des Sensors gegenüber dem Messobjekt (Gesicht) erreicht. Ein Nachteil dieses Systems ist die zwingend sequentielle Abfolge der Messungen, sowie der aufwendige Bewegungsmechanismus der Spiegel. Auch kostet das Umklappen der Spiegel Zeit.
  • Eine weitere Anforderung in Technik und Medizin ist die Vermessung der Textur der Objektoberfläche zusätzlich zur 3D-Form. Die Aufgabe kann teilweise durch Modifikation des 3D-Sensors gelöst werden, etwa durch Verwendung von Farbkameras anstelle von Schwarzweißkameras. Zu jedem Messpixel wird auch Farbinformation gewonnen. Die Firma 3dMD baut ein solches Gerät nach dem Stereoverfahren, vgl. Webseite der Firma 3dMD. 100 Galleria Parkway Suite 1070 Atlanta. GA 30339, USA http://www.3dmd.com/AboutUs/Technology.asp
  • Ebenso gibt es Verfahren zur Erfassung der Textur, die neben dem Sensor eine zusätzliche Farbkamera verwenden. Die Farbkamera wird in der Regel photogrammetrisch zum Sensorkoordinatensystem kalibriert. Nachdem die 3D-Messung erfolgt ist, oder in einer Bildwechselpause wird mit der Farbkamera eine Aufnahme gemacht. Diese wird mathematisch auf die 3D-Daten projiziert („gemappt”) und auf diese Weise wird die Textur berechnet, vgl. Produktblatt zum Sensor „3D-Scanner Trio” der Firma Stiefelmayer-Contento GmbH & Co KG, Hüttenweg 4, 97877 Wertheim, Germany, 2005; http://www.stiefelmayer-contento.de/laser/pdf/flyer-lasersysteme-2005.pdf.
  • Eine mechanische Bewegung des Sensors, des Objektes oder von Spiegeln für die 3D-Weitwinkelmessung benötigt für einige Aufgabenstellungen zu viel Zeit. Beispielsweise saute die Vermessung menschlicher Gesichter in einem Zeitraum von unter einer Sekunde erfolgen, da unwillkürliche Bewegungen zu Messfehlern führen. Besonders alte Menschen, Kinder, Parkinson-Patienten, generell Menschen mit schlechtem Gesundheitszustand können nicht lange ruhig positioniert werden.
  • Weiter erreicht z. B. die Spiegelanordnung des Produktes G-Scan keine Rundum-Vermessung, sondern nur die Vermessung des vorderen Halbraumes um den menschlichen Kopf herum. Das Gerät kann zum Vermessendes Gesichts eingesetzt werden, nicht jedoch zur Vermessung eines vollständigen Kopfes.
  • Drittens ist die Qualität der aufgenommenen Texturen in der Regel gering. Der Einsatz von Farb-Videokameras anstelle von Schwarzweiß-Videokameras bringt eben durch den Einsatz dieser Farbkameras Nachteile: Die Auflösung (Pixelanzahl) dieser Farb-Videokameras ist mäßig weil diese gleichzeitig für fortlaufende schnelle Bildausgabe optimiert sind. Die Qualität der 3D-Messung wird beeinträchtigt.
  • Wenn die Beleuchtung durch das (codierende) Beleuchtungssystem des 3D-Sensors erfolgt, so hat dies den Nachteil, dass dieses Beleuchtungssystem zur Erzeugung einer strukturierten Beleuchtung ausgelegt ist, also mit kleiner Apertur. Aus der Fotografie ist bekannt, dass Aufnahmen mit kleiner Apertur zu Inhomogenitäten und starken lokalen Variationen der beobachteten Objekthelligkeit führen, z. B. durch Abschattung und Reflexen. Die Aufgabenstellung „Erfassung der Objekttextur im 3D--Bild” kann damit nicht gilt gelöst werden, weil die Objekttextur eine möglichst von der Beleuchtung unabhängige Eigenschaft sein sollte, durch die unvollkommene Messung aber stark von der Beleuchtung abhängt.
  • Die Erfindung soll die beschriebenen Probleme lösen: Rundum-Vermessung ohne mechanische Bewegung, zusätzlich die Erfassung einer weitgehend beleuchtungsunabhängigen Farbtextur mit hoher Auflösung. Die Erfindung soll vorzugsweise zur Vermessung menschlicher Köpfe, von Gesichtern und anderen Körperteilen eingesetzt werden, aber auch die 3D-Erfassung von Kunstwerken, Schmuck oder technischen Objekten ist selbstverständlich möglich.
  • Zur Vermessung soll ein optischer 3D-Sensor eingesetzt werden; hierbei kommt vorzugsweise Lasertriangulation, codierte Beleuchtung oder das Stereo-Verfahren in Frage. Zwei dieser Verfahren – Lasertriangulation und codierte Beleuchtung – weisen ein Beleuchtungssystem und ein Beobachtungssystem auf, welche ein gemeinsames Bildfeld haben. Das Stereo-Verfahren weist mindestens zwei Kameras auf, welche ein gemeinsames Bildfeld haben und kann durch aktive Beleuchtung mit Streifenprojektion unterstützt werden. Das jeweils gemeinsame Bildfeld soll als „Bildfeld des 3D-Sensors” bezeichnet werden. Als „Optische Achse des 3D-Sensors” soll eine Achse bezeichnet werden, die in der Mitte der Triangulationsbasis des Sensors beginnt und in der Mitte des Bildfeldes des 3D-Sensors endet. Die Triangulationsbasis ist dabei entweder die Strecke zwischen der Pupille des Beobachtungssystems und der Pupille des Beleuchtungssystems, bei mehreren Beobachtungssytemen und Beleuchtungssystemen gilt die Definition sinngemäß, z. B. wie in dargestellt.
  • Die Druckschrift FR 2 703 932 beschreibt u. a. eine Auswerteeinrichtung zur Registrierung von einzelnen Abtasteinsichten, wie sie etwa in der in der US 5 673 113 beschriebenen Einrichtung erzeugt werden.
  • Die Druckschrift US 2004/0114153 A1 beschreibt ein Verfahren und eine Vorrichtung in denen über Spiegel und gleichzeitige, direkte Messung durch Bewegung des Objekts aus den einzelnen Schnittansichten eine 3-D-Ansicht gewonnen wird.
  • Die Druckschrift DE 197 53 246 A1 beschreibt eine Vorrichtung, in der mehrere Spiegel zur Erzeugung jeweils einer Ansicht verwendet werden.
  • Die Druckschrift US 5 184 733 beschreibt eine Vorrichtung und ein Verfahren, in welchen zwei Ansichten eines transportierten Fisches gleichzeitig als direkte Ansicht und über einen Spiegel gewonnen werden.
  • US 5 673 119 beschreibt eine Analyseeinrichtung zur automatischen Bewertung von Gemüse, wobei eine Abtastung des Objekts mit polarisiertem Licht über Spiegel zur Erzeugung verschiedener Ansichten erfolgt.
  • Es bastelt ein Problem, welches einer erfindungsgemäßen Lösung bedarf, wie in dargestellt. Das Problem besteht darin, dass es Bereiche (5) auf dem Objekt (2) geben kann, in dem sich mehrere Bereiche der codierten Befeuchtung (6) bzw. Abschnitte der Laserlinie überlagern. Es kann sich die direkt aufprojizierte Beleuchtung mit einem oder mehreren der über die Spiegel reflektierten Beleuchtungen überlagern, oder die über die Spiegel reflektierten Beleuchtungen können sich überlagern.
  • Die Aufgabe Wird mit Anspruch 1 gelöst. Ein Merkmal der Erfindung ist, dass das Bildfeld (1) des optischen Sensors aufgeteilt wird. Im Bildfeld sind sowohl das Objekt (2), als auch eine Reihe von Spiegeln, hier beispielhaft (3a), (3b), (3c).
  • Die Teilung des Bildfeldes ermöglicht es, das Objekt (2) in einem Teil des Bildfeldes zu platzieren und in anderen Teilen des Bildfeldes Spiegel (3a, 3b, 3c) zu platzieren, in denen aus der Perspektive des Sensors jeweils andere Blickrichtungen des Objektes sichtbar sind ( ). In einem Teil seines Bildfeldes kann der Sensor eine direkte 3D-Ansicht des Objektes messen. In anderen Teilen des Bildfeldes kann der Sensor virtuelle Spiegelbilder (4a, 4b, 4c) des Objektes messen. Dabei laufen des Beleuchtungsstrahlengang und der Beobachtungsstrahlengang des Sensors jeweils über den gleichen Spiegel. Der Spiegel soll eben sein. Aufgrund der Gesetze der Spiegelung misst der Sensor in diesem Fall eine metrisch korrekte 3D-Ansicht des Objektes aus einer anderen Perspektive. Dies gilt für jeden Winkel, unter dem der Spiegel steht, nicht nur z. B. für 90° oder 45°. Die 3D-Ansicht ist lediglich spiegelverkehrt, dies kann in der nachfolgenden Auswertung korrigiert werden.
  • Da die Lage der Spiegel und des 3D-Sensors bekannt ist, kann aus den virtuellen 3D-Ansichten jeweils die Lage der zugehörigen realen 3D-Ansichten berechnet werden. Diese 3D-Ansichten können gemeinsam mit der direkt gemessenen 3D-Ansicht zu einem vollständigeren 3D-Objekt zusammengesetzt werden. (Registrierung)
  • Erfindungsgemäß wird eine Überlagerung dadurch vermieden, dass die Messung in mehreren zeitlich aufeinanderfolgenden Phasen erfolgt. Im Bildfeld des Beleuchtungssystems wird jeweils nur ein Teil des Bildfeldes beleuchtet. In einer der Phasen wird nur der Teil des Bildfeldes (1) beleuchtet, in dem sich das Objekt (2) befindet. In anderen Phasen wird jeweils ein Spiegel (3a, 3b, 3c) beleuchtet. Die anderen Teile des Bildfeldes müssen dunkelgeschaltet sein. Somit gibt es jeweils nur einen einzigen optischen Weg von der Beleuchtung zum Objekt und es kommt zu keinen Überlagerungen der Beleuchtung aus verschiedenen Richtungen.
  • Zur Realisierung dieser Lösung ist es notwendig, dass die Beleuchtung räumlich vollständig adressierbar ist. Dies ist z. B. bei Verwendung eines Videoprojektors gegeben. Ein System mit Lasertriangulation mit einer durch einen Scannerspiegel aufgezogenen Lichtlinie kann eingesetzt werden, wenn z. B. die Umkehrpunkte der Scannerbewegung gesteuert verändert werden. Eine andere Möglichkeit ist es, die Lichtquelle gesteuert so ein- und auszuschalten, dass nur jeweils die ausgewählten Gesichtsfelder beleuchtet werden.
  • Die Einführung der beschriebenen zeitlich aufeinanderfolgenden Phasen der Messung verlängert zwar die benötigte Zeit für die Messung, jedoch ist zwischen den Phasen keine mechanische Bewegung nötig, so dass weiterhin als erfindungsgemäßer Vorteil ein erheblicher Zeitgewinn bleibt.
  • Eine Beschleunigung der Messung ist mit einer anderen erfindungsgemäßen Lösung möglich: Mit einer besonderen Anordnung der Spiegel können jeweils zwei 3D-Ansichten gleichzeitig vermessen werden. Dies ist dann der Fall, wenn die entsprechenden Teile des Bildfeldes des Beleuchtungssystems gleichzeitig hellgeschaltet werden können ohne dass die dadurch beleuchteten Objektbereiche überlappen.
  • Dies kann z. B. erreicht werden, wenn beide Teile des Bildfeldes der Beleuchtung über einen Spiegel auf das Objekt abgebildet werden und die Richtungsvektoren des einfallenden Lichtes über diese beiden Spiegel annähernd im 180°-Winkel entgegengesetzt zueinander stehen, wie in gezeigt. Aufgrund der Tatsache, dass die Beleuchtung von einem Knotenpunkt (7) ausgeht, entstehen im allgemeinen unbeleuchtete Zonen (8), also sind auch kleine Abweichungen vom 180°-Winkel tolerierbar. Wenn nun das Beobachtungssystem entsprechend zwei Teile des Bildfeldes auswertet, sind beide 3D-Ansichten korrekt.
  • Wenn der Sensor mit diesem Merkmal ausgestattet wird, besteht eine Messung also aus einer Phase mit direkter Messung, mindestens einer Phase mit gleichzeitiger Messung zweier 3D-Ansichten wie beschrieben und möglicherweise weiteren Phasen der Messung einzelner 3D-Ansichten über einen Spiegel.
  • Den erwünschten Effekt, dass verschiedene Teile des Objektes gleichzeitig beleuchtet und gemessen werden können, kann man prinzipiell auch erreichen, indem man die beleuchteten Gesichtsfelder so steuert, daß sie sich nicht überlappen. Dies ist insbesondere möglich, wenn man das Objekt und seine Lage ungefähr kennt. Dann ist es auch nicht notwendig, dass die Beleuchtungsrichtungen zueinander entgegengesetzt gerichtet sind.
  • Eine konkrete Anordnung der Spiegel ist in dargestellt: Es sind zwei Spiegel so angeordnet, dass die direkte 3D-Ansicht eine Frontalansicht des Objektes, in diesem Fall eines menschlichen Kopfes, ergibt und die beiden 3D-Ansichten, die über die zwei Spiegel gemessen werden, jeweils Seitenansichten des Objektes ergeben, aus Richtungen annähernd senkrecht zur Beobachtungsrichtung der direkten Ansicht. Entsprechend stehen die Spiegel, wie in gezeigt, im Winkel von etwa 45° zur optischen Achse des 3D-Sensors. In der sind auch Strahlen 6a, 6b, 6c gezeichnet, die vom Knotenpunkt des Beleuchtungssystems ausgehen. Die Strahlen liegen annähernd in einer horizontalen Ebene. Der Strahl 3a wird vom Spiegel 3a in Richtung zum rechten Ohr des Objektes gelenkt, der Strahl 3b wird vom Spiegel 3b in Richtung zum linken Ohr des Objektes gelenkt. Der Strahl 3e beleuchtet direkt das Objekt.
  • Diese Messgeometrie ist besonders zur Erfassung von Gesichtern gut geeignet. Es kann damit das Gesicht einschließlich der Seiten bis zu den Ohren dreidimensional erfasst werden. Unterhalb der Spiegelkonstruktion kann sich eine Sitzgelegenheit (9) befinden, auf dem die zu vermessende Person (10) sitzt. Die Messung über die Spiegel kann gleichzeitig erfolgen, wie oben beschrieben. Somit erfolgt die Messung in insgesamt zwei oder drei Phasen.
  • Eine weitere konkrete Anordnung der Spiegel ist in dargestellt. Zusätzlich zu den Spiegeln in ist eine weitere 3D-Ansicht für eine Messrichtung senkrecht von oben mit Hilfe eines weiteren Spiegels möglich. Die Messung erfolgt z. B. in drei Phasen: die direkte Messung, die Messung von links und rechts (gleichzeitig), und die Messung von oben. Mit einem weiteren Spiegel könnte man gleichzeitig oder sequentiell auch noch eine Messung von unten durchführen.
  • Diese Messgeometrie ist besonders zur Erfassung von Teilen des menschlichem Kopfes geeignet, z. B. wenn ein Helm angepasst werden soll. Anders als beim Aufbau gemäß sitzt die Person hier in entgegengesetzter Richtung. Der Sensor misst den Kopf der Person von hinten, oben, rechts und links. Die Messung erfolgt in insgesamt drei oder vier Phasen. Im weiteren werden nicht beanspruchte Aspekte beschrieben.
  • Eine nicht beanspruchte möglichkeit betrifft die Prüfung auf Bewegungsartefakte. Bei der Messung von sich unter Umständen bewegenden Objekten, wie z. B. von Menschen, kann mit einem geeigneten Algorithmus nach jeder Phase der Messung geprüft werden, ob die messende Person sich zu stark bewegt hat oder die Daten dieser Phase der Messung aus anderen Gründen (z. B. Fehlfunktion des 3D-Sensors) unbrauchbar sind. Dann kann unmittelbar diese Phase der Messung wiederholt werden, bevor mit der nächsten Phase fortgefahren wird. Dazu werden die Teilbilder jeder Messung auf bekannte Eigenschaften geprüft dargestellt z. B. in K. Creath, „Comparison of Phase Measurement Algorithms”, Proc. of the SPIE 680 (1986).
  • Beim Betrieb solcher Messvorrichtungen ist damit zu rechnen, dass sich die Lage der Spiegel im Laufe der Zeit leicht verändert, etwa wenn ein Patient gegen die Spiegelkonstruktion stößt. Solche kleinen Veränderungen der Spiegel würden dazu führen, dass die Registrierung der 3D-Ansichten im späteren Betrieb nicht mehr exakt funktioniert und sprunghafte Übergänge in Daten der 3D-Weitwinkel-Messung zu erkennen wären. Um dieses Problem zu vermeiden, ist im Betrieb der Messvorrichtung nach der Messung der 3D-Ansichten eine Registrierung der Daten erforderlich, die in die Auswertung integriert wird.
  • Das Konzept der Spiegelkonstruktion kann mit dem Konzept der Drehung des Messobjektes kombiniert werden. So kann ein Messobjekt erst mit Hilfe der Spiegelkonstruktion aus mehreren Richtungen vermessen werden, dann gedreht oder verschoben werden und dann erneut gemessen werden. Der Vorgang kann mehrfach wiederholt werden. Es entstehen mehrere 3D-Weitwinkelansichten, die gegeneinander registriert zu einer umfassenderen 3D-Weitwinkelansicht zusammengefügt werden können. Dies kann insbesondere zur Auffüllung von Löchern (Abschattungen) in der 3D-Ansicht dienen.
  • Neben der 3D-Information kann eine Textur des zu vermessenden Objektes aufgezeichnet werden. Zur Realisierung der Aufzeichnung einer Textur kommen zwei Verfahren in Betracht.
  • Zum einen kann bei Verwendung einer Beleuchtungseinheit des 3D-Sensors mit einer adressierbaren Beleuchtung diese Beleuchtungseinheit so erweitert werden, dass sie das Objekt auch in verschiedenen Farben, vorzugsweise den drei Grundfarben rot, grün, blau beleuchten kann. Zur Realisierung sind Videoprojektoren geeignet. Der Sensor wird weiterhin mit Schwarzweiß-Kameras ausstattet. Das Verfahren hat den Vorteil, dass bei Verwendung eines Videoprojektors oder einer anderen steuerbaren Lichtquelle keine weitere Hardware zur Texturmessung benötigt wird.
  • Durch Projektion der verschiedenen Farben und durch Aufnahme mit der Schwarzweiß-Kamera kann der Farbton pixelweise korrespondierend zu den 3D-Ansichten berechnet werden. Die Teile des Bildfeldes werden den verschiedenen 3D-Ansichten zugeordnet, danach werden diese 3D-Ansichten wie erläutert auseinandergeschnitten und registriert.
  • Das Beleuchtungssystem des 3D-Sensors hat im allgemeinen eine sehr kleine Beleuchtungsapertur. Es wird die sehr geringe Beleuchtungsapertur durch die Spiegelkonstruktion zusätzlich in einer entscheidenden Weise erhöht, weil (zusätzliche) virtuelle Bilder der Beleuchtungseinrichtung entstehen, die einen großen Winkel zur realen Beleuchtungseinrichtung aufweisen (synthetische Apertur). Texturaufnahmen mit höherer Beleuchtungsapertur geben die Textur besser wieder als Aufnahmen mit geringer Apertur. insbesondere wird die Ausleuchtung homogener und es entstehen weniger Schatten und Glanzlichter. Die Helligkeit im beobachteten Bild hängt auch nicht mehr so stark von der lokalen Neigung des betrachteten Flächenelementes ab.
  • Eine weitere und verbesserte Möglichkeit zur Messung einer Textur in Kombination mit der Spiegelkonstruktion besteht darin, in der Nähe des optischen 3D-Sensors eine zusätzliche Farbkamera (14) anzubringen, s. .
  • Wenn der 3D-Sensor auf dem Triangulationsverfahren basiert, ist eine vorteilhafte Position für die Unterbringung der Farbkamera ein Ort in der Nähe der Triangulationsbasis des Triangulationssensors, weil dann durch die Farbkamera der Winkelbereich der Beleuchtungs- und Beobachtungsstrahlen nicht weiter vergrößert wird und man mit kleineren Spiegeln auskommt.
  • Das Bildfeld der Farbkamera soll etwa dem Bildfeld des 3D-Sensors entsprechen. Die Farbkamera kann zur Aufnahme eines einzigen Bildes optimiert sein, nicht notwendig zur Aufzeichnung von Bildsequenzen. Somit können digitale Farb-Fotokameras eingesetzt werden, die eine Auflösung erzielen können, die über die Auflösung der Videokameras der 3D-Messung hinausgeht.
  • Ohnehin sehen die üblichen Softwaremodelle zur Verwaltung texturierter 3D-Daten die Möglichkeit vor, Texturen darzustellen und zu verwalten, die eine höhere Auflösung haben als die 3D-Daten. Nach dem Stand der Technik z. B. ist eine farbige digitale Fotokamera mit 12 Megapixeln verfügbar.
  • Diese Farb-Fotokameras weisen ferner ein optimiertes System zur Farbwiedergabe mit automatischem Weißabgleich auf und können Farben somit besser aufzeichnen und wiedergeben. Die Lage der Farbkamera und die Lage all ihrer Beobachtungsstrahlen im Raum muss bekannt sein, dazu dient eine durchzuführende die Kamerakalibration.
  • Die Beleuchtung für die Farbaufnahme soll mit zusätzlicher Farbkamera nicht oder nicht nur durch das Beleuchtungssystem des 3D-Sensors erfolgen, (obwohl dies möglich ist), da dessen Apertur relativ klein ist und die Qualität der Texturmessung weiter verbessert werden kann. Dies gilt selbst wenn die Beleuchtungsapertur durch die Spiegelung erhöht wird.
  • Die Beleuchtung soll vielmehr durch ein separates Beleuchtungssystem mit hoher Apertur erfolgen. Vorzugsweise sollen dafür oder zusätzlich Blitzanlagen eingesetzt werden, die indirekt blitzen, z. B. über eine Reflektorscheibe und auf diese Weise die Apertur vergrößern. Die Beleuchtungsapertur wird auch hier durch die Spiegelkonstruktion zusätzlich in einer entscheidenden Weise erhöht. Es hat sich in Experimenten gezeigt, dass bei Einsatz einer Spiegelkonstruktion mit einer Apertur der Beleuchtung für die Farbaufnahme von 5° × 5° eine sehr gute Texturmessung möglich ist.
  • Bei Einsatz der Beleuchtungseinheit werden die verschiedenen Ansichten des Messobjektes an verschiedenen Stellen im Bildfeld der Farbkamera gleichzeitig sichtbar sein und können gleichzeitig in einer einzigen Aufnahme aufgenommen werden. Danach können die Ansichten einzeln für die Auswertung extrahiert werden. Die einzelnen Ansichten werden in einem weiteren Verfahrensschritt mit Hilfe der Kamerakalibration auf die gemessene 3D-Weitwinkelmessung algorithmisch abgebildet. Damit kann zur 3D-Weitwinkelmessung Ansicht mit erweitertem Winkelbereich eine Textur hinzugefügt werden.
  • Ebenso wie bei der 3D-Messung würden unvermeidliche kleine Veränderungen der Spiegelkonstruktion zu einer räumlich falschen Zuordnung der Textur auf der Objektoberfläche führen. Die Veränderungen der Spiegelkonstruktion sind aber als bekannt anzunehmen nachdem die oben beschriebene Registrierung der 3D-Ansichten zur 3D-Weitwinkelmessung stattgefunden hat. Die Registrierung liefert eine kleine Korrektur zur Lage der Spiegel, die bei der mathematischen Abbildung der Textur auf das Messobjekt berücksichtigt werden kann.
  • Im Bildfeld der Farbkamera befindet sich eine direkte Ansicht des Objektes und im allgemeinen mehrere über Spiegel aufgenommene Ansichten. Letztere werden geringfügig dunkler erscheinen, weil der Reflexionskoeffizient des Spiegels kleiner als eins ist Ein Aluminiumspiegel hat einen Reflexionskoeffizienten von etwa 70%. Der bekannte Zahlenwert für den Reflexionskoeffizienten der Spiegel kann zur Korrektur der Helligkeit der verschiedenen Ansichten verwendet werden.
  • Nach der oben beschriebenen Lehre wird nun ein konkretes Ausführungsbeispiel für einen 3D-Sensor angegeben, wie in in einer Seitenansicht dargestellt. Der oben angegebene optische 3D-Sensor besteht aus dem Projektor 15 und in diesem Falle zwei Schwarzweiss-Videokameras 12a, 12b Die Schwarzweiss-Videokameras und der Projektor werden durch eine Steuer- und Auswerteeinheit 16 gesteuert und die wilder der Schwarzweiss-Videokamera werden durch die Steuer und Auswerteeinheit 16 ausgewertet. Im gezeichneten Beispiel ist die Triangulationsebene senkrecht, in der Zeichenebene, die Verbildungslinie zwischen den beiden Schwarzweiss-Videokameras ist die Triangulationsbasis. Auf dieser Triangulationsbasis befindet sich die Farbkamera 11. Es sind jeweils die Randstrahlen der Bildfelder der Schwarzweiss-Videokameras, der Farbkamera und des Projektors eingezeichnet. Für die Aufnahme der Farbtextur werden zwei Blitzlampen 13a, 13b mit je einer Streuscheibe 14a, 14b so angeordnet, dass eine große Beleuchtungsapertur entsteht. Die Blitzlampen und die Farbkamera werden ebenfalls durch die Steuer- und Auswerteeinheit 16 gesteuert.

Claims (1)

  1. Verfahren zur umfassenden 3D-Messung der Form eines Objektes, basierend auf der Verwendung eines optischen 3D-Sensors mit einer Beobachtungseinrichtung und einer steuerbaren Beleuchtung (6) wobei eine Höhenkarte messbar ist, sowie mit mehreren Spiegeln S1, S2, ..., SN; wobei – im Gesichtsfeld der Beobachtungseinrichtung die Spiegel S1, S2, ..., SN räumlich so angeordnet werden, dass der optische 3D-Sensor mehrere 3D-Ansichten A0, A1, ..., AN des Objektes misst, durch direkte Beobachtung die 3D-Anssicht A0 und durch Beobachtung über die Spiegel Si die 3D-Ansichten Ai; – die Beleuchtung für die 3D-Ansichten Ai jeweils über den Spiegel (Si) erfolgt; – in einem weiteren Verfahrensschritt die 3D-Ansichten Ai aufgrund der bekannten räumlichen Positionen des 3D-Sensors und der Spiegel Si zu einer umfassenden 3D-Ansicht registriert werden; – wobei die steuerbare Beleuchtung (6) des 3D-Sensors so gesteuert wird, dass Spiegel oder Spiegelpaare durch Teilung des Gesichtsfeldes der Beleuchtung nacheinander beleuchtet werden und mindestens ein Paar von Spiegeln so angeordnet wird, dass bei gleichzeitiger Beleuchtung über diese Spiegel kein Punkt auf dem Objekt aus mehreren Richtungen gleichzeitig beleuchtet wird, wobei mindestens ein Paar von Spiegeln so angeordnet wird, dass die Beleuchtungsrichtungen, aus denen das Objekt über die Spiegel dieses Paares beleuchtet wird, annähernd im 180°-Winkel entgegengesetzt zueinander stehen.
DE102006042311A 2006-09-06 2006-09-06 Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich Active DE102006042311B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102006042311A DE102006042311B4 (de) 2006-09-06 2006-09-06 Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich
US11/851,093 US20080074648A1 (en) 2006-09-06 2007-09-06 Method and Apparatus for Three-Dimensional Measurement of Objects in an Extended angular range

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006042311A DE102006042311B4 (de) 2006-09-06 2006-09-06 Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich

Publications (2)

Publication Number Publication Date
DE102006042311A1 DE102006042311A1 (de) 2008-03-27
DE102006042311B4 true DE102006042311B4 (de) 2013-12-05

Family

ID=39104521

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006042311A Active DE102006042311B4 (de) 2006-09-06 2006-09-06 Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich

Country Status (2)

Country Link
US (1) US20080074648A1 (de)
DE (1) DE102006042311B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111947598A (zh) * 2020-07-24 2020-11-17 南京理工大学 基于平面反射镜的360°三维人头测量方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8090174B2 (en) * 2006-04-12 2012-01-03 Nassir Navab Virtual penetrating mirror device for visualizing virtual objects in angiographic applications
US9230325B2 (en) * 2011-08-19 2016-01-05 University Of Rochester Three-dimensional model acquisition using planar mirrors
US8692840B2 (en) * 2012-02-05 2014-04-08 Mitsubishi Electric Research Laboratories, Inc. Method for modeling and estimating rendering errors in virtual images
US9041914B2 (en) 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
SE537987C2 (sv) * 2014-04-07 2016-01-12 Cgrain Ab Avbildningssystem för granulärt material med homogen bakgrund
US20160125638A1 (en) * 2014-11-04 2016-05-05 Dassault Systemes Automated Texturing Mapping and Animation from Images
DE102016205245A1 (de) * 2016-03-30 2017-10-05 Siemens Aktiengesellschaft Mehr-Richtungs-Triangulations-Messsystem mit Vorrichtung
DE102016205219A1 (de) * 2016-03-30 2017-10-05 Siemens Aktiengesellschaft Mehr-Richtungs-Triangulations-Messsystem mit Verfahren
DE102016115252A1 (de) * 2016-08-17 2018-02-22 Carl Zeiss Industrielle Messtechnik Gmbh Messvorrichtung und Verfahren zur Einrichtung der Messvorrichtung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5184733A (en) * 1991-02-19 1993-02-09 Marel H.F. Apparatus and method for determining the volume, form and weight of objects
FR2703932A1 (fr) * 1993-04-16 1994-10-21 Materiel Arboriculture Procédé et dispositif de tri automatique de produits, notamment de fruits et légumes.
US5673113A (en) * 1995-04-06 1997-09-30 Materiel Pour L'arboriculture Fruitiere Analysis device for the automatic grading of products, in particular of fruits or vegetables
DE19753246A1 (de) * 1997-12-01 1999-06-10 Roland Seifert Vorrichtung zur Bestimmung von dreidimensionalen Daten von Objekten
US20040114153A1 (en) * 2001-02-01 2004-06-17 Kristinn Andersen Laser mirror vision

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4813774A (en) * 1982-08-27 1989-03-21 Raytheon Company Skewed rhombus ring laser gyro
TW335466B (en) * 1995-02-28 1998-07-01 Hitachi Ltd Data processor and shade processor
US6049343A (en) * 1997-01-20 2000-04-11 Hitachi, Ltd. Graphics processing unit and graphics processing system
WO2003032252A2 (en) * 2001-10-09 2003-04-17 Dimensional Photonics, Inc. Device for imaging a three-dimensional object
US20040222987A1 (en) * 2003-05-08 2004-11-11 Chang Nelson Liang An Multiframe image processing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5184733A (en) * 1991-02-19 1993-02-09 Marel H.F. Apparatus and method for determining the volume, form and weight of objects
FR2703932A1 (fr) * 1993-04-16 1994-10-21 Materiel Arboriculture Procédé et dispositif de tri automatique de produits, notamment de fruits et légumes.
US5673113A (en) * 1995-04-06 1997-09-30 Materiel Pour L'arboriculture Fruitiere Analysis device for the automatic grading of products, in particular of fruits or vegetables
DE19753246A1 (de) * 1997-12-01 1999-06-10 Roland Seifert Vorrichtung zur Bestimmung von dreidimensionalen Daten von Objekten
US20040114153A1 (en) * 2001-02-01 2004-06-17 Kristinn Andersen Laser mirror vision

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
K. Creath: Comparison Of Phase-Measurement Algorithms, in: Proc. SPIE 680 (1986), S.19-28 *
Produktblatt zum Sensor „3D-Scanner Trio" der Firma Stiefelmayer-Contento GmbH & Co KG, Hüttenweg 4, 97877 Wertheim, 2005
Produktblatt zum Sensor "3D-Scanner Trio" der Firma Stiefelmayer-Contento GmbH & Co KG, Hüttenweg 4, 97877 Wertheim, 2005 *
Produktblatt zum Sensor "G-scan", Fraunhofer Institut für angewandte Optik und Feinmechanik, Jena, 2004 *
Produktblatt zum Sensor „G-scan", Fraunhofer Institut für angewandte Optik und Feinmechanik, Jena, 2004
Webseite der Firma 3dMD, Galleria Parkway, Atlanta, USA *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111947598A (zh) * 2020-07-24 2020-11-17 南京理工大学 基于平面反射镜的360°三维人头测量方法
CN111947598B (zh) * 2020-07-24 2022-04-01 南京理工大学 基于平面反射镜的360°三维人头测量方法

Also Published As

Publication number Publication date
US20080074648A1 (en) 2008-03-27
DE102006042311A1 (de) 2008-03-27

Similar Documents

Publication Publication Date Title
DE102006042311B4 (de) Dreidimensionale Vermessung von Objekten in einem erweiterten Winkelbereich
DE10344922B4 (de) Rundum-Scanner
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
EP2079981B1 (de) Vorrichtung und verfahren zum berührungslosen erfassen einer dreidimensionalen kontur
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
EP3298345B1 (de) Kamera und verfahren zur dreidimensionalen vermessung und farbvermessung eines dentalen objekts
DE102008047816B4 (de) Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
DE102011114674C5 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
DE19502459A1 (de) Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten
EP2583055A1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
EP2710331A1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
DE102007060263A1 (de) Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
DE10204430A1 (de) Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem
DE102016217628B4 (de) Verfahren zum Betreiben eines Operationsmikroskopiesystems, Bewegungsmesssystem für ein Operationsmikroskopiesystem und Operationsmikroskopiesystem
WO2012032132A2 (de) Dentale röntgeneinrichtung mit bilderfassungseinheit zur oberflächenerfassung und verfahren zur erzeugung einer röntgenaufnahme eines patienten
EP2026034B1 (de) Vorrichtung zur Ermittlung der 3D-Koordinaten eines Objekts, insbesondere eines Zahns
DE102015103785A1 (de) Verfahren und Vorrichtung zur Kalibration einer Kamera
DE102004052199A1 (de) Streifenprojektions-Triangulationsanordnung zur dreidimensionalen Objekterfassung, insbesondere auch zur dreidimensionalen Erfassung des Gesichts eines Menschen
DE10049103B4 (de) Vorrichtung zur Überlagerung von Röntgen- und Videobildern
EP2019961B1 (de) Verfahren zum erzeugen von bildinformationen
EP1284409A1 (de) Verfahren und Vorrichtung zur Untersuchung der Verformung von Prüfobjekten
DE102012102580A1 (de) Verfahren zum Messen eines Objektes sowie Intraoral-Scanner
DE10359104B3 (de) Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche
CH714591A1 (de) Augenuntersuchungsgerät und Verfahren zum Ermitteln von Bilddaten.
DE19846145A1 (de) Verfahren und Anordung zur 3D-Aufnahme

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R019 Grant decision by federal patent court
R020 Patent grant now final

Effective date: 20140306

R082 Change of representative

Representative=s name: LEONHARD, REIMUND, DIPL.-ING., DE