-
In vielen Anwendungen in Medizin, Technik und Kunst werden 3D-Sensoren zur dreidimensionalen Erfassung der Form eingesetzt. Beispielhafte Aufgabenstellungen sind: Erfassung von Bauteilen in der Automobilindustrie, Vermessung von Statuen. Beispielhafte medizinische Aufgabenstellungen, bei denen lebende Menschen oder Teile von Menschen erfasst werden, sind: 3D-Erfassung des Kopfes, Erfassung von Gesichtern, von Brüsten, Rücken, Füßen. Beispielhafte Messprinzipien für optische 3D-Sensoren sind Lasertriangulation oder codierte Beleuchtung, etwa mit Streifenprojektion.
-
Ein optischer Sensor führt die Erfassung oder Messung in der Regel nur aus einer Blickrichtung aus. Eine häufige Aufgabenstellung ist aber die Rundum-Vermessung des Objektes oder zumindest die Vermessung aus einem Winkelbereich, der größer ist als derjenige, der sich aus nur einer Ansicht ergibt. („3D-Weitwinkelmessung”). Dieses Problem wird üblicherweise durch Aufnahme des Objektes aus mehreren Richtungen und Zusammensetzen (Registrieren) der verschiedenen Ansichten gelöst. Dabei wird üblicherweise das Objekt oder der Sensor neu positioniert.
-
Eine weitere Anforderung ist es, die benötigte Zeit für einen Messablauf so gering wie möglich zu halten, sowie den Arbeitsschritt einer Neupositionierung einzusparen. Bei Messungen im Medizinbereich ist die schnelle Messung zudem wegen möglicher – auch unwillkürlicher – Bewegung des Menschen erforderlich.
-
Bei manchen Systemen erfolgt die Neupositionierung daher durch eine motorische Bewegung. Das System G-Scan der Fraunhofer-Gesellschaft dient zur Vermessung menschlicher Gesichter, vgl. Produktblatt zum Sensor „gscan”, Fraunhofer Institut für angewandte Optik und Feinmechanik Jena, http://www.iof.fhg.de/departments/optical-systems/_media/g-scan_11_2004_d.pdf. Hier erfolgt weder eine Neupositionierung des Sensors noch des Objektes. Vielmehr erfolgt nur eine virtuelle” Neupositionierung des Sensors, indem ein Spiegel zeitlich nacheinander in vier Positionen gedreht wird und in jeder Position ein Strahlengang entsteht, der mit Hilfe eines jeweils weiteren Spiegels eine neue virtuelle Position des Sensors gegenüber dem Messobjekt (Gesicht) erreicht. Ein Nachteil dieses Systems ist die zwingend sequentielle Abfolge der Messungen, sowie der aufwendige Bewegungsmechanismus der Spiegel. Auch kostet das Umklappen der Spiegel Zeit.
-
Eine weitere Anforderung in Technik und Medizin ist die Vermessung der Textur der Objektoberfläche zusätzlich zur 3D-Form. Die Aufgabe kann teilweise durch Modifikation des 3D-Sensors gelöst werden, etwa durch Verwendung von Farbkameras anstelle von Schwarzweißkameras. Zu jedem Messpixel wird auch Farbinformation gewonnen. Die Firma 3dMD baut ein solches Gerät nach dem Stereoverfahren, vgl. Webseite der Firma 3dMD. 100 Galleria Parkway Suite 1070 Atlanta. GA 30339, USA http://www.3dmd.com/AboutUs/Technology.asp
-
Ebenso gibt es Verfahren zur Erfassung der Textur, die neben dem Sensor eine zusätzliche Farbkamera verwenden. Die Farbkamera wird in der Regel photogrammetrisch zum Sensorkoordinatensystem kalibriert. Nachdem die 3D-Messung erfolgt ist, oder in einer Bildwechselpause wird mit der Farbkamera eine Aufnahme gemacht. Diese wird mathematisch auf die 3D-Daten projiziert („gemappt”) und auf diese Weise wird die Textur berechnet, vgl. Produktblatt zum Sensor „3D-Scanner Trio” der Firma Stiefelmayer-Contento GmbH & Co KG, Hüttenweg 4, 97877 Wertheim, Germany, 2005; http://www.stiefelmayer-contento.de/laser/pdf/flyer-lasersysteme-2005.pdf.
-
Eine mechanische Bewegung des Sensors, des Objektes oder von Spiegeln für die 3D-Weitwinkelmessung benötigt für einige Aufgabenstellungen zu viel Zeit. Beispielsweise saute die Vermessung menschlicher Gesichter in einem Zeitraum von unter einer Sekunde erfolgen, da unwillkürliche Bewegungen zu Messfehlern führen. Besonders alte Menschen, Kinder, Parkinson-Patienten, generell Menschen mit schlechtem Gesundheitszustand können nicht lange ruhig positioniert werden.
-
Weiter erreicht z. B. die Spiegelanordnung des Produktes G-Scan keine Rundum-Vermessung, sondern nur die Vermessung des vorderen Halbraumes um den menschlichen Kopf herum. Das Gerät kann zum Vermessendes Gesichts eingesetzt werden, nicht jedoch zur Vermessung eines vollständigen Kopfes.
-
Drittens ist die Qualität der aufgenommenen Texturen in der Regel gering. Der Einsatz von Farb-Videokameras anstelle von Schwarzweiß-Videokameras bringt eben durch den Einsatz dieser Farbkameras Nachteile: Die Auflösung (Pixelanzahl) dieser Farb-Videokameras ist mäßig weil diese gleichzeitig für fortlaufende schnelle Bildausgabe optimiert sind. Die Qualität der 3D-Messung wird beeinträchtigt.
-
Wenn die Beleuchtung durch das (codierende) Beleuchtungssystem des 3D-Sensors erfolgt, so hat dies den Nachteil, dass dieses Beleuchtungssystem zur Erzeugung einer strukturierten Beleuchtung ausgelegt ist, also mit kleiner Apertur. Aus der Fotografie ist bekannt, dass Aufnahmen mit kleiner Apertur zu Inhomogenitäten und starken lokalen Variationen der beobachteten Objekthelligkeit führen, z. B. durch Abschattung und Reflexen. Die Aufgabenstellung „Erfassung der Objekttextur im 3D--Bild” kann damit nicht gilt gelöst werden, weil die Objekttextur eine möglichst von der Beleuchtung unabhängige Eigenschaft sein sollte, durch die unvollkommene Messung aber stark von der Beleuchtung abhängt.
-
Die Erfindung soll die beschriebenen Probleme lösen: Rundum-Vermessung ohne mechanische Bewegung, zusätzlich die Erfassung einer weitgehend beleuchtungsunabhängigen Farbtextur mit hoher Auflösung. Die Erfindung soll vorzugsweise zur Vermessung menschlicher Köpfe, von Gesichtern und anderen Körperteilen eingesetzt werden, aber auch die 3D-Erfassung von Kunstwerken, Schmuck oder technischen Objekten ist selbstverständlich möglich.
-
Zur Vermessung soll ein optischer 3D-Sensor eingesetzt werden; hierbei kommt vorzugsweise Lasertriangulation, codierte Beleuchtung oder das Stereo-Verfahren in Frage. Zwei dieser Verfahren – Lasertriangulation und codierte Beleuchtung – weisen ein Beleuchtungssystem und ein Beobachtungssystem auf, welche ein gemeinsames Bildfeld haben. Das Stereo-Verfahren weist mindestens zwei Kameras auf, welche ein gemeinsames Bildfeld haben und kann durch aktive Beleuchtung mit Streifenprojektion unterstützt werden. Das jeweils gemeinsame Bildfeld soll als „Bildfeld des 3D-Sensors” bezeichnet werden. Als „Optische Achse des 3D-Sensors” soll eine Achse bezeichnet werden, die in der Mitte der Triangulationsbasis des Sensors beginnt und in der Mitte des Bildfeldes des 3D-Sensors endet. Die Triangulationsbasis ist dabei entweder die Strecke zwischen der Pupille des Beobachtungssystems und der Pupille des Beleuchtungssystems, bei mehreren Beobachtungssytemen und Beleuchtungssystemen gilt die Definition sinngemäß, z. B. wie in dargestellt.
-
Die Druckschrift
FR 2 703 932 beschreibt u. a. eine Auswerteeinrichtung zur Registrierung von einzelnen Abtasteinsichten, wie sie etwa in der in der
US 5 673 113 beschriebenen Einrichtung erzeugt werden.
-
Die Druckschrift
US 2004/0114153 A1 beschreibt ein Verfahren und eine Vorrichtung in denen über Spiegel und gleichzeitige, direkte Messung durch Bewegung des Objekts aus den einzelnen Schnittansichten eine 3-D-Ansicht gewonnen wird.
-
Die Druckschrift
DE 197 53 246 A1 beschreibt eine Vorrichtung, in der mehrere Spiegel zur Erzeugung jeweils einer Ansicht verwendet werden.
-
Die Druckschrift
US 5 184 733 beschreibt eine Vorrichtung und ein Verfahren, in welchen zwei Ansichten eines transportierten Fisches gleichzeitig als direkte Ansicht und über einen Spiegel gewonnen werden.
-
US 5 673 119 beschreibt eine Analyseeinrichtung zur automatischen Bewertung von Gemüse, wobei eine Abtastung des Objekts mit polarisiertem Licht über Spiegel zur Erzeugung verschiedener Ansichten erfolgt.
-
Es bastelt ein Problem, welches einer erfindungsgemäßen Lösung bedarf, wie in dargestellt. Das Problem besteht darin, dass es Bereiche (5) auf dem Objekt (2) geben kann, in dem sich mehrere Bereiche der codierten Befeuchtung (6) bzw. Abschnitte der Laserlinie überlagern. Es kann sich die direkt aufprojizierte Beleuchtung mit einem oder mehreren der über die Spiegel reflektierten Beleuchtungen überlagern, oder die über die Spiegel reflektierten Beleuchtungen können sich überlagern.
-
Die Aufgabe Wird mit Anspruch 1 gelöst. Ein Merkmal der Erfindung ist, dass das Bildfeld (1) des optischen Sensors aufgeteilt wird. Im Bildfeld sind sowohl das Objekt (2), als auch eine Reihe von Spiegeln, hier beispielhaft (3a), (3b), (3c).
-
Die Teilung des Bildfeldes ermöglicht es, das Objekt (2) in einem Teil des Bildfeldes zu platzieren und in anderen Teilen des Bildfeldes Spiegel (3a, 3b, 3c) zu platzieren, in denen aus der Perspektive des Sensors jeweils andere Blickrichtungen des Objektes sichtbar sind ( ). In einem Teil seines Bildfeldes kann der Sensor eine direkte 3D-Ansicht des Objektes messen. In anderen Teilen des Bildfeldes kann der Sensor virtuelle Spiegelbilder (4a, 4b, 4c) des Objektes messen. Dabei laufen des Beleuchtungsstrahlengang und der Beobachtungsstrahlengang des Sensors jeweils über den gleichen Spiegel. Der Spiegel soll eben sein. Aufgrund der Gesetze der Spiegelung misst der Sensor in diesem Fall eine metrisch korrekte 3D-Ansicht des Objektes aus einer anderen Perspektive. Dies gilt für jeden Winkel, unter dem der Spiegel steht, nicht nur z. B. für 90° oder 45°. Die 3D-Ansicht ist lediglich spiegelverkehrt, dies kann in der nachfolgenden Auswertung korrigiert werden.
-
Da die Lage der Spiegel und des 3D-Sensors bekannt ist, kann aus den virtuellen 3D-Ansichten jeweils die Lage der zugehörigen realen 3D-Ansichten berechnet werden. Diese 3D-Ansichten können gemeinsam mit der direkt gemessenen 3D-Ansicht zu einem vollständigeren 3D-Objekt zusammengesetzt werden. (Registrierung)
-
Erfindungsgemäß wird eine Überlagerung dadurch vermieden, dass die Messung in mehreren zeitlich aufeinanderfolgenden Phasen erfolgt. Im Bildfeld des Beleuchtungssystems wird jeweils nur ein Teil des Bildfeldes beleuchtet. In einer der Phasen wird nur der Teil des Bildfeldes (1) beleuchtet, in dem sich das Objekt (2) befindet. In anderen Phasen wird jeweils ein Spiegel (3a, 3b, 3c) beleuchtet. Die anderen Teile des Bildfeldes müssen dunkelgeschaltet sein. Somit gibt es jeweils nur einen einzigen optischen Weg von der Beleuchtung zum Objekt und es kommt zu keinen Überlagerungen der Beleuchtung aus verschiedenen Richtungen.
-
Zur Realisierung dieser Lösung ist es notwendig, dass die Beleuchtung räumlich vollständig adressierbar ist. Dies ist z. B. bei Verwendung eines Videoprojektors gegeben. Ein System mit Lasertriangulation mit einer durch einen Scannerspiegel aufgezogenen Lichtlinie kann eingesetzt werden, wenn z. B. die Umkehrpunkte der Scannerbewegung gesteuert verändert werden. Eine andere Möglichkeit ist es, die Lichtquelle gesteuert so ein- und auszuschalten, dass nur jeweils die ausgewählten Gesichtsfelder beleuchtet werden.
-
Die Einführung der beschriebenen zeitlich aufeinanderfolgenden Phasen der Messung verlängert zwar die benötigte Zeit für die Messung, jedoch ist zwischen den Phasen keine mechanische Bewegung nötig, so dass weiterhin als erfindungsgemäßer Vorteil ein erheblicher Zeitgewinn bleibt.
-
Eine Beschleunigung der Messung ist mit einer anderen erfindungsgemäßen Lösung möglich: Mit einer besonderen Anordnung der Spiegel können jeweils zwei 3D-Ansichten gleichzeitig vermessen werden. Dies ist dann der Fall, wenn die entsprechenden Teile des Bildfeldes des Beleuchtungssystems gleichzeitig hellgeschaltet werden können ohne dass die dadurch beleuchteten Objektbereiche überlappen.
-
Dies kann z. B. erreicht werden, wenn beide Teile des Bildfeldes der Beleuchtung über einen Spiegel auf das Objekt abgebildet werden und die Richtungsvektoren des einfallenden Lichtes über diese beiden Spiegel annähernd im 180°-Winkel entgegengesetzt zueinander stehen, wie in gezeigt. Aufgrund der Tatsache, dass die Beleuchtung von einem Knotenpunkt (7) ausgeht, entstehen im allgemeinen unbeleuchtete Zonen (8), also sind auch kleine Abweichungen vom 180°-Winkel tolerierbar. Wenn nun das Beobachtungssystem entsprechend zwei Teile des Bildfeldes auswertet, sind beide 3D-Ansichten korrekt.
-
Wenn der Sensor mit diesem Merkmal ausgestattet wird, besteht eine Messung also aus einer Phase mit direkter Messung, mindestens einer Phase mit gleichzeitiger Messung zweier 3D-Ansichten wie beschrieben und möglicherweise weiteren Phasen der Messung einzelner 3D-Ansichten über einen Spiegel.
-
Den erwünschten Effekt, dass verschiedene Teile des Objektes gleichzeitig beleuchtet und gemessen werden können, kann man prinzipiell auch erreichen, indem man die beleuchteten Gesichtsfelder so steuert, daß sie sich nicht überlappen. Dies ist insbesondere möglich, wenn man das Objekt und seine Lage ungefähr kennt. Dann ist es auch nicht notwendig, dass die Beleuchtungsrichtungen zueinander entgegengesetzt gerichtet sind.
-
Eine konkrete Anordnung der Spiegel ist in dargestellt: Es sind zwei Spiegel so angeordnet, dass die direkte 3D-Ansicht eine Frontalansicht des Objektes, in diesem Fall eines menschlichen Kopfes, ergibt und die beiden 3D-Ansichten, die über die zwei Spiegel gemessen werden, jeweils Seitenansichten des Objektes ergeben, aus Richtungen annähernd senkrecht zur Beobachtungsrichtung der direkten Ansicht. Entsprechend stehen die Spiegel, wie in gezeigt, im Winkel von etwa 45° zur optischen Achse des 3D-Sensors. In der sind auch Strahlen 6a, 6b, 6c gezeichnet, die vom Knotenpunkt des Beleuchtungssystems ausgehen. Die Strahlen liegen annähernd in einer horizontalen Ebene. Der Strahl 3a wird vom Spiegel 3a in Richtung zum rechten Ohr des Objektes gelenkt, der Strahl 3b wird vom Spiegel 3b in Richtung zum linken Ohr des Objektes gelenkt. Der Strahl 3e beleuchtet direkt das Objekt.
-
Diese Messgeometrie ist besonders zur Erfassung von Gesichtern gut geeignet. Es kann damit das Gesicht einschließlich der Seiten bis zu den Ohren dreidimensional erfasst werden. Unterhalb der Spiegelkonstruktion kann sich eine Sitzgelegenheit (9) befinden, auf dem die zu vermessende Person (10) sitzt. Die Messung über die Spiegel kann gleichzeitig erfolgen, wie oben beschrieben. Somit erfolgt die Messung in insgesamt zwei oder drei Phasen.
-
Eine weitere konkrete Anordnung der Spiegel ist in dargestellt. Zusätzlich zu den Spiegeln in ist eine weitere 3D-Ansicht für eine Messrichtung senkrecht von oben mit Hilfe eines weiteren Spiegels möglich. Die Messung erfolgt z. B. in drei Phasen: die direkte Messung, die Messung von links und rechts (gleichzeitig), und die Messung von oben. Mit einem weiteren Spiegel könnte man gleichzeitig oder sequentiell auch noch eine Messung von unten durchführen.
-
Diese Messgeometrie ist besonders zur Erfassung von Teilen des menschlichem Kopfes geeignet, z. B. wenn ein Helm angepasst werden soll. Anders als beim Aufbau gemäß sitzt die Person hier in entgegengesetzter Richtung. Der Sensor misst den Kopf der Person von hinten, oben, rechts und links. Die Messung erfolgt in insgesamt drei oder vier Phasen. Im weiteren werden nicht beanspruchte Aspekte beschrieben.
-
Eine nicht beanspruchte möglichkeit betrifft die Prüfung auf Bewegungsartefakte. Bei der Messung von sich unter Umständen bewegenden Objekten, wie z. B. von Menschen, kann mit einem geeigneten Algorithmus nach jeder Phase der Messung geprüft werden, ob die messende Person sich zu stark bewegt hat oder die Daten dieser Phase der Messung aus anderen Gründen (z. B. Fehlfunktion des 3D-Sensors) unbrauchbar sind. Dann kann unmittelbar diese Phase der Messung wiederholt werden, bevor mit der nächsten Phase fortgefahren wird. Dazu werden die Teilbilder jeder Messung auf bekannte Eigenschaften geprüft dargestellt z. B. in K. Creath, „Comparison of Phase Measurement Algorithms”, Proc. of the SPIE 680 (1986).
-
Beim Betrieb solcher Messvorrichtungen ist damit zu rechnen, dass sich die Lage der Spiegel im Laufe der Zeit leicht verändert, etwa wenn ein Patient gegen die Spiegelkonstruktion stößt. Solche kleinen Veränderungen der Spiegel würden dazu führen, dass die Registrierung der 3D-Ansichten im späteren Betrieb nicht mehr exakt funktioniert und sprunghafte Übergänge in Daten der 3D-Weitwinkel-Messung zu erkennen wären. Um dieses Problem zu vermeiden, ist im Betrieb der Messvorrichtung nach der Messung der 3D-Ansichten eine Registrierung der Daten erforderlich, die in die Auswertung integriert wird.
-
Das Konzept der Spiegelkonstruktion kann mit dem Konzept der Drehung des Messobjektes kombiniert werden. So kann ein Messobjekt erst mit Hilfe der Spiegelkonstruktion aus mehreren Richtungen vermessen werden, dann gedreht oder verschoben werden und dann erneut gemessen werden. Der Vorgang kann mehrfach wiederholt werden. Es entstehen mehrere 3D-Weitwinkelansichten, die gegeneinander registriert zu einer umfassenderen 3D-Weitwinkelansicht zusammengefügt werden können. Dies kann insbesondere zur Auffüllung von Löchern (Abschattungen) in der 3D-Ansicht dienen.
-
Neben der 3D-Information kann eine Textur des zu vermessenden Objektes aufgezeichnet werden. Zur Realisierung der Aufzeichnung einer Textur kommen zwei Verfahren in Betracht.
-
Zum einen kann bei Verwendung einer Beleuchtungseinheit des 3D-Sensors mit einer adressierbaren Beleuchtung diese Beleuchtungseinheit so erweitert werden, dass sie das Objekt auch in verschiedenen Farben, vorzugsweise den drei Grundfarben rot, grün, blau beleuchten kann. Zur Realisierung sind Videoprojektoren geeignet. Der Sensor wird weiterhin mit Schwarzweiß-Kameras ausstattet. Das Verfahren hat den Vorteil, dass bei Verwendung eines Videoprojektors oder einer anderen steuerbaren Lichtquelle keine weitere Hardware zur Texturmessung benötigt wird.
-
Durch Projektion der verschiedenen Farben und durch Aufnahme mit der Schwarzweiß-Kamera kann der Farbton pixelweise korrespondierend zu den 3D-Ansichten berechnet werden. Die Teile des Bildfeldes werden den verschiedenen 3D-Ansichten zugeordnet, danach werden diese 3D-Ansichten wie erläutert auseinandergeschnitten und registriert.
-
Das Beleuchtungssystem des 3D-Sensors hat im allgemeinen eine sehr kleine Beleuchtungsapertur. Es wird die sehr geringe Beleuchtungsapertur durch die Spiegelkonstruktion zusätzlich in einer entscheidenden Weise erhöht, weil (zusätzliche) virtuelle Bilder der Beleuchtungseinrichtung entstehen, die einen großen Winkel zur realen Beleuchtungseinrichtung aufweisen (synthetische Apertur). Texturaufnahmen mit höherer Beleuchtungsapertur geben die Textur besser wieder als Aufnahmen mit geringer Apertur. insbesondere wird die Ausleuchtung homogener und es entstehen weniger Schatten und Glanzlichter. Die Helligkeit im beobachteten Bild hängt auch nicht mehr so stark von der lokalen Neigung des betrachteten Flächenelementes ab.
-
Eine weitere und verbesserte Möglichkeit zur Messung einer Textur in Kombination mit der Spiegelkonstruktion besteht darin, in der Nähe des optischen 3D-Sensors eine zusätzliche Farbkamera (14) anzubringen, s. .
-
Wenn der 3D-Sensor auf dem Triangulationsverfahren basiert, ist eine vorteilhafte Position für die Unterbringung der Farbkamera ein Ort in der Nähe der Triangulationsbasis des Triangulationssensors, weil dann durch die Farbkamera der Winkelbereich der Beleuchtungs- und Beobachtungsstrahlen nicht weiter vergrößert wird und man mit kleineren Spiegeln auskommt.
-
Das Bildfeld der Farbkamera soll etwa dem Bildfeld des 3D-Sensors entsprechen. Die Farbkamera kann zur Aufnahme eines einzigen Bildes optimiert sein, nicht notwendig zur Aufzeichnung von Bildsequenzen. Somit können digitale Farb-Fotokameras eingesetzt werden, die eine Auflösung erzielen können, die über die Auflösung der Videokameras der 3D-Messung hinausgeht.
-
Ohnehin sehen die üblichen Softwaremodelle zur Verwaltung texturierter 3D-Daten die Möglichkeit vor, Texturen darzustellen und zu verwalten, die eine höhere Auflösung haben als die 3D-Daten. Nach dem Stand der Technik z. B. ist eine farbige digitale Fotokamera mit 12 Megapixeln verfügbar.
-
Diese Farb-Fotokameras weisen ferner ein optimiertes System zur Farbwiedergabe mit automatischem Weißabgleich auf und können Farben somit besser aufzeichnen und wiedergeben. Die Lage der Farbkamera und die Lage all ihrer Beobachtungsstrahlen im Raum muss bekannt sein, dazu dient eine durchzuführende die Kamerakalibration.
-
Die Beleuchtung für die Farbaufnahme soll mit zusätzlicher Farbkamera nicht oder nicht nur durch das Beleuchtungssystem des 3D-Sensors erfolgen, (obwohl dies möglich ist), da dessen Apertur relativ klein ist und die Qualität der Texturmessung weiter verbessert werden kann. Dies gilt selbst wenn die Beleuchtungsapertur durch die Spiegelung erhöht wird.
-
Die Beleuchtung soll vielmehr durch ein separates Beleuchtungssystem mit hoher Apertur erfolgen. Vorzugsweise sollen dafür oder zusätzlich Blitzanlagen eingesetzt werden, die indirekt blitzen, z. B. über eine Reflektorscheibe und auf diese Weise die Apertur vergrößern. Die Beleuchtungsapertur wird auch hier durch die Spiegelkonstruktion zusätzlich in einer entscheidenden Weise erhöht. Es hat sich in Experimenten gezeigt, dass bei Einsatz einer Spiegelkonstruktion mit einer Apertur der Beleuchtung für die Farbaufnahme von 5° × 5° eine sehr gute Texturmessung möglich ist.
-
Bei Einsatz der Beleuchtungseinheit werden die verschiedenen Ansichten des Messobjektes an verschiedenen Stellen im Bildfeld der Farbkamera gleichzeitig sichtbar sein und können gleichzeitig in einer einzigen Aufnahme aufgenommen werden. Danach können die Ansichten einzeln für die Auswertung extrahiert werden. Die einzelnen Ansichten werden in einem weiteren Verfahrensschritt mit Hilfe der Kamerakalibration auf die gemessene 3D-Weitwinkelmessung algorithmisch abgebildet. Damit kann zur 3D-Weitwinkelmessung Ansicht mit erweitertem Winkelbereich eine Textur hinzugefügt werden.
-
Ebenso wie bei der 3D-Messung würden unvermeidliche kleine Veränderungen der Spiegelkonstruktion zu einer räumlich falschen Zuordnung der Textur auf der Objektoberfläche führen. Die Veränderungen der Spiegelkonstruktion sind aber als bekannt anzunehmen nachdem die oben beschriebene Registrierung der 3D-Ansichten zur 3D-Weitwinkelmessung stattgefunden hat. Die Registrierung liefert eine kleine Korrektur zur Lage der Spiegel, die bei der mathematischen Abbildung der Textur auf das Messobjekt berücksichtigt werden kann.
-
Im Bildfeld der Farbkamera befindet sich eine direkte Ansicht des Objektes und im allgemeinen mehrere über Spiegel aufgenommene Ansichten. Letztere werden geringfügig dunkler erscheinen, weil der Reflexionskoeffizient des Spiegels kleiner als eins ist Ein Aluminiumspiegel hat einen Reflexionskoeffizienten von etwa 70%. Der bekannte Zahlenwert für den Reflexionskoeffizienten der Spiegel kann zur Korrektur der Helligkeit der verschiedenen Ansichten verwendet werden.
-
Nach der oben beschriebenen Lehre wird nun ein konkretes Ausführungsbeispiel für einen 3D-Sensor angegeben, wie in in einer Seitenansicht dargestellt. Der oben angegebene optische 3D-Sensor besteht aus dem Projektor 15 und in diesem Falle zwei Schwarzweiss-Videokameras 12a, 12b Die Schwarzweiss-Videokameras und der Projektor werden durch eine Steuer- und Auswerteeinheit 16 gesteuert und die wilder der Schwarzweiss-Videokamera werden durch die Steuer und Auswerteeinheit 16 ausgewertet. Im gezeichneten Beispiel ist die Triangulationsebene senkrecht, in der Zeichenebene, die Verbildungslinie zwischen den beiden Schwarzweiss-Videokameras ist die Triangulationsbasis. Auf dieser Triangulationsbasis befindet sich die Farbkamera 11. Es sind jeweils die Randstrahlen der Bildfelder der Schwarzweiss-Videokameras, der Farbkamera und des Projektors eingezeichnet. Für die Aufnahme der Farbtextur werden zwei Blitzlampen 13a, 13b mit je einer Streuscheibe 14a, 14b so angeordnet, dass eine große Beleuchtungsapertur entsteht. Die Blitzlampen und die Farbkamera werden ebenfalls durch die Steuer- und Auswerteeinheit 16 gesteuert.