DE19846145A1 - Verfahren und Anordung zur 3D-Aufnahme - Google Patents

Verfahren und Anordung zur 3D-Aufnahme

Info

Publication number
DE19846145A1
DE19846145A1 DE1998146145 DE19846145A DE19846145A1 DE 19846145 A1 DE19846145 A1 DE 19846145A1 DE 1998146145 DE1998146145 DE 1998146145 DE 19846145 A DE19846145 A DE 19846145A DE 19846145 A1 DE19846145 A1 DE 19846145A1
Authority
DE
Germany
Prior art keywords
lens
phase
space
array
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE1998146145
Other languages
English (en)
Inventor
Klaus Koerner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universitaet Stuttgart
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE1998146145 priority Critical patent/DE19846145A1/de
Publication of DE19846145A1 publication Critical patent/DE19846145A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/254Projection of a pattern, viewing through a pattern, e.g. moiré

Abstract

Beschrieben wird ein Verfahren und eine Anordnung zur 3-D-Aufnahme mit einer Lichtquelle und einem Sender-Array und einem Beleuchtungsobjektiv zur Abbildung des Sender-Arrays und einem Empfänger-Array und einem Aufnahmeobjektiv zur Abbildung eines Objektes oder einer Szene auf das Empfänger-Array und einem Bewegungssystem. DOLLAR A Die Erfindung zeichnet sich dadurch aus, daß die Komponenten des Bewegungssystems so angeordnet sind, daß bei der Aufnahme eines Objektes oder einer Szene mit dem Empfänger-Array für das Sender-Array eine Gesamtbewegungsrichtung parallel zu einer Geraden g¶A¶ realisiert ist und so sich die Elemente des Sender-Arrays auf Geraden parallel zur Geraden g¶A¶ bewegen und die Gerade g¶A¶ den Brennpunkt des Beleuchtungsobjektivs im Raum des Sender-Arrays schneidet und den Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsobjektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs aufweist, wobei dieser Anstieg der Geraden g¶A¶ auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist.

Description

Technisches Anwendungsgebiet
Das technische Anwendungsgebiet besteht in der Bestimmung der 3D-Form oder 3D-Gestalt von Körpern oder Objekten im Raum oder sogar kompletten Szenen mit mindestens einem Bildaufnehmer in einem optischen Aufnahmesystem. Die dazu notwendige Anordnung wird im weiteren als 3D-Aufnahme-Anordnung und das Verfahren wird als 3D-Aufnahme-Verfahren bezeichnet.
Die Anwendung dieser 3D-Aufnahme-Anordnung und dieses Verfahrens erfolgt erstens im Sinne der 3D-Meßtechnik. Als Ergebnis der Berechnung wird aus optisch gewonnenen Signalen die 3D-Punktwolke eines Objektes oder einer Szene mit Be­ zug zu einem Nullpunkt der 3D-Aufnahme-Anordnung ermittelt. Die errechnete Punktwolke kann beispielsweise in einem CAD-System weiterverarbeitet werden.
Das zweite Anwendungsgebiet stellt das Gewinnen von 3D-Bildern von Objekten oder Szenen für 3D-Wiedergabe-Geräte und 3D-Wiedergabe-Verfahren dar. Dies betrifft vor allem den Multimedia- und Fernsehbereich.
Stand der Technik
Die 3D-Form von Oberflächen wird häufig mit Streifen-Triangulationsverfahren ver­ messen. Dabei wird in der Regel das Objekt oder die Szene unter einem großen Einfallswinkel beleuchtet, beispielsweise zwischen 30° und 60°. Dies führt jedoch häufig zu störenden Abschattungen des Objekts oder von Details in der Szene.
Es sind vielfältige 3D-Meßanordnungen mit kohärentem Licht bekannt. Der Einfluß des Speckle-Phänomens begrenzt jedoch die Auflösung. Dies wurde in der Arbeit "Automatisierung der optischen Qualitätsprüfung" von H. J. Tiziani in Technisches Messen, 55. Jahrgang, Heft 12/1988, S. 481-491 auf Seite 488 dargestellt.
Interferenzstreifen-Felder, die durch die Überlagerung kohärenter Planwellen er­ zeugt werden, weisen ebenfalls Speckle-Effekte auf, s. Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 328-330. Diese Speckle-Effekte begrenzen die sinnvolle Höhenauflösung häufig auf weniger als 1/50 der effektiven Wellenlänge.
Bei der Aufnahme von Personen verbietet sich aus Sicherheitsgründen die Anwen­ dung gerichteter Laserstrahlung.
In der deutschen Patentschrift DE 44 13 758 C2, veröffentlicht am 17.9.98, zeigen die Fig. 4-7 eine Möglichkeit der Gewinnung von Interferenzstreifen für die Ge­ staltmessung mittels eines Zweistrahl-Interferometers mit Dachkantreflektoren durch Lateral-Shear von zwei kohärenten Lichtbündeln. Die Eliminierung der Lateral-Shear führt zu einem Interferenzstreifen-Feld mit wenigen Streifen. Jedoch muß hierbei ein Strahlteilersystem für die Eliminierung der Lateral-Shear eingesetzt werden. Dies führt zu einer recht großvolumigen Anordnung bei hohen Anforderungen an die Qualität der verwendeten Objektive.
Bei der herkömmlichen optischen 3D-Messung stellen diskontinuierliche Oberflä­ chen oft ein Problem dar. Beispielsweise können größere Absätze oder Stufen in der Oberfläche des Objektes zu einer Verletzung des Sampling-Theorems führen. Abhilfe schafft hier das Gray-Code-Verfahren, bei dem zunächst eine Folge von Binär-Bildern aufprojiziert wird und anschließend - besonders bei höheren Genauig­ keitsforderungen - Sinusgitter auf die Objektoberfläche abgebildet werden und die bekannte Phasenschiebemethode zur Anwendung kommt. Ein Beispiel stellt das Modulare optische 3D-Meßsystem opto TOP der Fa. Breuckmann GmbH in D-88709 Meersburg dar. Weiterhin ist das COMET-500-System der Fa. Steinbichler Opto­ technik GmbH in D-83115 Neubeuern zu nennen.
Die Firma ABW in D-72636 Frickenhausen bietet programmierbare Linienprojekto­ ren mit bis zu 1280 Linien für das absolut messende Moire-Verfahren an. Projekto­ ren auf LCD-Basis arbeiten noch relativ langsam und der zu beobachtende Streifen­ kontrast auf dem Objekt ist schlechter als bei Projektoren mit Gitterstrukturen auf Glasplatten. Die Firma Gottfried Frankowski Meßtechnik in D-14513 Teltow bietet die Digitale Lichtprojektion auf der Basis von Mikrospiegeln, Digital Light Devices, auch als DMD bekannt, an. Zur Zeit können Gitterbilder mit einer Folgefrequenz von etwa 10 Hz erzeugt und eingelesen werden. Diese Frequenz ist jedoch für die Hochgeschwindigkeits-Bildaufnahme noch nicht ausreichend.
Um eine hohe Schärfentiefe bei der Vermessung von tiefen Objekten zu erreichen, wird bei allen genannten Verfahren in der Regel mehr oder weniger stark abgeblen­ det, also meistens mit kleinen Objektivöffnungen, beispielsweise mit einer relativen Lichtstärke von 1 : 8, gearbeitet. Dies erfordert starke Lichtquellen, beispielsweise in Form von Blitzlampen oder starken Halogenlampen, oder es ist nur die Ausleuch­ tung vergleichsweise kleiner Felder möglich, beispielsweise 200 mm × 200 mm bis 500 mm × 500 mm.
Auf dem 2. ABW-Workshop 3-D BV/TAE vom 25.-26.1.1996 wurde von R. Lampal­ zer, G. Häusler und Schielzeth auf den Vorteil einer großen Beleuchtungsapertur zur Verringerung des Speckle-Rauschens durch die Gewinnung räumlicher Inkohärenz hingewiesen.
Der Stand der Technik bei der Gewinnung von analogen 3D-Bildern basiert in der Regel auf dem Einsatz von zwei Kameras wie beim zweiäugigen Sehen. Dies wird nicht weiter betrachtet, da es hierbei um die Gewinnung von 3D-Daten in digitaler Form geht.
In der Vergangenheit kam es durch die Verwendung von zwei Kameras zu Proble­ men mit der lateralen Genauigkeit bei der Generierung der 3D-Punktwolke. Neue Entwicklungen, beispielsweise von der Firma gom in D-38106 in Braunschweig, führ­ ten zu einer Serie von Sensoren auf der Basis der Projektion von unterschiedlichen Streifenmustern und der Erfassung mit zwei Kameras aus unterschiedlichen Blick­ winkeln. Von Nachteil sind jedoch die teilweise erheblichen Abmessungen des Meß­ systems. Deshalb ist bei der Forderung nach Miniaturisierung in der hochgenauen 3D-Meßtechnik die Ein-Kamera-Technik und die Ein-Projektor-Technik offenbar grundsätzlich von Vorteil.
Ein neues Verfahren mit drei Kameras mit parallel angeordneten optischen Achsen und einem geeigneten Basisabstand löst das Problem der Erfassung der 3D-Szene durch die Auswertung stereoskopischer Bilder mittels Hochleistungsrechner, s. VDI-Nachrichten Nr. 21 vom 22. Mai 1998, Seite 15, "Reise in die strahlende Rui­ ne". Diese so gewonnenen 3D-Informationen werden zum Steuern eines Roboters, des Roboter "Pioneer", in der Tschernobyl-Ruine und zur 3D-Erfassung der bauli­ chen Gegebenheiten und des Umfeldes angewendet. Nur mit Hochleistungs- Rechentechnik ist eine echtzeitnahe 3D-Bildrekonstruktion möglich. Das Bauvolu­ men dieser Anordnung ist durch die drei Kameras vergleichsweise groß.
Im Tagungsband "Optische Formerfassung" GMA-Bericht 30, DGZfP-VDI/VDE- GMA Fachtagung 28.129. April 1997, Langen, Bundesrepublik Deutschland, S. 199-209, wird von den Autoren, R. Schwarte, H. Heinol, z. Xu, J. Olk und W. Tai da­ rauf hingewiesen, daß für die schnelle Formerfassung im ca. 20 cm- bis 50 m- Bereich kein präzises, flexibles und kostengünstiges Verfahren zur Verfügung steht. Diese Auffassung gilt besonders für den Bereich von 20 cm bis 2 m, da hier auch die Laufzeitverfahren nur eine Tiefen-Meßgenauigkeit von 2 mm bis 20 mm aufwei­ sen. Die in o. g. genannter Veröffentlichung dargestellte technische Lösung auf der Basis eines Photomischdetektors PMD wird als gegenwärtig noch nicht geeignet an­ gesehen, im genannten Nahbereich eine hohe Tiefen-Genauigkeit zu realisieren. Auch wird der technische Aufwand z. Z. noch als recht hoch eingeschätzt.
Im o. g. Tagungsband "Optische Formerfassung" wird auf den Seiten 211-222, von den Autoren W. Schreiber, V. Kirchner und G. Notni das Konzept für ein selbstein­ messendes, optisches 3D-Meßsystem auf der Basis strukturierter Beleuchtung dar­ gestellt. Es gestattet, ausgehend von der Erfahrungen in der Photogrammetrie, die gleichzeitige Bestimmung von Systemparametern und Koordinaten aus den Meß­ werten. Es wird eine außerordentlich hohe Meßgenauigkeit für die Objektkoordina­ ten mit einem relativen Fehler von bis zu 10-5 erreicht. Dazu muß jedoch eine mehr­ malige Meßwertaufnahme erfolgen, wobei Gray-Code-Sequenzen und Streifen mit sinusähnlichem Profil in Verbindung mit Phasenschiebechniken eingesetzt werden. Dies bedeutet einen erheblichen Zeitaufwand für die Durchführung der Messung aufgrund des notwendigen Einsatzes mehrerer Gitter in einer Meßfolge. Auch muß das Objekt, aufeinanderfolgend von mehreren Projektoren, in unterschiedlichen Positionen oder vom gleichen Projektor aus in verschiedenen Richtungen beleuchtet werden. Auch dies ermöglicht keine hochdynamische Messung oder eine echtzeit­ nahe 3D-Erfassung von Objekten.
Die Grundzüge dieses neuen und sehr vorteilhaften optischen Verfahrens sind unter dem Titel "Optische Dreikoordinatenmessung mit strukturierter Beleuchtung" in Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 321-329 von W. Schreiber, J. Gerber und R. Kowarschik dargestellt. Der Referenzpunkt für das Koordinatensy­ stem liegt dabei im Bereich des Objektes.
In Bild 2 dieser letztgenannten Veröffentlichung wird eine Anordnung mit parallelen Achsen für das Beleuchtungs- und das Abbildungsobjektiv und einer zweiseitig zen­ tralperspektivischen Abbildung dargestellt.
Jedoch läßt sich abgeschätzten, daß sich hierbei aufgrund des angegebenen Appa­ rates und des mathematischen Modells die Umsetzung der Auswerte-Algorithmen in straight forward-Algorithmen sehr schwierig gestaltet, so daß eine Echtzeit- Auswertung mittels spezieller Hochgeschwindigkeits-Prozessoren auf diesem Weg kaum möglich ist.
Da die Kamera und der Projektor räumlich getrennt sind, ist die Realisierung eines kompaktes 3D-Meßmoduls nicht möglich.
Die Daimler-Benz Aerospace stellte 1997 die 2. Generation einer Laserkamera auf der Basis der Laufzeitmessung des Lichtes dar. Die Meßgenauigkeit liegt nur bei et­ wa 2π des Meßbereiches und wird damit für meßtechnische Applikationen im Nah­ bereich als ungeeignet angesehen. Die Gewinnung der Farbinformation von der Szene gilt hierbei als praktisch ausgeschlossen.
In der Erfindungsbeschreibung P 197 49 974.0 "Verfahren und Apparat zur Erzeu­ gung einer 3D-Punktwolke für die Topometrie oder die 3D-Vision für Multimedia Applikationen" der Autoren K. Körner und L. Nyársik wird eine Lösung für die Hochgeschwindigkeits-Bildaufnahme angegeben. Jedoch wird nicht im Einzelnen dargestellt, welche speziellen Anordnungsmerkmale für eine 3D-Aufnahme- Anordnung und welche Verfahrensschritte für ein 3D-Aufnahme-Verfahren einzuhal­ ten sind.
In der Arbeit "General approach for the description of optical 3D-measuring system" der Autoren P. Andrä, W. Jüptner, W. Kebbel und W. Osten in SPIE Vol. 3174, S. 207-215 wird eine allgemeine Beschreibung optischer Methoden für die 3D-Koordinatenmessung gegeben. Die Ableitung von geeigneten Algorithmen für die Hochgeschwindigkeitsauswertung von Bildserien für die 3D-Messung ist hierbei nicht gegeben, stellte aber auch nicht das Ziel dieser Arbeit dar.
Eine 3D-Echtzeitkamera wurde im Poster P 28 der 99. Tagung der Deutschen Ge­ sellschaft für angewandte Optik vom 2.6 bis 6.6.1998 in Bad Nenndorf von G. Bohn, L. Cloutot, G. Häusler, M. Hernandez, C. Horneber, R. Lampalzer, S. Seeger unter Einsatz eines ferroelektrischen Displays vorgestellt. Dieses ferroelektrische Display ist in 0,1 ms umschaltbar und wird in Verbindung mit einer astigmatischen Abbildung zur Generierung von sinusförmigen Streifen fester Ortsfrequenz verwendet. Die Meßzeit des Prototypen beträgt zur Zeit 320 ms. Eine absolute Kodierung des Rau­ mes mittels strukturiertem Licht ist damit bisher jedoch nicht möglich. Die erreichba­ re Genauigkeit ist gegenwärtig auf etwa 1/2000 des Meßbereiches begrenzt.
Mit der Erfindung gelöste Aufgabe
Die Erfindung löst die Aufgabe der flächenhaften Prüfung der 3D-Gestalt techni­ scher und natürlicher Oberflächen von Objekten im Raum und Szenen mit einem absoluten Bezug zur 3D-Aufnahme-Anordnung. Die Gestalt von Objekten im Raum und Szenen kann mit hoher Meßgenauigkeit in der Tiefe und mit hoher Geschwin­ digkeit gemessen werden.
Weiterhin wird die benötigte Lichtleistung für die Ausleuchtung der Szene zum Teil sehr stark reduziert, bzw. es kann die Bildaufnahmefrequenz bei hoher Lichtleistung erhöht werden. Durch das Auswerteverfahren wird eine Auflösung auf bis zu 1/2000 der effektiven Wellenlänge in der Tiefe erreichbar. Dies ist aber nicht in jedem Fall sinnvoll und möglich.
Technisch wird die Prüfung der Oberflächengestalt von Werkstücken des Maschi­ nenbaus, des Fahrzeugbaus und auch der Luft- und Raumfahrt weiter verbessert. Damit ist die Applikation in der automatisierten Produktion, in der Robotik, im Bau­ wesen, in der Medizin, beispielsweise bei der geometrischen Vermessung von Men­ schen, biologischen Objekten und auch im künstlerischen Bereich bei Plastiken oder Stuckwerken gegeben.
Weiterhin wird die Aufgabe der Hohlraum- und der Innenraum-Inspektion gelöst. La­ byrinthe in unterschiedlicher Größe und auch verstrahlte oder kontaminierte Innen­ räume, die dem Menschen aufgrund von ernsthaften gesundheitlichen Gefahren oder aufgrund der geringen Abmessungen nicht zugänglich sind, können durch Ro­ boter begangen werden, die mit einer oder mehreren 3D-Aufnahme-Anordnungen ausgerüstet sind. Dabei kann es sich um rollende, schreitende, saugende, schwim­ mende, fliegende, kriechende und krabbelnde Roboter handeln. Auch ist der Unter­ wassereinsatz für die Schiffswrack-Inspektion mit der 3D-Aufnahme-Anordnung grundsätzlich möglich.
Auch die elektronische Unterstützung von sehbehinderten Menschen zur Orientie­ rung im Raum ist mit einer miniaturisierten 3D-Aufnahme-Anordnung möglich. Bei Recyclingprozessen ist eine Möglichkeit der automatisierten Demontage von Altge­ räten, alten Karosserien sowie die Trennung von Abfallprodukten auch in einer ge­ fährlichen Umgebung gegeben.
Das unterschiedliche Reflexionsvermögen von technischen Oberflächen, welches beispielsweise durch eine ausgeprägte Textur verursacht wird, kann kompensiert werden.
Erreichte Verbesserungen und Vorteile gegenüber dem Stand der Technik
Die Erfindung ermöglicht die schnelle Erfassung und Prüfung der 3D-Gestalt von Körpern und Szenen mit großer Tiefenausdehnung, vorzugsweise mit Abmessungen im Bereich oberhalb eines Millimeters. Durch die Beleuchtung des Objektes unter ei­ nem vergleichsweise geringen Triangulationswinkel, beispielsweise um 10° oder kleiner, können auch glatte Oberflächen mit einem geringen Streuvermögen ohne Präparierung der Oberfläche - wie in der Praxis heute oft noch üblich - aufgenom­ men werden.
Außerdem können nichttechnische Objekte in ihrer räumlichen Struktur erfaßt wer­ den, wobei der Raum, in welchem sich die Objekte befinden, in unterschiedlichen Tiefen zeitlich nacheinander strukturiert beleuchtet wird. Bei entsprechend hoher Dy­ namik der für die 3D-Aufnahme eingesetzten Komponenten können auch sich bewe­ gende Objekte und Szenen, einschließlich Personen und Tiere, aufgenommen wer­ den. Die Echtzeitfähigkeit des Verfahrens ist grundsätzlich gegeben. Dabei sind grundsätzlich mehrere 3D-Aufnahme-Anordnungen einsetzbar, und es kann die Far­ be der Objektpunkte bei Verwendung von farbtüchtigen Bildaufnehmern verarbeitet werden.
Die bei der Erfassung räumlicher Strukturen störenden Lichtschatten aufgrund eines relativ großen Triangulationswinkels von 30° bis beispielsweise 60° werden weitge­ hend vermieden.
Eine weitere Verbesserung stellt die deutliche Erhöhung der Auswertegeschwindig­ keit bei der 3D-Erfassung dar. Es besteht die reale technische Möglichkeit, die 3D-Punktwolke des Objektes oder der Szene im Video-Takt zur Verfügung zu stellen.
Der in seiner 3D-Form zu erfassende Körper oder die gesamte Szene stehen vor­ zugsweise senkrecht zur optischen Achse des Aufnahmeobjektivs. Das gestattet, aufgrund der optimalen Abbildungsbedingungen eine hohe laterale Auflösung und den Einsatz tomographischer oder tiefenscannender Verfahren. Die 3D-Punktwolke besitzt einen absoluten geometrischen Bezug zu einem Nullpunkt der 3D-Aufnahme-Anordnung.
Die Anwendung der Erfindung ermöglicht die nahezu vollständige Ausnutzung der hohen Leistungsfähigkeit optischer Abbildungsysteme für die Prüfung der 3D-Oberflächengestalt.
Die Realisierung einer hohen Beleuchtungsapertur sichert ein geringes Speckle- Rauschen in den Pixeln der Kamera.
Andererseits können komplette Szenen mit bewegten Objekten echtzeitnah als 3D-Szenen aufgenommen werden. Die Grenze für das erfaßbare Volumen stellt die verfügbare Lichtenergie, die Lichtstärke der verwendeten Objektive sowie die photo­ metrische Empfindlichkeit der verwendeten Bildempfänger dar. Der in der Tiefe er­ faßbare Raum kann durchaus bis zu 20 m betragen. Die Begrenzung erfolgt letztlich durch das Signal-Rausch-Verhältnis im Lichtempfänger bzw. Bildempfänger.
Grundzüge des Lösungsweges
Es werden die Grundzüge des Verfahrens und der Anordnung beschrieben. Mittels einer transmissiven oder reflektierenden, gerasterte Struktur mit mehreren Maxima und Minima der Transmission oder Reflexion und einer Lichtquelle wird eine struktu­ rierte, leuchtende Fläche mit lokalen Extrema der Leuchtdichte erzeugt. Diese gera­ sterte Struktur wird im weiteren als Sender-Array bezeichnet. Dem Sender-Array ist mindestens ein möglichst hochgeöffnetes Beleuchtungsobjektiv mit einer positiven Brennweite zur Abbildung dieses Sender-Arrays nachgeordnet. So entsteht durch die Abbildung des Sender-Arrays im Raum des Objektes auf dessen Oberfläche eine strukturierte Beleuchtung.
Grundsätzlich kann das Sender-Array auch selbstleuchtend sein und lokale Extrema der Leuchtdichte aufweisen.
Zu dem erfinderischem Zweck ist bei der Abbildung des Sender-Arrays in die Tiefe des Raumes des Objektes eine möglichst geringe Ausdehnung des Schärfeberei­ ches realisiert, so daß die räumlich strukturierte Beleuchtung sich mehr in einem scheibenförmigen Volumen befindet. Zum Beleuchtungsobjektiv ist mindestens ein Aufnahmeobjektiv zur Abbildung des Objektes oder der Szenen angeordnet. Beleuchtungs- und Aufnahmeobjektiv sind vorzugsweise von gleicher Bauart und weisen somit auch die gleiche Brennweite auf. Auch fallen die Brennebenen der bei­ den Objektive im Raum des Objektes vorzugsweise zusammen und die beiden Objektive sind vorzugsweise in geringem Abstand voneinander angeordnet mit vor­ zugsweise parallelen Achsen. Gegebenfalls können die Linsen sogar in einem ge­ meinsamen Gehäuse untergebracht sein.
Die Objektive weisen vorteilhafterweise ein großes Bildfeld auf. Die Korrektur in der Tiefe sollte in einem großen Tiefenbereich gut sein. Durch die Koinzidenz der Brennebenen im Raum des Objektes können die Objektive stets auf die gleiche Objekt- und Bildebene eingestellt werden und bilden dann durch den geringen Ab­ stand der Objektivachsen in einem Bereich, vorzugsweise mit einem Abstand deut­ lich unterhalb der einhundertfachen Brennweite des Beleuchtungsobjektivs - typisch ist das dreifache bis sechsfache - zumindest einen identischen Teil des Objektfeldes im Raum des Objektes, in der Regel verkleinernd, in den Raum der Arrays ab. In diesem Raum bestehen getrennte Bildfelder, jedoch in einer vorzugsweise gemein­ samen Ebene, die vorzugsweise senkrecht auf der optischen Achse steht. Die Schärfeflächen der beiden Objektive im Raum des Objektes fallen vorzugsweise in einem möglichst großen Bereich zusammen.
Das Abbildungsobjektiv weist im Raum der Arrays einen vorzugsweise telezentri­ schen Strahlengang im strengen Sinne auf, d. h. die Austrittspupille liegt sehr weit vom Objektiv entfernt, beispielsweise um 100 m. Das Beleuchtungsobjektiv weist im Raum der Arrays vorzugsweise einen ebenfalls gut korrigierten telezentrischen Strahlengang auf. Es ist jedoch auch grundsätzlich möglich, daß dieses Beleuch­ tungsobjektiv im Raum der Arrays einen parallelen Strahlengang mit einer dezen­ trierten Eintrittspupille aufweist.
In der Bildebene des Aufnahmeobjektivs ist ein weiteres Array, das Empfänger- Array angeordnet. Auch dieses Array befindet sich vorzugsweise in einem telezentri­ schen Strahlengang. Dieses Empfänger-Array kann ein gerasterter Bildempfänger, beispielsweise eine Empfänger-Matrix oder aber auch ein mikrooptisches Array sein. Das mikrooptische Array in der Bildebene des Beleuchtungsobjektivs ist vorzugswei­ se ein Mikrolinsen-Array aus diffraktiven oder refraktiven Elementen.
Die Telezentrie des Abbildungsobjektiv im Raum der Arrays sichert, daß beim Bewe­ gen des Empfänger-Arrays parallel zur Achse des Abbildungsobjektivs, also in der üblichen Notation in z-Richtung - hier die zA-Richtung, die Abbildungsstrahlen eine feste Position zu den Elementen des Empfänger-Arrays beibehalten, also die Abbil­ dungsstrahlen nicht lateral auswandern. Im Raum des Objektes weisen das Beleuchtungs- und das Abbildungsobjektiv dagegen einen vorzugsweise zentralper­ spektivischen Strahlengang auf, um einen großen Raumbereich erfassen zu können.
Im Fall der Verwendung eines Mikrolinsen-Arrays im Abbildungsstrahlengang als Empfänger-Array sind dem Mikrolinsen-Array weitere Komponenten, wie ein Bild­ empfänger, nachgeordnet.
Durch das gemeinsame Bewegen des Sender-Arrays und des Empfänger-Arrays mittels eines Bewegungs-Systems, parallel zur optischen Achsen des Beleuchtungs­ objektivs, also in der zA-Richtung, werden nach und nach alle Bereiche des Objektes oder der Szene in der Tiefe in der jeweiligen Schärfefläche beleuchtet und abgebil­ det. Dabei ist das Bewegungssystem vorzugsweise als translatorisch arbeitendes Bewegungssystem ausgeführt. Es entsteht eine strukturierte Beleuchtung in jeweils genau der Ebene des Objektes oder der Szene durch die Abbildung des Sender- Arrays, welche durch das Aufnahmeobjektiv scharf auf das Empfänger-Array abge­ bildet wird. Durch die Anpassung der Leuchtdichte der Lichtquelle an die jeweilige Entfernung der Schärfefläche von der 3D-Aufnahme-Anordnung wird die bekannte Abnahme der Beleuchtungsstärke auf der Objektoberfläche in Abhängigkeit von de­ ren Entfernung ausgeglichen.
Dabei wird das folgende Bewegungsregime für das Sender-Array und das Empfänger-Array realisiert: Die Beträge der Bewegung der beiden Arrays parallel zur optischen Achse des Beleuchtungs- und des Abbildungsobjektives, die zA-Rich­ tung, sind bei einem Beleuchtungs- und Aufnahmeobjektiv mit gleicher Brennweite gleich.
Das Sender-Array führt mittels einer Linearführung zusätzlich und vorzugsweise zeit­ gleich zur Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs eine laterale Bewegung aus, also senkrecht zur optischen Achse des Beleuchtungsobjektivs.
Bei einem elektronisch steuerbaren Array erfolgt die laterale Verschiebung der Ele­ mente gleicher Leuchtdichte, bzw. die Verschiebung der Orte der lokalen Extrema der Leuchtdichte vorzugsweise zeitgleich zu der Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs durch eine elektronische Steuerung der Transmis­ sion, der Reflexion - oder der Leuchtdichte bei einem selbstleuchtenden Array - je­ weils in den Elementen des Arrays. Auf dem elektronisch steuerbaren Gitter werden also die lokalen Extrema der Leuchtdichte durch lokale Extrema der Transmission, der Reflexion oder durch eine direkte Steuerung der Leuchtdichte bei einem selbst­ leuchtenden Array erzeugt.
Für die Gitterelemente oder die Elemente gleicher Leuchtdichte bzw. die Orte der lokalen Extrema der Leuchtdichte des Sender-Arrays bzw. auch der Orte gleicher Phase der Leuchtdichtverteilung wird so eine lineare Bewegung erzeugt, die parallel zu einer Geraden gA ausgerichtet ist. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Raum der Arrays schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Raum der Arrays und Abstand des Brennpunktes des Abbildungsobjektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs, aufweist, wobei dieser An­ stieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungs­ objektivs bezogen ist, die beispielsweise in dessen Brennebene im Raum der Arrays liegt.
Im Fall der parallelen Lage der beiden Achsen von Beleuchtungs- und Abbildungs­ objektiv entspricht der Abstand der beiden Achsen von Beleuchtungs- und Abbil­ dungsobjektiv selbstverständlich dem Abstand des Brennpunktes des Abbildungsob­ jektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs.
Die Gerade gA schneidet - bei einer gegebenen Anordnung mit zwei parallelen Ach­ sen von Beleuchtungs- und Abbildungsobjektiv und zusammenfallenden Brenn- und Hauptebenen der beiden Objektive - stets sowohl den Brennpunkt des Beleuch­ tungsobjektivs auf der Seite des Sender-Arrays als auch auf der gleichen Seite des Arrays den Hauptpunkt des Abbildungsobjektivs. Punkte entlang dieser Geraden werden entsprechend der bekannten Scheimpflugbedingung in diesem Fall auf eine zur Objektivachse des Beleuchtungsobjektivs parallelen Gerade gO abgebildet.
Die Bilder der zur Geraden gA parallelen Geraden, welche die Orte der Elemente des Sender-Arrays enthalten, bilden im Raum des Objektes mit der Geraden gO ein Geradenbüschel, wobei der Schnittpunkt aller Geraden dieses Büschels bei der be­ schriebenen Anordnung stets im Brennpunkt des Abbildungsobjektivs im Raum des Objektes liegen soll. Gleichzeitig schneiden alle Abbildungsstrahlen des Abbildungs­ objektivs bei Telezentrie im Raum der Arrays ebenfalls den Brennpunkt des Abbil­ dungsobjektiv im Raum des Objektes und bilden so ein Strahlenbüschel. Die Gera­ den des Geradenbüschels und die Strahlen des Strahlenbüschels koinzidieren. So detektieren, bei einer achssenkrechten Objektoberfläche im Raum der Arrays und einer Bewegung des Sender-Arrays in Richtung der Geraden gA die zu den jeweili­ gen Abbildungsstrahlen gehörenden Bildpunkte auf dem Empfänger-Array jeweils den gleichen Betrag der Phasenverschiebung. Diese Phasenverschiebung ent­ spricht der Verschiebung der Elemente des Sender-Arrays oder der Verschiebung der Leuchtdichteverteilung auf dem Sender-Array. Ein paralleles Verschieben dieser Objektoberfläche führt zum gleichen Betrag der Phasenverschiebung in den Signa­ len, die in allen Bildpunkten detektiert werden können. Dies bedeutet, daß die Tiefenempfindlichkeit der beschriebenen 3D-Aufnahme-Anordnung in einer achs­ senkrechten Ebene im Raum des Objektes eine Konstante ist, also keine laterale Abhängigkeit aufweist. Die Tiefenempfindlichkeit kann durch die effektive Wellenlän­ ge der 3D-Aufnahme-Anordnung beschrieben werden. Die effektive Wellenlänge wird hier als der Betrag der Verschiebung Δz eines Objektpunktes auf einem Abbil­ dungsstrahl definiert, bei dem sich die Phase genau um 2π im selben Abbildungs­ strahl verändert hat, mit ZOB als der zur Achse des Beleuchtungsobjektivs parallelen Koordinate im Raum des Objektes.
Auf der Grundlage der in einer achssenkrechten Ebene konstanten Tiefenempfind­ lichkeit wird die Weiterverarbeitung von errechneten Phasenwerten zur 3D-Punktwolke stark vereinfacht. In diesem Fall können die Berechnungen beson­ ders schnell erfolgen. Es können straight formrard-Algorithmen zur Anwendung kom­ men. Dies stellt einen großen Vorteil der beschriebenen 3D-Aufnahme-Anordnung dar.
Eine Anordnung mit zwei starr angeordneten Objektiven ist technisch mit großer Ge­ nauigkeit bezüglich der Parallelität der Achsen und der Lage der Brennebenen reali­ sierbar und auch vergleichsweise wirtschaftlich herstellbar und wird deshalb favorisiert.
Die 3D-Aufnahme-Anordnung kann jedoch auch wie folgt aufgebaut sein: Dem Be­ leuchtungsobjektiv ist ein Sender-Array zum Zweck der Abbildung zugeordnet, wel­ ches schiefwinklig zur Achse des Beleuchtungsobjektiv bewegbar ist. Die geradlinige Bewegungsrichtung des Arrays definiert die Lage einer Geraden gA und ist zur Lage der Achse des Beleuchtungsobjektivs konstruktiv unveränderlich gemacht. Die An­ ordnung ist so aufgebaut, daß die Gerade gA möglichst genau den Brennpunkt im Raum des Arrays sowie die Hauptebene des Beleuchtungsobjektivs in einer endli­ chen Entfernung von dessen optischer Achse schneidet, nämlich dort, wo die Achse des Abbildungsobjektivs liegen soll. Die reale oder gedankliche Abbildung der Gera­ den gA durch das Beleuchtungsobjektiv in den Raum des Objektes erzeugt die zur Achse des Beleuchtungsobjektivs parallele Gerade gO. Diese Geraden gO durchstößt die Brennebene des Beleuchtungsobjektivs im Raum des Objektes. Der objektseiti­ ge Brennpunkt des Abbildungsobjektivs ist in den Durchstoßpunkt der Geraden gO durch die Brennebene des Beleuchtungsobjektivs möglichst genau einjustiert, wobei die Achse des Abbildungsobjektivs vorzugsweise parallel zur Achse des Beleuch­ tungsobjektivs ausgerichtet ist, so daß die Achse des Abbildungsobjektivs mit der Lage der Geraden gO zusammenfällt. Die Gerade gA weist so, mehr oder weniger gut angenähert, den Anstieg mit dem Betrag aus dem Quotienten Brennweite des Be­ leuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsobjektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs auf, wobei dieser An­ stieg auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezo­ gen ist.
Das Bewegungsregime für die 3D-Aufnahme-Anordnung ist zum einen durch ein Sy­ stem mit zwei Linearführungen realisierbar, deren Achsen vorzugsweise senkrecht zueinander ausgerichtet sind. Die bewegten Komponenten dieser Linearführungen, auch als Schlitten bezeichnet, sind unabhängig voneinander in den Linear­ bewegungen steuerbar. Eine Miniaturisierung dieser Komponenten ist möglich. Es können lineare Direktantriebe verwendet werden, beispielsweise elektrodynamische Tauchspulsysteme oder Linearmotore. Die Bewegungsrichtung der bewegten Kom­ ponente der ersten Linearführung ist parallel zur Richtung der optischen Achse, der zA-Koordinate, die der Bewegungskomponente der zweiten Linearführung in einer dazu achssenkrechten Richtung, der xA-Richtung. Diese beiden Linearführungen er­ zeugen so die Bewegung der Elemente des Sender-Arrays parallel zur Geraden gA. Dabei ist das Empfänger-Array der ersten Linearführung zugeordnet, die in Richtung der optischen Achse arbeitet. Der Schlitten der ersten Linearführung trägt also das Empfänger-Array und vorzugsweise die zweite Linearführung und der Schlitten die­ ser zweiten Linearführung das Sender-Array.
Andererseits kann auch eine einzige Linearführung mit einem Schlitten, der gleich­ zeitig auf diesem Schlitten das Sender-Array und das Empfänger-Array trägt, einge­ setzt werden. Die Bewegungsrichtung dieses Schlittens ist parallel zur Geraden gA - also nicht achssenkrecht, sondern schiefwinklig zu den Objektivachsen. Im letztge­ nannten Fall gibt es jedoch, entsprechend der Schlittenbewegung, auf dem Empfänger-Array eine unerwünschte Verschiebung des Bildes zu den Pixeln des Empfänger-Arrays. Diese Verschiebung kann im Bildauswerte-Algorithmus pixelwei­ se zurückgerechnet werden. Eine hohe Rechengeschwindigkeit ist dann erreichbar, wenn die Schlittenbewegung und die Aufnahme von Bildern synchronisiert sind und Bilder in Abhängigkeit von der Schlittenposition nur dann aufgenommen werden, wenn die aufgetretene Verschiebung des Bildes auf dem Empfänger-Arrays jeweils mindestens ein ganzes Pixel oder ein davon ganzzahliges Vielfaches beträgt. Die Ablage der Bilddaten im Datensatz erfolgt stets unter Berücksichtigung der aufgetre­ tenen Bildverschiebung, so daß im Ergebnis eine Kompensation der Verschiebung des Bildes mit Hilfe numerischer Methoden erfolgt ist. So wird beispielsweise ein be­ stimmter realer Abbildungsstrahl im Objektraum durch die Zuordnung der abgeleg­ ten Daten im Bilddaten-Satz verfolgt, der aus mehreren Schichten, beziehungsweise Datenfeldern besteht. Jede Schicht entspricht dabei einem aufgenommenen Bild. So bleibt ein realer Abbildungsstrahl, der von einem bestimmten Element des Sender-Arrays ausgeht, im gesamten Bewegungsvorgang der beiden Arrays stets einem Element mit gleichen Indizes, also gleicher Position, in jeder Schicht oder je­ dem Datenfeld des gesamten Bilddatensatzes zugeordnet.
Jedoch verringert sich bei dem Verfahren mit nur einer Linearführung die effektiv er­ faßte Objektbreite durch die laterale Verschiebung des Empfänger-Arrays, so daß ein längeres Empfänger-Array benötigt wird, um ein Bild im Standardformat aufneh­ men zu können. Die zusätzlich benötigte Länge des Empfänger-Arrays ist allein von der Verschiebungslänge abhängig, die sich aus der Anzahl der aufgenommenen Bil­ der pro Bewegungsvorgang des Schlittens, auch als Scan bezeichnet, ergibt.
Bei einem Bewegungs-System mit zwei Linearführungen wird wie folgt vorgegangen:
Die laterale und lineare Bewegung des Sender-Arrays erfolgt mittels des Schlittens der zweiten Linearführung und beginnt vorzugsweise an einem hochstabilen Null­ punkt. Das Sender-Array kann ein Liniengitter darstellen, dessen Translation durch ein hochgenaues Längenmeßsystem erfaßt werden kann. Vorzugsweise wird die Gitterbewegung jedoch hochgenau mittels eines zweiten Liniengitters phasenmäßig erfaßt, so daß die auf den Nullpunkt bezogene absolute Gitterphase auch in Bruch­ teilen von 2π bekannt ist. Hochauflösende Interpolationstechniken sind aus der in­ krementalen Längenmeßtechnik bekannt. Damit kann die Gitterphase selbst die Re­ ferenz für das Abtasten der von der Objektoberfläche aus dem Objektraum aufge­ nommenen optischen Signale darstellen. So kann die Phase dieser Signale hochge­ nau bestimmt werden. Das ist sehr wesentlich, da in der Phase der optischen Signa­ le und deren Ort der Entstehung in Verbindung mit den Geometrie-Parametern der Anordnung die Information über die jeweilige Objektposition enthalten ist.
Die Fläche des Empfänger-Arrays befindet sich bei Objektiven gleicher Bauart vor­ zugsweise in der gleichen Ebene wie die Fläche des Sender-Arrays. Außerdem füh­ ren das Sender-Array, hier das Liniengitter, durch das Bewegungssystem oder bei einem elektronisch steuerbaren Array die lokalen Extrema der Leuchtdichte zusätz­ lich zur Bewegung in der Tiefe eine laterale Bewegung aus, so daß als resultierende Bewegung des Liniengitters oder der lokalen Extrema der Leuchtdichte eine lineare Bewegung parallel zu der bereits genannten Geraden gA erfolgt. Durch diese Bewe­ gung ändert sich die Phase eines Signals, welches im Bildpunkt eines Objektpunk­ tes beobachtet werden kann.
Andererseits wird durch dieses Bewegungsregime, die Geometrie der Anordnung und die Telezentrie der Objektive im Raum der Arrays erreicht, daß ein Beleuch­ tungsstrahl eines sendenden Elementes einer bestimmten Phase und ein Abbil­ dungsstrahl, die sich in einer beliebigen Schärfefläche schneiden, sich in allen Schärfeflächen schneiden. So ist auch gegeben, daß beim Bewegen der beiden Ar­ rays die Bilder der sendenden Elemente gleicher Phase und die der empfangenden Elemente der beiden Arrays bei einer idealen Anordnung im gesamten Objektraum stets zusammenfallen. Dabei sind Objektive mit geringer Verzeichnung und sehr ge­ ringen Fehlern und eine möglichst geringe Brennweitendifferenz der beiden Objekti­ ve und eine möglichst präzise Justierung grundsätzlich von Vorteil und reduzieren den numerischen Korrekturaufwand erheblich. Die Abweichungen vom Idealzustand können jedoch nur innerhalb gewisser Grenzen toleriert werden.
Durch die Bewegung des Liniengitters parallel zur Geraden gA und die "feste Kopp­ lung der Schärfeflächen" der beiden Objektive im Raum des Objektes zu einer ge­ meinsamen Schärfefläche erfolgt das "Mitführen der Phase im Abbildungsstrahl". Dies bedeutet, die Phase bleibt in jedem Abbildungsstrahl konstant, der von einem in der gemeinsamen Schärfefläche mitbewegten Punkt der Objektoberfläche in das Abbildungsobjektiv gelangt, auch wenn sich die Lage dieser Schärfefläche in der Tiefe des Raumes der Arrays ändert. Ein gedachter, im Abbildungsstrahl in der Schärfefläche stetig mitlaufender Objektpunkt würde demzufolge beim Bewegen des Liniengitters keine Phasenänderung im detektierbaren Signal erfahren, da beispiels­ weise immer der gleiche Ausschnitt des Streifens im zum Abbildungsstrahl zugehöri­ gen Bildpunkt detektiert wird.
Dagegen ist im Bildpunkt eines feststehenden Objektpunktes beim Bewegen des Li­ niengitters stets ein periodisches Signal zu beobachten. In diesem periodischen Si­ gnal selbst und durch seine Lage in Bezug auf die Phase des Liniengitters ist die In­ formation über die aktuelle zOB-Position dieses Objektpunktes im Raum des Objek­ tes eindeutig enthalten.
Das Ziel besteht darin, durch das Variieren der Lage der Schärfeflächen in der Tiefe bis zu jedem Objektpunkt des Objektes und einen kleinen Betrag darüber hinaus, um das Signal auch im Umfeld des Objektpunktes erfassen zu können, die Objekt­ phase jeder zu einem Objektpunkt zugehörigen achssenkrechten Ebene zu bestim­ men. Dies wird durch die Detektion eines modulierten periodischen Signals mit einem Modulationsmaximum in jedem abgebildeten Objektpunkt, also im zugehöri­ gen Bildpunkt, erreicht. Das periodische Signal entsteht beim Durchgang der beiden koinzidierenden Schärfeflächen durch die Ebene des jeweiligen Objektpunktes und das Modulationsmaximum entspricht der Lage der koinzidierenden Schärfeflächen. Eine gewisse Abweichung von der Koinzidenz der Schärfeflächen führt zu einer effektiven Schärfefläche und ist innerhalb gewisser Grenzen tolerierbar. Es tritt eine Verringerung des Modulationsmaximums im detektierten Signal auf.
Es ist möglich, die Kopplung der Schärfeflächen der beiden Objektive im Raum des Objektes so auszuführen, daß sich ein bestimmter Phasenwert in Bezug auf das Modulationsmaximum im beobachteten Signal durch das laterale Feinjustieren des Sender-Arrays, bzw. des Liniengitters, ergibt.
Das periodische Signal wird in den Bildpunkten vorzugsweise in Schritten konstanter Phasenänderung abgetastet. Schritte konstanter Phasenänderung entstehen im Ob­ jektraum durch konstante Schritte eines bewegten Gitters, welches ein Liniengitter mit konstanter Gitterperiode darstellt, im Raum der Arrays. Unter Raum der Arrays wird immer der Raum verstanden, wo sich das Empfänger-Array und das Sender- Array, hier das Liniengitter, befinden.
Es wird davon ausgegangen, daß die zOB-Position als Abstand von der Brennebene des Beleuchtungsobjektivs im Raum des Objekts jeder achssenkrechten Ebene im Objektraum durch eine lateral invariante, absolute Objektphase ϕObj beschrieben werden kann, so daß es achssenkrechte Ebenen konstanter Phase im Raum des Objektes gibt.
Die lateral invariante, absolute Objektphase ϕObj in einem Punkt des Objektes ist nur von der Position zObj desselben und der Geometrie der optischen Anordnung abhän­ gig und besitzt deshalb bei idealen Abbildungsverhältnissen und Justierungen grundsätzlich keine laterale Abhängigkeit. Im weiteren wird in der Regel von der Ob­ jektphase ϕObj gesprochen. Die Geometrie der optischen Anordnung ist durch die Brennweite fB des Beleuchtungsobjektivs, den Abstand d der beiden zueinander pa­ rallelen Objektivachsen und die Gitterkonstante p des Sender-Arrays, hier ein Li­ niengitter, beschrieben. Die Gerade gO, das Bild der Geraden gA, fällt mit der Achse des Abbildungsobjektivs zusammen, so daß die Größe d auch den Abstand der Ge­ raden gO von der Achse des Beleuchtungsobjektivs beschreibt.
Es wird von folgendem Geometrie-Modell ausgegangen: Die lateral invariante, abso­ lute Objektphase ϕObj für eine achssenkrechte Ebene mit dem Abstand zOB ent­ spricht immer der Anzahl der Streifenordnungen zuzüglich der beiden Streifenbruch­ teile, die auf der Strecke zwischen einem Punkt dieser Ebene auf der optischen Achse des Abbildungsobjektivs und einem Punkt dieser Ebene auf der Geraden gO liegen.
Im Unendlichen ist deshalb die Objektphase wegen der unendlichen Streifenbreite null und in der Brennebene des Objektraumes nähert sich die Objektphase aufgrund des Streifenabstandes null dem Unendlichen an. Die Objektphase ϕObj weist bei der gewählten Notation in der Regel negative Werte auf. Für (-)zOB = fB wird die Objekt­ phase ϕObj = ϕfB und es gilt
mit d als dem Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier auch dem Abstand der parallelen Achsen der beiden Objekti­ ve voneinander und mit p als der Gitterkonstanten des Liniengitters, welches als Sender-Array verwendet wird.
Mit einer ebenen und achssenkrechten Referenzplatte kann im Raum des Objektes die Objektphase als die Anzahl der Streifenordnungen zwischen der Geraden gO und der Achse des Beleuchtungsobjektivs, beziehungsweise hier zwischen den beiden optischen Achsen, durch Auszählen von Streifen oder genauer mittels bekannter Phasenschiebetechnik ermittelt werden. Das Problem stellt hier zunächst die Kennt­ nis der genauen Lage der beiden optischen Achsen in der Anordnung dar. Die hoch­ genaue Bestimmung der Streifenanzahl zwischen den optischen Achsen kann beim parallelen Verschieben der Referenzplatte in mehreren Schritten - sowohl als Ju­ stierkriterium für die Kontrolle der Abweichung von der Parallelität der optischen Achsen der beiden Objektive als auch der achssenkrechten Lage der Referenzplatte -genutzt werden. Bei einer eingemessenen Anordnung mit bekannter Lage der opti­ schen Achsen bzgl. des Sender- und Empfänger-Arrays kann die Referenzphase so auf experimentellem Weg bestimmt werden.
Um entlang eines Abbildungsstrahls die zOB-Koordinate eines Objektpunktes zObj zu erhalten, ist in jedem Objektpunkt die lateral invariante, absolute Objektphase cpobj zu bestimmen, die im weiteren als Objektphase bezeichnet wird. Ein Abbildungs­ strahl soll hier im Modell jeweils genau auf ein Pixel der lateral feststehenden Emp­ fängerfläche treffen.
Die Objektphase ϕObj eines Objektpunktes kann nicht direkt, sondern nur in Bezug auf eine Referenzfläche bestimmt werden. Die absolute, lateral invariante Phase der Referenzfläche, die Referenzphase ϕR, wird aus einem als bekannt angenomme­ nen, vorzeichenbehafteten Abstand zOB = zOR der Referenzfläche mit
errechnet, wobei d den Abstand der Geraden gO von der Achse des Beleuchtungs­ objektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Ob­ jektive voneinander, fB die Brennweite des Beleuchtungsobjektivs und p die Gitter­ konstante des Sender-Arrays darstellen. Da zOR in die negative Achsrichtung gezählt wird, ergibt sich auch ein negativer Wert für die Referenzphase ϕR. Der Abstand zOR der Referenzfläche wird möglichst genau experimentell ermittelt. In der Regel treffen alle zur Erfassung des Objektes oder der Szene genutzten Abbildungsstrah­ len auch auf die Referenzplatte.
Der Grundgedanke besteht darin, in jedem Abbildungsstrahl aus der Auswertung des im zugehörigen Bildpunkt eines Referenzpunktes der Referenzplatte über der Phase des Gitters ϕGitter zu beobachtenden modulierten, periodischen Signals und des in einem Bildpunkt eines Objektpunkt über der Phase des Gitters zu beobach­ tenden modulierten, periodischen Signals die absolute Phasendifferenz ΔϕGitter die­ ser beiden Signallagen aus der Phase des Gitters zu bestimmen. Dabei wird davon ausgegangen, daß die periodischen Signale eine Modulation mit einem Modulations­ maximum aufweisen. Die Breite dieser Modulationskurve über der Phase des Gitters ϕGitter oder dem zugeordneten Verschiebeweg des Gitters ist abhängig vom Achsab­ stand d der beiden Objektivachsen, den Brennweiten der beiden Objektive und der relativen Öffnung der beiden Objektive, beschrieben jeweils durch die Blendenzahl k der beiden Objektive, und den Eigenschaften der Oberfläche hinsichtlich der Lichtstreuung.
Die Bestimmung der absoluten Phasendifferenz ΔϕGitter kann so erfolgen, daß der in einem Objektpunkt über der Phase des Gitters zu beobachtende Signalverlauf über der Phase, die aus dem Verschiebeweg des Gitters abgeleitet ist, um genau den Phasenbetrag soweit verschoben wird, daß sich dieser Signalverlauf mit dem im zu­ gehörigen Referenzpunkt der Referenzplatte zu beobachtenden Signalverlauf mög­ lichst genau deckt, d. h. die Korrelation dieser beiden Signalverläufe möglichst hoch ist. Dieser so ermittelte Phasenbetrag entspricht dann der absoluten Phasendiffe­ renz ΔϕGitter als die Differenz der jeweils zu den beiden Signalverläufen zugehörigen absoluten Phase des Gitters ϕGitter.
Dazu wird erstens aus einer Abtastung des Signals über der Phase im Bildpunkt ei­ nes Referenzpunktes der relative Referenzphasenwert ϕRR mod 2π bestimmt. Zwei­ tens wird aus einer Abtastung des Signals über der Phase im Bildpunkt eines jeden Objektpunktes der relative Objektphasenwert ϕRObj mod 2π bestimmt. Der relative Referenzphasenwert ϕRR und der relative Objektphasenwert ϕRObj werden dabei je­ weils der absoluten Phase des Gitters ϕGitter zugeordnet und unter Beachtung des je­ weiligen Vorzeichens von dieser subtrahiert. So entstehen die absoluten Phasen­ werte der Gitterphase ϕGitterR für einen Referenzpunkt und ϕGitterObj für einen Objekt­ punkt. Mit der Differenz
ΔϕGitter = ϕGitterObjGitterR (3)
wird die absolute Phasendifferenz ΔϕGitter bestimmt, die einen positiven Wert auf­ weist, wenn der erfaßte Objektpunkt weiter von der Brennebene als der zugehörige Referenzpunkt entfernt ist. Durch die vorzeichenbehaftete Addition der absoluten Phasendifferenz ΔϕGitter zur experimentell oder konstruktiv abgeleiteten Referenzpha­ se ϕR wird die absolute Objektphase ϕObj dann mit
(-)ϕObj = (-)ϕR + ΔϕGitter (4)
bestimmt. Da das Vorzeichen der Phase der Referenzfläche ϕR negativ ist und die Phasendifferenz ΔϕGitter im Betrag stets kleiner ist als Phase der Referenzfläche ϕR, ergibt sich für die absolute Objektphase ϕObj ein negativer Wert. Die Koordinate ei­ nes Objektpunktes zOB = zObj kann dann mit der Gleichung
bestimmt werden, die für eine negative absolute Objektphase ebenfalls einen nega­ tiven Wert liefert. Dabei stellen d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs, ϕObj die absolute, lateral invariante Objektphase und p die Gitterkonstante des Linien­ gitters dar.
Als Nullebene der 3D-Aufnahme-Anordnung wird die achssenkrechte Ebene für zOB = 0, die Brennebene des Beleuchtungsobjektiv im Raum des Objektes, gewählt. Demzufolge stellt der Brennpunkt FOB des Beleuchtungsobjektivs im Raum des Ob­ jektes den Nullpunkt der 3D-Aufnahme-Anordnung dar.
Der möglichst genauen Bestimmung der absoluten Phasendifferenz ΔϕGitter in der Phase des Gitters ΔϕGitter kommt für das Verfahren eine besonders große Bedeutung zu.
Eine weitere Möglichkeit besteht darin, nicht die relativen Phasenwerte im Referenzpunkt-Signal und im Objektpunkt-Signal, sondern die Lage der Orte glei­ cher Phase im Referenzpunkt-Signal und im Objektpunkt-Signal in Bezug auf die Phase des Gitters ϕGitter zu bestimmen, beispielsweise anhand der Orte gleicher Phasenlagen.
Grundsätzlich kann auch über ein Längenmeßsystem, welches die Gitterbewegung hochaufgelöst mißt, die Ortsdifferenz der Lagen des Referenzpunkt-Signals und des Objektpunkt-Signals bestimmt werden. Aus der bekannten Gitterkonstante p des Sender-Arrays kann aus der gemessenen Ortsdifferenz die zugehörige Phasendiffe­ renz ΔϕGitter in bekannter Weise errechnet werden. Dies ist anzuwenden, wenn nur eine einzige Linearführung mit einem Nullpunktgeber verwendet wird, da die pha­ senmäßige Abtastung des Gitters aufgrund des Bewegens desselben mit einer dann auch auftretenden Bewegungskomponente in Richtung der optischen Achse mit ei­ nem Gegengitter technisch besonders schwierig ist.
Mit der vorzugsweise hochebenen Referenzplatte muß das 3D-Aufnahmesystem in mindestens einer achssenkrechten Positionen eingemessen werden. Aus dem ex­ perimentell bestimmten Wert zORexp für die Lage der Referenzplattewird der Wert der Referenzphase ϕR mittels der angegebenen Gleichung (2) errechnet. Die ge­ messene Verschiebung in zOB-Richtung wird mit dem der durch die 3D-Aufnahme-Anordnung ermittelten zOR-Wert verglichen. So kann die 3D-Aufnahme-Anordnung kontrolliert werden. Bei Abweichungen von der hochge­ nau gemessenen Verschiebung von der rechnerisch bestimmten liegt für eine in sich gut einjustierte 3D-Aufnahme-Anordnung ein falscher Wert für die Referenzphase ϕR vor. Numerisch wird die Referenzphase verändert bis sich eine möglichst gute Übereinstimmung mit den experimentell bestimmten Verschiebewerten ergibt.
Zusammengefaßt gilt: Für die Bestimmung der Objektphase ϕObj im Objektraum wird vorteilhafterweise folgende Bedingung im Gesamt-Abbildungssystem realisiert, die sich aus der parallelen Bewegung des Liniengitters - oder ganz allgemein formuliert aus der parallelen Bewegung der Maxima und Minima der Leuchtdichte auf dem Sender-Array - zur Geraden gA ergibt: Beim Durchlaufen der beiden koinzidierenden Schärfeflächen von Beleuchtungs- und Abbildungsobjektiv durch die Tiefe des Rau­ mes des Objektes bleibt die beobachtete Phase im Schnittpunkt eines Strahls des Abbildungsobjektivs mit der gemeinsamen Schärfefläche durch die zusätzliche late­ rale Bewegung des Gitters stets konstant, so daß ein gedachter, in einem Strahl des Abbildungsobjektivs in der gemeinsamen Schärfefläche mitlaufender Objektpunkt in der gesamten Tiefe keine Phasenänderung erfährt. Dies wird als "Mitführung der Phase" bezeichnet. Dabei kann die zusätzliche laterale Bewegung des Gitters durch eine zweite Linearführung erfolgen oder sich aus der Schrägstellung einer gemein­ samen Linearführung für Sender- und Empfänger-Array ergeben. Andererseits kann diese Bedingung auch durch ein elektronisch gesteuertes Gitter, beispielsweise ein Liniengitter, realisiert werden, indem zusätzlich zum kontinuierlichen Bewegen des Gitters in zA-Richtung, die Phasenlage des Gitters ebenfalls kontinuierlich verändert wird, indem die Lage der Orte der lokalen Extrema der Leuchtdichte, auf dem elek­ tronisch steuerbaren Gitter verändert wird.
Dazu ist folgendes zu bemerken: Optisch konjugierte Punkte weisen im Raum der Arrays und im Raum des Objektes betragsmäßig die gleiche absolute Phase auf. Diese absolute Phase kann jeweils als laterale Koordinate verstanden werden. Die absolute Phase leitet sich aus der Beleuchtungssituation ab und kann im Raum der Arrays aus der χAB-Position im Gitterelement GAB bestimmt werden, welches sich im Aufnahmeprozeß auf einer Geraden gA bewegt und bei dieser Bewegung genau den array-seitigen Brennpunkt FAB schneidet. Aus diesem Zusammenhang ergibt sich die absolute Phase im Raum der Arrays mit
mit χAB1 als der lateralen Koordinate des Durchstoßpunktes der Geraden gA durch das Gitterelement GAB und p als Gitterkonstante des Liniengitters. Im optisch konju­ gierten Punkt GOB ergibt sich die gleiche absolute Phase wie im Punkt GAB, jedoch mit umgekehrtem Vorzeichen.
Es ist grundsätzlich möglich, das Beleuchtungsobjektiv mit einem zentralperspektivi­ schen Strahlengang im Raum des Objektes auszuführen, dagegen das Abbildungs­ objektiv aber als ein Objektiv mit einem telezentrischem Strahlengang im Raum des Objektes zu gestalten. In diesem Fall braucht im Telezentriebereich des Abbildungs­ objektivs das Empfänger-Array nicht bewegt zu werden. Diese Möglichkeit ist für kleinere Objekte unter 100 mm Durchmesser gegebenenfalls vorteilhaft, wo auch die vergleichsweise geringe Lichtstärke des telezentrischen Abbildungsobjektivs noch ohne größeren technischen Aufwand auszugleichen ist. Jedoch ergibt sich bei der Auswertung ein wesentlich höherer Rechenaufwand, da die Tiefenempfindlich­ keit, beschrieben durch die effektive Wellenlänge, in den jeweils achssenkrechten Ebenen lateral nicht konstant ist, da die Abbildungsstrahlen kein Strahlenbüschel bilden, welches mit dem Geradenbüschel um die Gerade gO koinzidiert, sondern ein Parallelbündel. Deshalb wird dieser Fall hier auch nicht weiter betrachtet.
Weiterhin muß das Empfänger-Array kein Bildempfänger sein, sondern kann nach dem Stand der Technik als Mikrolinsen-Array ausgeführt sein, um eine hohe Tiefen­ auflösung auf der Basis einer hohen Streifendichte erreichen zu können. Das Mikrolinsen-Array befindet sich im Raum der Arrays in einer zum Sender-Array op­ tisch konjugierten Ebene. Wie bekannt, ist dem Mikrolinsen-Array ein weiteres Ob­ jektiv nachgeordnet. Dieses Objektiv ist auf der dem Mikrolinsen-Array zugeordneten Seite möglichst gut telezentrisch ausgeführt. Auf der zweiten Seite des Objektivs befindet sich der Bildaufnehmer.
Auch kann in der Ebene des Empfänger-Arrays ein elektronisch steuerbares, vor­ zugsweise transmissives Array angeordnet sein. Dabei wird wie folgt vorgegangen:
Es erfolgt eine erste Gewinnung einer 3D-Punktwolke mit einer beispielsweise mitt­ leren Transmission in den Array-Elementen. Anschließend wird die Aussteuerung in den Elementen des Bildempfänger kontrolliert und die Transmission elementeweise so eingestellt, daß sich eine gute Aussteuerung in den Bildelementen eines nach­ geordneten Bildempfängers ergibt. Das elektronisch steuerbare, transmissive Array kann vorzugsweise dem Mikrolinsen-Array zugeordnet sein. Es ist aber auch mög­ lich, daß es dem Bildaufnehmer zugeordnet ist. Auch kann es dem Sender-Array zu­ geordnet sein. Letztlich muß die Zuordnung nur zu einer optisch konjugierten Ebene des Empfänger-Arrays erfolgen.
Zur Bestimmung der Phasenlage der periodischen Signale in den Bildpunkten des Empfänger-Arrays kommen im einfachsten Fall die bekannten Phasenschiebe- Algorithmen mit 3 bis 5 Intensitätswerten zur Anwendung. Dabei wird die Intensität in den Bildpunkten des Empfänger-Arrays entsprechend der Phasenlage des Sender-Arrays abgetastet. Möglich ist hier eine Abtastung in diskreten 90°-Phasenschritten. Mit den ausgelesenen Intensitätswerten kann beispielsweise auch die Modulation über der Phase in 90°-Schritten mit den bekannten Elementar­ gleichungen bestimmt werden. Die Auswertung der Phasenlage kann in jeweils 180°-Schritten der Phase des Sender-Arrays, hier des Liniengitters, erfolgen.
Besser für die Genauigkeit der Phasenbestimmung und damit für die Tiefenmeßge­ nauigkeit sind jedoch Algorithmen, die über eine größere Anzahl von Intensitätswer­ ten, beispielsweise 8, 16 oder 32, die Phase im Signal wie auch den Ort des Mo­ dulationsmaximums bestimmen. Das gesamte Know-how der Signalverarbeitung, wie es in der Elektrotechnik bereits bekannt ist, kann hier angewendet werden. Bei­ spiele für die erfolgreiche Applikation derartiger Signalauswertungen sind aus der Weißlicht-Interferenzmikroskopie bekannt. Im allgemeinen werden diese Signalauswertungs-Methoden bei kurzkohärenten Methoden angewendet.
Da die Periodenlänge, die Gitterkonstante, des Sender-Arrays vorzugsweise kon­ stant ist, ist die Phasenänderungsgeschwindigkeit bei einer konstanten Bewegung des Sender-Arrays, ebenfalls konstant. Dies ermöglicht auch das Anwenden der Sub-Nyquist-Abtastung, da hier aufgrund der Kenntnis der Signalfrequenz das be­ kannte Abtast-Theorem ohne Nachteile verletzt werden kann. Dies reduziert die An­ zahl der aufzunehmenden Bilder ganz erheblich, so daß grundsätzlich eine höhere Geschwindigkeit der Bewegung des Gitters realisiert werden kann und so eine Hochgeschwindigkeits-Auswertung realisierbar wird. Filteroperationen sind in der bekannten Art mit den Phasen-Auswerte-Methoden zu kombinieren, bzw. bereits vor der Phasenauswertung durchzuführen. Dieser Sachverhalt wird hier nicht weiter ver­ tieft, obwohl von der optimalen Gestaltung der Algorithmen die Leistungsfähigkeit des gesamten Auswerte-Verfahrens abhängt. Die Ausführung der Rechenoperatio­ nen kann dabei mittels spezieller Hochgeschwindigkeits-Prozessoren erfolgen.
Es ist vorteilhaft, wenn das Sender-Array, hier das Liniengitter, zusätzlich eine Null­ punktmarke aufweist und die laterale Gitterbewegung mit einem Gegengitter pha­ senmäßig erfaßt wird. Durch das Positionieren der Referenzplatte im Objektraum in einer bekannten zOB-Position zOB = zOR wird die absolute Phase des Nullpunktes be­ stimmt. Auch werden die Referenz-Phasen mod 2π als relative Referenzphasen ϕRR durch die Auswertung des Signalverlaufs in den Abbildungsstrahlen im Bereich der scharfen Abbildung der Referenzplatte ermittelt und gespeichert. Bei einem unbe­ kannten Objekt wird durch den Signalverlauf im Schärfebereich des Objektpunktes die zugehörige Phase des Gitters ϕGitter an der Stelle im Signalverlauf im Bereich des Maximums der Modulation ermittelt, die der zugehörigen Referenz- Anfangsphase im Bereich des Maximums der Modulation entspricht.
Dann kann die Objektphase für jede Ebene in der Entfernung zOB mittels der Phase, die aus der Gitterverschiebung abgeleitet wird, bestimmt werden. Die hochstabile Nullpunktmarke kann als Startpunkt für die laterale Bewegung des Gitters dabei so einjustiert werden, daß der Start der Bildaufnahme kurz vor dem Erreichen der scharfen Abbildung der Referenzplatte durch die koordinierte Bewegung von Gitter und Bildempfänger beginnt. Auch nach dem Entfernen der Referenzplatte bleibt die Lage der Referenzplatte beim Einmessen jeweils als "die Referenzfläche des 3D-Aufnahmesystems" bis zum neuen Einmessen bestehen.
In der vorangegangenen Darstellung wurde davon ausgegangen, daß das Beleuchtungsobjektiv und das Abbildungsobjektiv stets fest angeordnet sind und in sich starre Objektive darstellen, also keine eigene Fokussierung aufweisen, bzw. die gegebenenfalls vorhandene, objektiveigene Fokussierung nicht benutzt wird. Die Brennebenen der Objektive stehen demzufolge fest im Raum. Das Fokussieren im Sinne des Veränderns der Lage der Schärfeflächen im Raum des Objektes erfolgte in der bisherigen Darstellung jeweils über das Bewegen des Sender- und Empfänger-Arrays in einer Komponente parallel zur optischen Achse der Objektive.
Im Fall des Veränderns der Lage der Schärfeflächen im Raum des Objektes über die Fokussierung des Objektivs, beispielsweise durch eine interne Fokussierung, wie es dem Stand bei modernen Fotoobjektiven entspricht, muß die Fokussierung elektronisch steuerbar sein, d. h. die Objektive müssen auch eine motorische Fokussierung gestatten. Auch beim Verschieben des gesamten Objektivs zum Zweck der Fokussierung muß eine motorische Verschiebung gewährleistet sein. Aus Gründen der bei der erfinderischen Lösung erforderlichen hohen Dynamik der bewegten Komponenten wird die Möglichkeit des Verschiebens des gesamten Objektivs hier nicht weiter betrachtet.
Da moderne Objektive mit interner Fokussiermöglichkeit durch das Verschieben von massearmen, optischen Komponenten im allgemeinen eine recht schnelle Fokussierung ermöglichen, wird dagegen dieser Fall betrachtet, obwohl zur Zeit noch keine lichtstarken Objektive mit einem bildseitig telezentrischen Strahlengang und einer motorischen Fokussiermöglichkeit bekannt geworden sind und auch eine Ausnahme darstellen würden. Deshalb wurde in der bisherigen Darstellung die Möglichkeit des Veränderns der Lage der Schärfeflächen im Raum des Objektes über das Bewegen des Sender- und Empfänger-Arrays eindeutig favorisiert.
Grundsätzlich kommt es aber bei der erfindungsgemäßen 3D-Aufnahme-Anordnung und dem 3D-Aufnahme-Verfahren jedoch nur darauf an, eine definierte Relativbewegung zwischen den Brennebenen der Objektive und den jeweils zugehörigen Arrays oder den Orten der Extrema der Leuchtdichte auf diesen zu erreichen. Im Fall einer cos2-ähnlichen Leuchtdichteverteilung auf dem Sender-Array soll die Phasenlage dieser Leuchtdichteverteilung die definierte Relativbewegung erfahren. Zum Erreichen der Relativbewegung können auch die Brennebenen im Raum bewegt werden, beispielsweise durch eine interne Fokussierung des Objektivs.
Ziel ist letztlich die Detektierung eines modulierten cos2-ähnlichen Signals mit einem Modulationsmaximum in den Bildpunkten des Empfänger-Arrays. Die Annäherung an die cos2-Charakteristik wird bekannterweise in der Regel durch die optische Mo­ dulationsübertragungfunktion des Objektivs in der jeweiligen Abbildungssituation unterstützt.
Es muß realisiert werden, daß die Bewegung des Punktes des Sender-Arrays, welcher in der Brennebenenlage des Sender-Arrays mit dem Brennpunkt des Beleuchtungsobjektivs koinzidiert, auf einer Geraden gA erfolgt. Andere Punkte, bzw. Elemente des Sender-Arrays bewegen sich auf parallelen Geraden zur Geraden gA. Diese Gerade gA ist ja so definiert, daß diese stets den Brennpunkt des Beleuch­ tungsobjektivs im Raum der Arrays schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Raum der Arrays und Abstand des Brennpunktes vom Abbildungsobjektiv, aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist. Demzufolge bewegt sich die Gerade gA gemeinsam mit der Brennebene des Be­ leuchtungsobjektivs. Da sich beim internen Fokussieren der Brennpunkt stets auf der Achse des Beleuchtungsobjektivs bewegt, ist zur Realisierung der Bewegung der Elemente des Sender-Arrays auf einer Geraden gA, noch eine zusätzliche Bewe­ gung des Sender-Arrays senkrecht zur optischen Achse erforderlich. Bei einem elek­ tronisch steuerbaren Gitter wird eine Veränderung der Orte der lokalen Extrema der Leuchtdichte erzeugt. Dies kann auch als eine Bewegung senkrecht zur optischen Achse verstanden werden.
Es ist sehr wesentlich für die Genauigkeit des Meßverfahrens, daß die beschriebene Bewegung oder Verschiebung der Brennebene des Beleuchtungsobjektivs sehr ge­ nau erfolgt, so daß die Bewegung auf der Geraden gA nur mit möglichst kleinen La­ geabweichungen erfolgt. Dies kann mittels eines hochauflösenden, internen Weg­ meßsystems für die zwecks interner Fokussierung bewegten optischen Komponen­ ten im Beleuchtungsobjektiv unterstützt werden. An die Führungsgenauigkeit der mi­ niaturisierten Linearführung der bewegten Komponenten im Objektiv sind ebenfalls hohe Anforderungen zu stellen, da deren Querabweichungen ebenfalls schädlich sind.
Die interne Fokussierung des Abbildungsobjektivs mit einer miniaturisierten Linearführung sollte so erfolgen, daß die Schärfefläche des Abbildungsobjektivs mit der durch das Beleuchtungsobjektiv vorgegebenen Schärfefläche im Raum des Objektes möglichst gut koinzidiert. Möglich ist auch hier die Verwendung eines hoch­ auflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung im Ab­ bildungsobjektiv bewegten optischen Komponenten. Auch ist eine starre Kopplung der bewegten Komponenten der beiden Objektive grundsätzlich möglich.
Um die Anforderungen an die Genauigkeit der internen Fokussierung des Abbil­ dungsobjektivs zu verringern, kann das Abbildungsobjektiv etwas stärker abgeblendet werden, da sich dann der Schärfentiefebereich vergrößert. Im Extremfall ist auch eine so starke Abblendung des Abbildungsobjektivs denkbar, daß dann bei einem Objekt mit begrenzter Tiefenausdehnung sowohl auf dessen interne Fokussierung als auch auf eine Bewegung des Empfänger-Arrays - also auf eine Fokussierung im Abbildungsstrahlengang überhaupt - verzichtet werden kann. Es ist dadurch jedoch eine unerwünschte Verbreiterung der Modulationskurve im Signal gegeben, welches in den Bildpunkten des Empfänger-Arrays detektiert wird, wodurch eine Verringerung des Tiefenauflösungsvermögens bei der 3D-Aufnahme zu erwarten ist.
So wird erfindungsgemäß auch eine Anordnung vorgeschlagen, die mit einem elektronisch steuerbaren Gitter als Sender-Array arbeitet, welches eine Verschiebung der Orte der lokalen Extrema der Leuchtdichte auf dem Empfänger-Array, beziehungsweise bei einer cos2-ähnlichen Leuchtdichteverteilung auf dem Sender-Array eine Verschiebung der Phasenlage, erzeugt, und das zugehörige Beleuchtungsobjektiv gleichzeitig eine interne Fokussierung aufweist. Dadurch bewegen sich die Orte der Extrema oder die Orte gleicher Phase der Leuchtdichteverteilung auf dem Sender-Array auch bei der internen Fokussierung auf einer sich im Raum bewegenden Geraden gA.
Grundsätzlich ist es möglich, daß die beiden Achsen von Beleuchtungsobjektiv und Abbildungsobjektiv zueinander geneigt sind. Jedoch ist es in diesem Fall von großem Vorteil, wenn der Brennpunkt des Abbildungsobjektivs im Raum des Objektes in der Brennebene des Beleuchtungsobjektivs liegt. Die Lage dieses Brennpunktes definiert den Ort der Geraden gO, die als Bild der Geraden gA definiti­ onsgemäß diesen Brennpunkt enthalten und parallel zur Achse des Beleuchtungs­ objektivs liegen muß. Dies führt dazu, daß die Tiefenempfindlichkeit der 3D-Aufnahme-Anordnung in einer zur Achse des Beleuchtungsobjektivs senkrech­ ten Ebene im Raum des Objektes eine Konstante ist, also die Tiefenempfindlichkeit keine laterale Abhängigkeit in der Ebene aufweist.
Bei einer gegebenen Anordnung von Beleuchtungs- und Abbildungsobjektiv muß die Richtung der Bewegung der Elemente des Sender-Arrays parallel zur Geraden gA liegen. Wie bereits dargestellt, ist die Gerade gA dabei so definiert, daß deren Bild im Raum des Objektes, die Gerade gO, den Brennpunkt des Abbildungsobjektivs im Raum des Objektes bei gleichzeitig paralleler Lage zur Achse des Beleuchtungsob­ jektivs schneidet. Die Anordnung mit zueinander geneigten optischen Achsen der Objektive bringt Vorteile, wenn sich Bereiche des Objektes in besonders geringer Entfernung vom Beleuchtungsobjektiv befinden und diese vom Abbildungsobjektiv bei einer parallelen Anordnung der Objektive nicht mehr aufgenommen werden kön­ nen. Hierbei ist es von Vorteil, wenn das Abbildungsobjektiv so aus der parallelen Lage herausgedreht ist oder motorisch und rechnergesteuert herausgedreht wird, daß es die Bereiche des Objektes in besonders geringer Entfernung erfassen kann. Dabei ist zu beachten, daß die Schärfeflächen nur noch teilweise koinzidieren und das gemeinsame Bewegen von Sender- und Empfänger-Array im Sinne einer star­ ren Kopplung nicht mehr uneingeschränkt möglich ist. Auch vergrößert sich bei der Berechnung der 3D-Punktwolke der numerische Aufwand aufgrund der Berücksichti­ gung der komplizierteren Abbildungsverhältnisse. Dennoch kann diese Variante bei speziellen Objekten durchaus von Vorteil sein, auch wenn der technische Aufwand erheblich ist. Weiterhin ist es möglich, daß das Empfänger-Array zusätzlich rechner­ gesteuert drehbar angeordnet ist, um die Scheimpflugbedingung zu erfüllen, wo­ durch die Koinzidenz der Schärfeflächen im Raum des Objektes erreichbar ist. Es ist auch möglich, daß die beiden Objektive unterschiedliche Brennweiten aufweisen können, wobei das Abbildungsobjektiv wesentlich kurzbrennweitiger gestaltet ist, wenn sich nur der Brennpunkt des Abbildungsobjektivs in der Brennebene des Be­ leuchtungsobjektivs im Raum des Objektes befindet.
Es ist weiterhin von Vorteil für das Einmessen und Kontrollieren der 3D-Aufnahme-Anordnung, daß eine transparente Platte als permanent verbleibende Referenzplatte achssenkrecht in der Nahdistanz im Objektraum zur Selbsteinmes­ sung zugeordnet ist, wobei auf mindestens einer der beiden Flächen eine schwach lichtstreuende Mikrostruktur aufgebracht ist. Dann kann beliebig oft die Einmessung kontrolliert und gegebenenfalls korrigiert werden, beispielsweise beim Auftreten von Temperaturänderungen. Auch ist es möglich, die Anordnung zu kapseln und ther­ misch durch eine Temperaturregelung zu stabilisieren, um ein temperaturbedingtes Driften der Phasenlagen zu verhindern. Auch ist zum Einmessen die Verwendung einer Anordnung mit zwei parallel angeordneten transparenten Platten mit Luftspalt im Raum des Objektes möglich, wobei der Luftspalt konstant und bekannt ist.
Grundsätzlich können die mit einer Referenzplatte gemessenen relativen Phasenwerte ϕRR in einer Referenzphasen-Matrix abgelegt werden und zur Berechnung der Objektkoordinaten genutzt werden, auch wenn die Referenzplatte bereits wieder entfernt ist.
Es ist auch möglich, Verzeichnungen der Objektive, und Justierfehler der Anordnung als Phasenbeträge über die Raumkoordinaten zu ermitteln und zu speichern und bei Bedarf zur Korrektur zu verwenden.
Die beschriebene Vorgehensweise gestattet grundsätzlich die zeitoptimale Auswertung auf der Basis von straight formrard-Algorithmen. Diese Algorithmen können in speziellen Hochgeschwindigkeits-Prozessoren implementiert werden, wo­ durch eine Echtzeitauswertung von bewegten Objekten und Personen möglich wird.
Für ein optimales Signal-Rausch-Verhältnis in den Signalen kann die Helligkeit der Lichtquelle in Abhängigkeit von der Position des Sender-Arrays gesteuert werden. Für die Anpassung an das lateral unterschiedliche Reflexionsvermögen in den ein­ zelnen Objektpunkten kann dagegen in einem elektronisch steuerbaren Sender- Array die Lichtintensität pixelweise objektorientiert angepaßt werden. Dabei kann das elektronisch steuerbare Sender-Array lateral bewegt werden, um die Phase zu ändern, aber auch lateral feststehen und elektronisch durch Verschieben der Gitter­ linien eine Phasenänderung erzeugen, beispielsweise mit konstanter Phasengeschwindigkeit.
Weiterhin kann die Lichtstärke der Objektive verändert werden. Es kann abgeblen­ det werden, um den Schärfentiefebereich beispielsweise bei schnellen Orientierungsmessungen vergrößern zu können. Dies verringert die Anzahl der not­ wendigen Bilder, verringert aber auch die Tiefenmeßgenauigkeit. Um dagegen den Schärfentiefebereich verkleinern zu können, werden eine oder zwei Apodisations­ blenden angeordnet, eine in der Austrittspupille des Beleuchtungsobjektivs und eine in der Eintrittspupille des Abbildungsobjektivs also jeweils im Raum des Objektes. Diese Blenden sind so gestaltet, daß die achsnahen Strahlen geschwächt oder aus­ geblendet werden, um eine stärkere Wirkung der Randstrahlen zu erreichen. Es sind die aus der Spektroskopie bekannten Apodisationsfunktionen, beispielsweise Rechteck, Dreieck- oder Gaußfunktion einsetzbar.
Andererseits kann in bestimmten Fällen, beispielsweise für die besonders schnelle 3D-Aufnahme, auch ein Bewegungssystem mit einem rotatorischen Antrieb zur kon­ tinuierlichen, rotatorischen Bewegung eines Sender-Arrays, vorzugsweise in der Art eines Radialgitters mit mindestens einer Referenzmarke, angeordnet sein, wobei ein Ausschnitt des Radialgitters das Feld des Beleuchtungsobjektivs vollständig ausfüllt. Dem Radialgitter ist ein Gegengitter zur phasenmäßigen Abtastung zugeordnet, wel­ ches die Gegenstruktur zur Abtastung enthält, sowie die Beleuchtung, ein Optikmo­ dul und die Auswerte-Elektronik mit Rechnerschnittstelle. Auch auf dem Gegengitter befindet sich außerdem noch eine Referenzmarke für das Gewinnen mindestens ei­ nes hochgenauen Nullpunkt-Signals.
Weiterhin weist dieses Bewegungssystem eine Linearführung auf, die den rotatori­ schen Antrieb zur vorzugsweise kontinuierlichen rotatorischen Bewegung des Sender-Arrays und das Empfänger-Array trägt. Die Bewegungsrichtung der Linear­ führung liegt parallel zur optischen Achse des Abbildungsobjektivs in zA-Richtung. Durch die Kopplung des Radialgitters mit einem rotatorischen Antrieb wird erreicht, daß das Sender-Array einen kontinuierlichen Lauf erfährt, der durch die phasenmä­ ßige Abtastung hochgenau geregelt werden kann. Als nicht ganz optimal erweist sich bei dieser Lösung, daß wegen der Struktur des Radialgitters eine gewisse Va­ riation der Gitterkonstante entlang der Koordinate χA auftritt. Für Radialgitter mit ei­ nem vergleichsweise großen Durchmesser zum Feld des Abbildungsobjektivs ist diese Tatsache in Verbindung mit numerischen Korrekturmethoden akzeptierbar. Dies wird hier im Einzelnen jedoch nicht weiter dargestellt.
Es ist grundsätzlich möglich, für das Beleuchtungs- und das Abbildungsobjektiv Zoom-Objektive einzusetzen, die jeweils mit der gleichen Brennweiteneinstellung arbeiten.
Um vom Sender-Array weit geöffnete Strahlenbündel ausgehen zu lassen, kann das Sender-Array mit einem speziellen Mikrolinsen-Array gekoppelt sein, beispielsweise kann dieses Mikrolinsen-Array dem Sender-Array in Lichtrichtung vorgeordnet sein. Es ist auch möglich, das Sender-Array selbst als Zylinderlinsen-Array hoher Apertur auszuführen.
Der Vorgang der Aufnahme von mehreren Bildern mit bewegten Arrays wird auch als Tiefen-Scannen bezeichnet.
Die Kontrolle der Parallelität der optischen Achsen der beiden Objektive kann mit Hilfe des Vergleichs der Phasenlagen zwischen der Phase des am Sender-Array ab­ genommenen Signals und der Phase, die im Signal in einem Bildpunkt auf der opti­ schen Achse des Abbildungsobjektivs detektiert werden kann, erfolgen, wenn eine Referenzplatte dabei in der Tiefe verschoben wird und der Verschiebeweg dabei ge­ messen wird.
Es ist mit einem elektronisch gesteuerten Sender-Array möglich, die durch Telezen­ triefehler des Beleuchtungsobjektivs beim Tiefen-Scannen auftretenden Phasenfeh­ ler durch Dehnen oder Stauchen des elektronisch gesteuerten Sender-Arrays auszugleichen.
Für das Einmessen und Kontrollieren der Tiefenempfindlichkeit der Anordnung kann eine Stiftplatte verwendet werden. Die Stifte sind sehr präzise und fest an einer Trä­ gerplatte in einem bekannten Raster befestigt und weisen bezogen auf die Träger­ platte zwei unterschiedliche, aber bekannte Stiftlängen auf. Die Abstände der Stifte sind so groß gewählt, daß in einem bestimmten Entfernungsbereich der Platte von der Anordnung auf den Stirnflächen der Stifte keine Abschattung auftritt. So werden zwei Ebenen mit einem sehr genau bekannten Abstand dargestellt. Dieser Abstand kann mit einer hochgenauen Koordinaten-Meßmaschine vermessen werden. In ver­ schiedenen Abständen der Platte von der Anordnung kann so die Tiefenempfindlich­ keit dieser Anordnung, aber auch die Verzeichnungen der Objektive bestimmt werden.
Außerdem kann in dieser Art eine Platte mit nur einer einzigen Stiftlänge hergestellt werden. Auch ist die Verwendung einer Mehrebenenplatte mit verschiedenen Stift­ längen möglich und kann zur Einmessung der Anordnung mit Vorteil verwendet werden.
Mit einer Doppel-Sphären-Stift-Platte, bei der die planen oder sphärischen Stirnflä­ chen dünner Stifte zwei konzentrische Sphären darstellen, kann die Formmeßge­ nauigkeit der 3D-Aufnahme-Anordnung in verschieden Abständen getestet werden.
Auch die Verwendung einer Ein-Sphären-Stift-Platte kann mit Vorteil genutzt wer­ den. Diese ist bei der Verwendung der Anordnung in einer Koordinaten- Meßeinrichtung sinnvoll, um die lateralen Koordinaten der 3D-Aufnahme-Anordnung bestimmen zu können. Auch eine fest in einer Koordinaten-Meßeinrichtung angeord­ nete Planplatte kann für das Einmessen der 3D-Aufnahme-Anordnung sehr vorteil­ haft sein.
Um sehr große Objekte teilweise oder rundum vermessen zu können, wird aus einer größeren Zahl von 3D-Aufnahme-Anordnungen ein Schirm beispielsweise ver­ gleichbar mit einem Himmel in einem Planetarium, aufgebaut. Die 3D-Aufnahme- Anordnungen stellen dann 3D-Meßmodule dar, die in großer Anzahl als 3D-Video-Sensoren eingesetzt werden können. Auch ist es möglich, daß dieser Schirm näherungsweise die Grobform des zu vermessenden Objektes, beispielswei­ se die Form einer kompletten Automobilkarosserie, aufweist. Die erfaßten Objekt­ räume der 3D-Aufnahme-Anordnungen überdecken sich teilweise. Das Einmessen kann durch mehrere Referenzkörper, auch Planplatten, gegebenenfalls mit Marken erfolgen, die gleichzeitig von zwei 3D-Aufnahme-Anordnungen im Überdeckungsbe­ reich erfaßt werden.
Auch ist es möglich, daß mehrere 3D-Aufnahme-Anordnungen nebeneinander so positioniert sind, daß sich ein Objekt oder eine Szene vollständig oder in einem gro­ ßen Bereich erfassen läßt, wobei sich die erfaßten Bereiche im Raum des Objektes der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt mit einer jeweils an­ dersfarbigen Lichtquelle ab. Dann beleuchten beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt mit rotem Licht und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Posi­ tionsnummer das Objekt mit grünem Licht. Im Abbildungsstrahlengang der 3D-Aufnahme-Anordnungen befinden sich entsprechend schmalbandige Filter, die nur das Licht der eigenen Lichtquelle passieren lassen. Denkbar sind auch mehrere Lichtfarben, wodurch mehr als zwei 3D-Aufnahme-Anordnungen den gleichen Teil des Objektes erfassen können.
Weiterhin können mehrere Beleuchtungsobjektive einem Abbildungsobjektiv zuge­ ordnet sein, beispielsweise zwei. Dabei kann jedem Beleuchtungsobjektiv eine an­ dersfarbige Lichtquelle zugeordnet sein, beispielsweise dem ersten eine rote und dem zweiten eine grüne. Dem Abbildungsobjektiv ist ein mechanisch oder elektro­ nisch schaltbares Filter zugeordnet, um jeweils nur Licht einer einzigen Lichtquelle auf den Bildempfänger gelangen zu lassen.
Andererseits kann auch eine farbtüchtige Kamera angeordnet sein, um gleichzeitig das strukturierte Licht aus den beiden Beleuchtungsobjektiven getrennt zu verarbei­ ten. So können verschiedene Beleuchtungsrichtungen im Raum des Objektes reali­ siert werden, um beispielsweise direkte Reflexe von einem speziellen Objektdetail wenigstens bei einer Aufnahme nicht auftreten zu lassen. Auch werden die Schatten der jeweils anderen Aufnahme ausgeleuchtet und so können auch diese Objektteile sichtbar gemacht werden.
Möglich ist Trennung der Bilder von verschiedenen Beleuchtungsobjektiven auch mittels drehbarer Polarisatoren und der Verwendung von polarisiertem Licht.
Für die Farb-Aufnahmetechnik mit farbsensitiven Bildaufnehmern ist dagegen fol­ gendes möglich: Beleuchtet wird mit weißem Licht. Mehrere 3D-Aufnahme-Anordnungen sind so positioniert, daß sich ein Objekt oder eine Sze­ ne vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereich oder Winkel-Bereiche im Raum des Objektes der unmittelbar nebeneinan­ der positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es fin­ det keine Überdeckung der mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt zu jeweils unterschiedlichen Zeiten ab. Zu diesem Zweck sind alle 3D-Aufnahme-Anordnungen von einer Leitstelle aus synchronisiert, so daß das Aufnehmen von Bildern auch synchron erfolgt. Dann erfassen beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt im Hinlauf der bewegten Arrays und die 3D-Aufnahme-Anordnungen mit einer unge­ radzahligen Positionsnummer das Objekt im Rücklauf der bewegten Arrays und die Objekte sind nur beleuchtet, wenn jeweils die Aufnahme von Bildern erfolgt.
Bei Verwendung einer farbtüchtigen Kamera als Bildaufnehmer sind vorzugsweise die jeweils zusammengehörenden farblich sensitiven Elemente, auch als RGB- Sensoren bekannt, linienförmig und in Richtung der Streifen des Liniengitters, also auf Linien gleicher Phase, angeordnet. Dadurch wird erreicht, daß es keine farblich bedingten Phasenlagen in den Signalen gibt. Dagegen kann die Phase zwischen den RGB-Sensoren objektbedingt durchaus verschieden sein.
Weiterhin ist es auch möglich, daß ein Roboterarm eine einzige 3D-Aufnahme- Anordnung über das Objekt führt und die Daten nacheinander eingelesen werden. Durch Überdeckung der erfaßten Bereiche der Objektoberfläche erfolgt ein "Weiter­ hangeln" über die Objektoberfläche, welches grundsätzlich ohne das Vorhandensein von Bezugsmarken auf der Objektoberfläche möglich ist.
Es ist machbar, daß das Abbildungsobjektiv fest angeordnet ist und mindestens ein Beleuchtungsobjektiv gemeinsam mit dem Sender-Array und der kompletten Be­ leuchtungsanordnung um das Abbildungsobjektiv drehbar oder schwenkbar an­ geordnet ist, wobei vorteilhafterweise die Drehachse des Beleuchtungsobjektivs die optische Achse des Abbildungsobjektivs darstellen kann. Damit ist eine Beleuchtung des Objektes aus verschiedenen Richtungen möglich, um Schatten zu eliminieren. Die Drehbewegung wird rechnergesteuert.
Vorteilhaft ist es, wenn zu Beginn eines 3D-Aufnahmeverfahrens in einem Bildauf nahmevorgang ein erster Datensatz gewonnen und gespeichert wird und die errech­ neten Objektpunkte eliminiert werden, die eine Abweichung vom Modulationsmaxi­ mum aufweisen. Anschließend kann das Sender-Array um einen Bruchteil der Git­ terperiode verschoben werden und mindestens ein zweiter Datensatz aufgenommen und gespeichert wird, wobei die errechneten Werte ebenfalls eliminiert werden, die sich nicht in unmittelbarer Lage des Modulationsmaximums befinden. Aufgrund der durch die Gitterverschiebung im Bruchteil der Gitterperiode erfolgten Phasen­ änderung sind die errechneten Objektpunkte der ersten Messung mit denen der zweiten Messung nicht identisch, so daß eine vollständige Erfassung der Mehrzahl der Objektpunkte erreicht wird.
Vorzugsweise entspricht die oben beschriebe Verschiebung des Sender-Arrays dem Betrag der viertel Gitterperiode.
Auch ist es möglich, daß sich vor der 3D-Aufnahme-Anordnung ein schwenkbarer Planspiegel befindet, der in den Strahlengang geschwenkt werden kann und so eine fest angeordnete Referenzplatte vermißt und nach erfolgter Vermessung der Plan­ spiegel zurückgeschwenkt wird.
Weiterhin ist für eine Hochleistungs-3D-Aufnahme-Anordnung, ein Netzwerk aus Sender- und Empfänger-Arrays mit den bereits beschriebenen zugehörigen Kompo­ nenten aufgebaut. Es ist von Vorteil, wenn beispielsweise neun Empfänger-Arrays in einer 3 × 3-Matrix angeordnet und im Feld der 3 × 3-Matrix vier Sender-Arrays in ei­ ner 2 × 2-Matrix angeordnet werden, wobei sich die Sender-Arrays auf den Diagona­ len der 3 × 3-Matrix befinden. Damit ist ein Empfänger-Array als Zentral-Empfänger angeordnet. Weiterhin sind die Sender-Arrays als Liniengitter ausgebildet und die Li­ nien sind vorzugsweise parallel zu den Außenlinien der 3 × 3-Matrix-Anordnung. Den Sender- und Empfänger-Arrays sind die Beleuchtungs- und Abbildungsobjekti­ ve in paralleler Achslage zugeordnet und die Hauptebenen der Objektive liegen nä­ herungsweise in einer gemeinsamen Ebene. Für das Bewegen der Empfänger- und Sender-Arrays in Richtung der optischen Achse ist vorzugsweise eine zentrale erste Linearführung zugeordnet. Für das Bewegen der Sender-Arrays in lateraler Richtung der optischen Achse kann eine ebenfalls zentrale, zweite Linearführung angeordnet sein, die eine Bewegung parallel zu den Außenkanten der 3 × 3-Matrix ausführt. Auch kann grundsätzlich jedem Array ein eigenes Linearführungssystem zugeordnet werden.
Es sind ebenfalls Anordnungen auf der Basis von Dreiecken möglich, wobei sich im Flächenzentrum der Dreiecke die Sender und auf den Eckpunkten die Empfänger- Arrays befinden. Auch hier ergibt sich eine empfängerzentrierte Anordnung mit ins­ gesamt sieben Empfänger-Arrays und sechs Sender-Arrays.
Grundsätzlich sind auch senderzentrierte 3D-Aufnahme-Anordnungen möglich. In allen Fällen werden die Bewegungen und Bildaufnahmen von einem Leitsystem koordiniert und durch zugeordnete Prozessoren verarbeitet. Das gewonnene Bilddaten-Massiv wird schließlich in eine 3D-Punktwolke umgerechnet, wobei die Redundanz im System zur Verbesserung durch Mittelwertbildung genutzt werden kann.
Die Anzahl der verwendeten Sender- und Empfänger-Arrays ist nur durch die techni­ schen Möglichkeiten und die damit verbundenen Kosten begrenzt. So können ver­ gleichsweise große Netzwerke mit sehr vielen kleinen 3D-Aufnahme-Anordnungen aufgebaut werden, die jeweils eine hohe Tiefenauflösung in einem vergleichsweise kleinen Objektfeld besitzen und so das Objekt senkrecht, in der Art eines Nadelkis­ sens, detektieren, wobei es praktisch keine Lücken bei der Erfassung der Objekto­ berfläche gibt. Eine derartiges Netzwerk kann in einer 3D-Koordinaten-Meßmaschine für die Inspektion filigraner, reliefartiger Strukturen, die auch Durchbrüche aufweisen können, mit Vorteil eingesetzt werden.
Den Netzwerken aus Sender- und Empfänger-Arrays können neuronale Netze zur Auswertung der optischen Primärdaten zugeordnet sein.
Ausführungsbeispiele
In der Fig. 1 werden die Anordnung und das Verfahren dargestellt. Es wird zwi­ schen dem Raum der Arrays und dem Raum des Objektes unterschieden. Es wird die folgende Notation verwendet, die von der üblichen abweicht, aber bei dieser opti­ schen Schaltung sich als vorteilhaft für die Beschreibung erwiesen hat: Die Größen und Punkte des Raumes der Arrays werden an erster Stelle mit A indiziert und die Größen und Punkte des Raumes des Objektes mit O. An zweiter Stelle im Index wird das zugehörige Objektiv gekennzeichnet und zwar im Falle der Zugehörigkeit zum Beleuchtungsobjektiv mit B und im Falle der Zugehörigkeit zum Abbildungsob­ jektiv mit A.
im Raum der Arrays befinden sich ein Liniengitter mit der Gitterkonstante p und eine vorgeordnete Beleuchtung. Das Liniengitter ist dem Beleuchtungsobjektiv mit einem streng telezentrischen Strahlengang im Raum der Arrays achssenkrecht und extra­ fokal zugeordnet. Das Beleuchtungsobjektiv bildet das Liniengitter in den Raum des Objektes ab, wodurch eine strukturierte Beleuchtung des Objektes entsteht. Zur Ver­ einfachung sind die beiden Hauptebenen des Beleuchtungsobjektivs HAB und HOB in der Zeichnung zusammengelegt. Bei realen Objektiven dieser Klasse liegen die bei­ den Hauptebenen weit auseinander.
Im Raum der Arrays ist eine Empfänger-Matrix dem Abbildungsobjektivs mit einem ebenfalls streng telezentrischen Strahlengang im Raum der Arrays achssenkrecht und extrafokal zugeordnet. Das Abbildungsobjektiv bildet das Objekt in den Raum der Arrays ab. Ein einzelner Abbildungsstrahl ist dargestellt. Zur Vereinfachung sind die beiden Hauptebenen des Abbildungsobjektivs HAA und HOA ebenfalls in der Zeichnung zusammengelegt.
Das Beleuchtungs- und das Abbildungsobjektiv sind mit ihren optischen Achsen zu­ einander parallel mit dem Achsenabstand d angeordnet. Das Beleuchtungs- und das Abbildungsobjektiv weisen die array-seitigen Brennpunkte FAB und FAA und im Raum des Objektes die Brennpunkte FOB und FOA auf.
Die hier nicht dargestellte erste Linearführung des Bewegungssystems ist mit der Empfänger-Matrix starr verbunden und trägt eine zweite hier ebenfalls nicht darge­ stellte kleinere Linearführung, die wiederum das Liniengitter trägt. Dieses Liniengitter ist deutlich länger ausgeführt als es dem vom Beleuchtungsobjektiv erfaßten Bildfeld entspricht, um im gesamten Bewegungsvorgang stets das gesamte Bildfeld zu überdecken.
Die erste Linearführung ist mit einem hochgenauen Längen-Meßsystem verbunden, welches einen hochstabilen Nullpunkt aufweist. Die Bewegungsachse der ersten Li­ nearführung ist parallel zu den Objektivachsen und die Meßachse des Längen- Meßsystems liegt dabei parallel zu den beiden Objektivachsen. Die Bewegungsrich­ tung der zweiten Linearführung liegt senkrecht zu den Objektivachsen.
Dem Liniengitter auf der zweiten Linearführung ist ein mit der ersten Linearführung fest verbundenes Gegengitter mit einer kompletten Beleuchtungs- und Empfänger- Optik in der Art eines inkrementalen Längenmeßsystems zugeordnet. Die vorhan­ dene Auswerte-Elektronik weist eine elektronische Schnittstelle zum Rechner auf, um die berechnete Verschiebung des Liniengitters als Phaseninformation in Echtzeit im Rechner zur Vertilgung zu haben. Gleichzeitig ist auf 16199 00070 552 001000280000000200012000285911608800040 0002019846145 00004 16080dem Liniengitter im Teil au­ ßerhalb des genutzten Bildfeldes eine erste Referenzstruktur aufgebracht, die von einer zweiten Referenzstruktur, die ebenfalls auf dem Gegengitter aufgebracht ist, optisch abgetastet wird. Auch dabei ist die Beleuchtungs- und Empfänger-Optik bei­ geordnet und eine Auswerte-Elektronik vorhanden. Die zweite Auswerte-Elektronik weist ebenfalls eine elektronische Schnittstelle zum Rechner auf, um das Durchfah­ ren des Nullpunktes des Liniengitters in Echtzeit im Rechner zur Verfügung zu haben.
Beide Linearführungen des Bewegungssystems starten aus der Nullposition heraus. Die Bewegungsrichtung der ersten Linearführung ist parallel zur optischen Achse des Abbildungsobjektivs ausgerichtet. Die Bewegung erfolgt zu den Brennpunkten. Der kleineren zweiten Linearführung, die das Liniengitter trägt, ist ein Positions- Regelsystem zugeordnet, um eine Bewegung des Liniengitters mit einer möglichst konstanten Phasengeschwindigkeit realisieren zu können. Die Bewegungsrichtung der zweiten Linearführung ist senkrecht zur optischen Achse des Beleuchtungsob­ jektiv und erfolgt nach dem Start in Richtung des Beleuchtungsobjektivs.
Aus der aktuellen, absoluten Istphase des Liniengitters ϕGitter, die von einem Null­ punkt abgeleitet ist, werden die Sollwerte für die Position der ersten Linearführung errechnet. Dies erfolgt so, daß sich die Orte gleicher Phase oder Helligkeit auf dem Liniengitter parallel zu einer Geraden gA bewegen. Diese Gerade gA ist so definiert, daß sie den Brennpunkt FAB des Beleuchtungsobjektivs und außerdem den Haupt­ punkt HAA des Abbildungsobjektivs schneidet. Durch dieses Bewegungsregime wer­ den die achssenkrechten Ebenen des Raumes der Objekte von der Schärfefläche nacheinander "durchfahren", indem sich in jeder dieser Ebenen bei Vorhandensein einer Objektoberfläche ein vom Beleuchtungsobjektiv scharf abgebildetes Streifen­ muster beobachten läßt, welches durch das Abbildungsobjektiv auf die Empfänger- Matrix abgebildet wird. Durch das so realisierte Bewegen der Orte gleicher Phase oder Helligkeit auf dem Liniengitter parallel zu einer Geraden gA wird das sogenann­ te "Mitführen der Phase in der Schärfefläche erreicht. Dies führt dazu, daß jedes hinreichend kleine Objektdetail, im Raum des Objektes, wenn es von der Schärfeflä­ che "erfaßt" wird, ein moduliertes periodisches Signal im zugehörigen Pixel ij auf der Empfänger-Matrix erzeugt, in welchem die Information über die absolute Phase des Objektpunktes ϕObj_ij enthalten ist. Diese absolute Phase entspricht beispielsweise für den Objektpunkt AO2 in Fig. 1 der gedachten Anzahl der Streifen n, einschließ­ lich der Streifenbruchteile Δn, zwischen den beiden Objektiv-Achsen, also n + Δn. Diese Streifen sind im Fall einer ebenen, achssenkrecht angeordneten Platte direkt zu beobachten. Dennoch kann im allgemeinen die so zu beobachtende absolute Objektphase aufgrund der nicht genau bekannten Zuordnung der beiden optischen Achsen zu den Pixeln der Empfänger-Matrix nicht bestimmt werden.
Anhand der Fig. 1 läßt sich zeigen, daß in der Position AO1BO1 die Anzahl der Strei­ fen n + 1 + Δn, die zwischen den beiden Objektivachsen zu beobachten ist, genau der Anzahl n + 1 + Δn der Gitterperioden des Liniengitters im Raum der Arrays entspricht, die sich beim Zählen von der Achse des Beleuchtungsobjektivs in χAB-Richtung ergibt.
Weiterhin definiert der Punkt GAB genau den Ort auf dem Gitterelement des Linien­ gitters, welcher beim Bewegen auf der Geraden gA im Teilbereich des Gitterinkre­ ments den Brennpunkt FAB des Beleuchtungsobjektivs schneidet. Demzufolge entspricht, die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene dem Abstand .
Bei Kenntnis des zugehörigen Punktes GAB auf dem Gitter und des Wertes χAB1 so­ wie der Gitterkonstanten p läßt sich grundsätzlich die absolute, lateral invariante Ob­ jektphase ϕObj der achssenkrechten Ebene im Raum des Objektes mit
errechnen. Im Fall der Übereinstimmung der realen Lage der Objektivachse des Ab­ bildungsobjektivs mit der Geraden gO, die ja definitionsgemäß parallel zur Objektiv­ achse des Beleuchtungsobjektivs liegt, gelten die dargestellten Zusammenhänge nach Gleichung (7).
Bevor die Messung, d. h. die Gewinnung der Punktwolke eines unbekannten Objek­ tes erfolgen kann, muß das System mit Hilfe einer Referenzplatte in einer achssenk­ rechten Position erfolgen. Dies erfolgt mit Vorteil in der Nahdistanz der 3D Aufnahme-Anordnung, kann aber auch in jeder anderen Entfernung im Erfas­ sungsbereich der 3D-Aufnahme-Anordnung erfolgen. Die in den Pixel der Empfänger-Matrix sich dabei ergebenden Signalverläufe werden gespeichert. Aus diesen Signalverläufen wird mit Hilfe eines phasenauswertenden Algorithmus, die re­ lative Referenzphase ϕRR_ij im Pixel ij des Empfänger-Arrays im Bereich des Modula­ tionsmaximums berechnet, welches ein Signal von der Referenzplatte erhält. Die so bestimmten relativen Referenzphasen mod 2π werden der absoluten Phase ϕGitter des Liniengitters zugeordnet, s. Fig. 2, und unter Beachtung des jeweiligen Vorzei­ chens von dieser subtrahiert und in einem Feld als Phasenwerte ϕGitterR_ij in der Re­ gel längerfristig gespeichert. Die relativen Objektphasen der Objektpunkte ϕRObj_ij mod 2π werden jeweils von der absoluten Phase ϕGitter des Liniengitters unter Beach­ tung des jeweiligen Vorzeichens von dieser subtrahiert, wodurch die Phasenwerte ϕGitterObj_ij als Feld entstehen. Aus diesen Feldern werden punktweise die Phasendif­ ferenzen ΔϕGitter_ij gebildet.
Zuvor wurde aus der möglichst gut bekannten Entfernung zOR der Referenzplatte von der Brennebene die absolute, lateral invariante Phase ϕR der Referenzfläche mit der hier noch einmal dargestellten Gleichung (2)
bestimmt, wobei diese Bestimmung iterativ zur Annäherung an den wahren Wert mehrfach erfolgen kann. Es stellen d den Achsenabstand der beiden Objektive, fB die Brennweite des Beleuchtungsobjektivs und p die Gitterkonstante des Liniengit­ ters dar.
Mit der Beziehung entsprechend Gleichung (3), wobei ΔϕGitter_ij sich für den Objekt­ punkt ij aus der Gleichung (2) ergibt,
(-)ϕObj_ij = (-)ϕR + ΔϕGitter_ij (8)
wird für den Objektpunkt ij die absolute Objektphase (-)ϕObj_ij aus Gleichung (8) ge­ wonnen. Aus der Beziehung
kann die zOB-Koordinate des Objektpunktes zObj_ij im Objektraum berechnet werden, wobei der Objektpunkt mit dem Pixel ij der Empfänger-Matrix optisch konjugiert ist.
Durch achsparallele Verschiebungen ΔzOB von Planplatten, wobei die Verschiebun­ gen mit einem Präzisions-Längenmeßsystem gemessenen werden, können Fehler abgeschätzt werden, indem die errechneten Verschiebungen mit den gemessenen verglichen werden.
Die Nachjustierung der 3D-Aufnahme-Anordnung erfolgt iterativ. Die Restabwei­ chungen werden in ein numerisches Modell eingegeben, welches hier nicht darge­ stellt ist, und können zur Korrektur benutzt werden.
Aus der Einrechnung des zu jedem Objektpunkt mit der Koordinate zObj_ij gehören­ den aktuellen Abbildungsmaßstabes werden die kartesischen Koordinaten für jeden Objektpunkt ermittelt. Dabei kann ein neues Koordinatensystem mit dem Brenn­ punkt des Abbildungsobjektiv als Nullpunkt für die lateralen Koordinaten in x- und y-Richtung verwendet werden. Damit stehen die 3D-Koordinaten des Objektes in di­ gitaler Form zur Verfügung. Diese Punktwolke wird je nach Aufgabenstellung für meßtechnische Applikationen oder Aufgaben mit einer 3D-Wiedergabe verwendet.
Bei der Verschiebung eines Objektpunktes, der sich in der AO1BO1-Position in Fig. 1 befindet, in die AO2BO2 Position entlang des gezeichneten Abbildungsstrahls erfährt das im Bildpunkt dieses Objektpunktes detektierte Signal eine Änderung in der Pha­ senlage von 2π. Die Änderung in der zOB-Koordinate entspricht dem Δz-Wert, also der Tiefenänderung, die einer Phasenänderung von 2π entspricht. Dieser Δz-Wert wird auch als effektive Wellenlänge bezeichnet.
Fig. 2 zeigt beispielsweise die Signalverläufe in einem Bildpunkt der Empfänger- Matrix in Bezug zum Signalverlauf, der am Gitter mit Hilfe eines Gegengitters beim Bewegen des Gitters detektiert werden kann. Dargestellt werden der Signalverlauf im Bildpunkt eines Objektpunktes und der Signalverlauf im Bildpunkt eines Refe­ renzpunktes. Hierbei befindet sich die Referenzplatte näher am Brennpunkt FOB als die Objektoberfläche. Am Abtastpunkt im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Referenzpunktes wird die relative Phase ϕRR errechnet und am Abtastpunkt im Bereich des Modulationsmaximums des Signals im Bild­ punkt eines Objektpunktes die relative Phase ϕRObj. Mittels der Gleichung (3) wird die absolute Phasendifferenz ΔϕGitter errechnet und mittels dieser mit Gleichung (4) die absolute Objektphase ϕObj, aus der mit der Gleichung (5) die zOB-Koordinate ei­ nes jeden Objektpunktes, nämlich zObj bestimmt wird.
Fig. 3 zeigt eine 3D-Aufnahme-Anordnung vorteilhafterweise mit nur einer Linear­ führung, beispielsweise für eine 3D-Aufnahme-Anordnung für Multimedia- Applikationen. Der Schlitten der Linearführung trägt ein Liniengitter zur strukturierten Beleuchtung des Objektes. Die Beleuchtung erfolgt durch eine Öffnung in der Basis der Führung. Weiterhin trägt der Schlitten die beweglichen Teile für ein Meßsystem für den Verschiebeweg s, wobei dem Meßsystem auch ein Nullpunktgeber zugeord­ net ist. Außerdem ist eine Auswerteelektronik mit Schnittstelle zum hier nicht darge­ stellten Auswerterechner vorhanden.
Der Schlitten wird von einem Linear-Motor angetrieben und die Führung weist ein miniaturisiertes Präzisionslager auf. Anstelle des Präzisionslagers ist auch ein Hochpräzisions-Parallelfedersystem mit hochelastischen Federn aus kristallinem Si­ lizium einsetzbar. Als Empfänger-Matrix kann auch eine farbtüchtige Kamera einge­ setzt werden, wobei die farbsensitiven Pixel jeweils auf einer Linie quer zu den Li­ nien des Liniengitters angeordnet sind.
Nach dem Start des Schlittens in (-)s-Richtung wird der Nullpunkt durchfahren und das Gitter durch das Beleuchtungsobjektiv nacheinander in unterschiedliche Tiefen des Objektraumes scharf abgebildet. Auf der Objektoberfläche entsteht beim Bewe­ gen des Gitters das scharfe Bild desselben, welches vom Abbildungsobjektiv auf die Empfänger-Matrix scharf abgebildet wird, da diese sich in der gleichen Ebene wie das Liniengitter befindet. Durch die Bewegung des Schlittens der Führung gibt es ei­ ne laterale Bewegung der Empfänger-Matrix, wobei das Bild des Objektes feststeht. Um diese laterale Bewegung zu kompensieren, um eine feste Zuordnung der Punk­ te des Objektes, also der Abbildungsstrahlen, zu den Pixeln der Empfänger-Matrix beizubehalten, werden die gewonnenen Bildinformationen pixelweise im Bilddaten- Massiv verschoben. Damit wird erreicht, daß ein realer Abbildungsstrahl jeweils ei­ nem lateral feststehenden Bildpunkt unabhängig von der Bewegung der Empfänger- Matrix fest zugeordnet bleibt.
Aus der bekannten Gitterkonstanten p des Liniengitters wird aus dem gemessenen Verschiebeweg s mittels der aus der Neigung des Schlittens abgeleiteten Kompo­ nente sx die Istphase des Liniengitters ϕGitter mit
bestimmt. Aus der punktweisen Auswertung eines Feldes von absoluten Phasendif­ ferenzen zwischen den Phasenlagen der Signale aus der Messung einer Referenz­ platte und den Signalen aus der Messung am Objekt werden die Koordinaten des Objektes zObj punktweise in der bereits beschriebenen Art ermittelt. Außerdem wer­ den auch die lateralen Koordinaten der Objektpunkte bestimmt.
Verwendete Formelzeichen
ϕGitter
- absolute Istphase des Liniengitters
ϕGitter_R
- absolute Istphase des Liniengitters für einen Referenzpunkt
ϕGitter_Obj
- absolute Istphase des Liniengitters für einen Objektpunkt
ΔϕGitter
- absolute Phasendifferenz zwischen der absoluten Istphase des Liniengitters für einen Referenzpunkt und der absoluten lstphase des Liniengitters für einen Objektpunkt
ϕAabs
- absolute Phase im Raum der Arrays im Durchstoßpunkt der Geraden gA
durch das Liniengitter
ϕObj
- absolute, lateral invariante Objektphase
ϕfB
- absolute, lateral invariante Objektphase in der Brennebene des Beleuchtungsobjektivs
ϕR
- absolute, lateral invariante Phase der Referenzfläche
ϕRR_ij
- relative Referenzphase eines Punktes der Referenzfläche im Bereich des Modulationsmaximums, optisch konjugiert mit dem Pixel ij des Empfänger-Arrays
ϕRObj_ij
- relative Objektphase eines Objektpunktes im Bereich des Modulationsmaximums, optisch konjugiert mit dem Pixel ij des Empfänger-Arrays
ϕObj_ij
- absolute Phase eines Objektpunktes, der mit dem Pixel ij optisch konjugiert ist
d - Abstand des Brennpunktes des Abbildungsobjektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs, auch Abstand der Geraden gO
von der Achse des Beleuchtungsobjektivs, auch Abstand der Achsen von Beleuchtungs- und Abbildungs­ objektiv bei paralleler Lage derselben zueinander
fA
- Brennweite des Abbildungsobjektivs
fB
- Brennweite des Beleuchtungsobjektivs
p - Gitterkonstante des Liniengitters
χ - kartesische Koordinate
χA
- Koordinate des Raum der Arrays
χAB1
- laterale Koordinate des Durchstoßpunktes der Geraden gA
durch das Gitterelementes GAB
im Raum der Arrays
χOB
- Koordinate des Raum der Arrays, dem Beleuchtungsobjektiv zugeordnet
z - kartesische Koordinate
zA
- Koordinate des Raum der Arrays
zOB
- Koordinate des Raumes des Objektes, dem Beleuchtungsobjektiv zugeordnet, auch Abstand einer achs­ senkrechten Ebene im Objektraum im Raum des Objekts von der Brennebene des Beleuchtungsobjektivs
zObj
- Koordinate eines Objektpunktes im Objektraum
zObj_ij
- Koordinate eines Objektpunktes im Objektraum, der mit dem Pixel ij der Empfänger-Matrix optisch konjugiert ist
zOR
- Abstand der Referenzfläche im Raum des Objekts von der Brennebene des Beleuchtungsobjektivs
zORexp
- experimentell ermittelter Abstand der Referenzfläche im Raum des Objektes von der Brennebene des Beleuchtungsobjektivs
Δz
- Betrag der Verschiebung eines Objektpunktes auf einem Abbildungsstrahl, bei der sich die absolute Phase genau um 2π im selben Abbildungsstrahl verändert hat

Claims (16)

1. 3D-Aufnahme-Anordnung zur 3D-Aufnahme von Objekten und Szenen mit min­ destens einer Lichtquelle, mindestens einem Sender-Array, wobei diese gemeinsam eine strukturierte, leuchtende Fläche bilden, mindestens einem Beleuchtungsobjek­ tiv mit einer positiven Brennweite zur Abbildung des Sender-Arrays, wobei diese Baugruppen die Beleuchtungseinrichtung bilden, einem weiteren Objekt oder einer Szene, mindestens einem Aufnahmeobjektiv zur Abbildung des Objektes oder der Szene, wobei die Schärfefläche des Beleuchtungsobjektivs mit der Schärfefläche des Abbildungsobjektivs im Raum des Objektes zumindest teilweise zusammenfällt, und mindestens einem Empfänger-Array und außerdem mindestens einem Bewegungs-System, welches wenigstens einer Komponente der Baugruppen der Beleuchtungseinrichtung zugeordnet ist, gekennzeichnet dadurch, daß die Komponenten des Bewegungs-Systems so an­ geordnet sind, daß im Raum der Arrays mit dem Brennpunkt des Beleuchtungsob­ jektivs als Bezugspunkt für das Sender-Array eine Gesamtbewegungsrichtung paral­ lel zu einer Geraden gA im Raum der Arrays realisiert ist, so daß die Elemente des Sender-Arrays sich auf parallelen Geraden zur Geraden gA bewegen und diese Ge­ rade gA den Brennpunkt des Beleuchtungsobjektivs im Raum der Arrays schneidet und den Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungs­ objektivs und Abstand des Brennpunktes des Abbildungsobjektiv im Raum des Ob­ jektes von der Achse des Beleuchtungsobjektivs aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist.
2. 3D-Aufnahme-Abordnung nach 1, gekennzeichnet dadurch, daß sowohl das Beleuchtungsobjektiv im Raum des Empfänger-Arrays als auch das Aufnahmeobjek­ tiv im Raum des Sender-Arrays jeweils einen telezentrischen Strahlengang aufweisen.
3. 3D-Aufnahme-Anordnung nach 1 und 2, gekennzeichnet dadurch, daß die Objektive mit ihren Achsen parallel zueinander in einem Achsabstand deutlich unter­ halb der einhundertfachen Brennweite des Beleuchtungsobjektivs, typischerweise das drei- bis sechsfache der Brennweite, angeordnet sind und das Abbildungsobjek­ tiv so angeordnet ist, daß dessen Brennpunkt im Raum des Objektes in der Brenne­ bene des Beleuchtungsobjektivs liegt.
4. 3D-Aufnahme-Anordnung nach 1 bis 3, gekennzeichnet dadurch, daß das Bewegungs-System aus zwei einzelnen Linearführungen aufgebaut ist und die erste Linearführung dem Empfänger-Array zugeordnet ist und die Bewegungsrichtung die­ ser Linearführung parallel zur optischen Achse des Abbildungsobjektivs justiert ist und die zweite Linearführung der ersten Linearführung und dem Sender-Array zuge­ ordnet ist und die Bewegungsrichtung der zweiten Linearführung senkrecht zur opti­ schen Achse des Beleuchtungsobjektivs justiert ist und beide Linearführungen als Resultat linearer Einzelbewegungen das Sender-Array parallel zur Geraden gA bewegen.
5. 3D-Aufnahme-Anordnung nach 1 bis 3, gekennzeichnet dadurch, daß das Bewegungs-System aus drei einzelnen Linearführungen aufgebaut ist und die erste Linearführung beweglichen Komponenten des Beleuchtungsobjektivs zur Innenfo­ kussierung und die zweite Linearführung beweglichen Komponenten des Abbil­ dungsobjektivs zur Innenfokussierung und die dritte dem Sender-Array zur Bewe­ gung senkrecht zur optischen Achse des Beleuchfungsobjektiv zugeordnet ist.
6. 3D-Aufnahme Anordnung nach 1 bis 3, gekennzeichnet dadurch, daß das Bewegungs-System aus einer Linearführung aufgebaut ist und diese dem Empfänger-Array zugeordnet ist und die Bewegungsrichtung dieser Linearführung parallel zur optischen Achse des Abbildungsobjektivs justiert ist und ein rotatorischer Antrieb der Linearführung zugeordnet ist und das Sender-Array wiederum dem rota­ torischen Antrieb zugeordnet ist und als Resultat der Einzelbewegungen ein Teil­ stück des Sender-Arrays in einem Zeitintervall näherungsweise parallel zur Geraden gA bewegt wird.
7. 3D-Aufnahme-Anordnung nach 1 bis 6, gekennzeichnet dadurch, daß das Sender-Array als Liniengitter ausgeführt ist und diesem ein Gegengitter zur Erfas­ sung der Phasenlage beim Bewegen des Liniengitters zugeordnet ist.
8. 3D-Aufnahme-Anordnung nach 1, 2 und 5, gekennzeichnet dadurch, daß das Empfänger-Array beim Tiefenscannen zur Erfüllung der Scheimpflugbedingung drehbar angeordnet ist.
9. 3D-Aufnahme-Anordnung nach 1, 2, 5 und 8, gekennzeichnet dadurch, daß das Abbildungsobjektiv um seinen Brennpunkt im Raum des Objektes drehbar an­ geordnet ist.
10. 3D-Aufnahme-Anordnung nach 9 und 2, gekennzeichnet dadurch, daß eine transparente Platte der 3D-Aufnahme-Anordnung als permanent verbleibende Refe­ renzplatte achssenkrecht in der Nahdistanz im Objektraum zur Selbsteinmessung zugeordnet ist, wobei auf mindestens einer der beiden Flächen der Platte eine schwach lichtstreuende Mikrostruktur aufgebracht ist.
11. 3D-Aufnahme-Verfahren zur 3D-Aufnahme von Objekten und Szenen mit einer strukturierten, leuchtenden Fläche nach Anordnung nach Punkt 1 bis 10, gekenn­ zeichnet dadurch, daß die Orte der lokalen Extrema der Leuchtdichte der strukturierten, leuchtenden Fläche im Raum der Arrays eine geradlinige Bewegung parallel zu einer Geraden gA erfahren, wobei die Gerade gA den Brennpunkt des Beleuchtungsobjektivs im Raum der Arrays schneidet und den Anstieg mit dem Betrag aus dem Quotienten Brenn­ weite des Beleuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsob­ jektiv im Raum des Objektes von der Achse des Beleuchtungsobjektivs aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist und diese strukturierte, leuchtende Fläche in den Raum des Objektes abgebildet wird.
12. Verfahren nach 11, gekennzeichnet dadurch, daß eine absolute Phasendiffe­ renz ΔϕGitter in einem Bildpunkt, welcher zu einem Objektpunkt gehört, aus jeweils zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zu­ gehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modulation im Signal bestimmt wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell bestimmten Position der Referenzplatte zOR im Raum des Objektes und bezogen auf das Beleuchtungsobjektiv und den Geometrie­ daten der optischen Anordnung wie gemeinsame Objektivbrennweite und Abstand der Objektivachsen errechnet, wodurch sich im Ergebnis dieser Rechenoperation ei­ ne absolute Objektphase für jeden erfaßten Objektpunkt ergibt.
13. Verfahren nach 11 und 12, gekennzeichnet dadurch, daß die absolute Phasen­ differenz aus der Phase des Sender-Arrays so abgeleitet wird, daß die - aus dem beim Bewegen des Sender-Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunktes - jeweils in der 2π-Umgebung des Modulationsmaximums errechne­ ten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Pha­ se des bewegten Sender-Arrays zugeordnet werden.
14. Verfahren nach 11 und 12, gekennzeichnet dadurch, daß die absolute Phasen­ differenz aus der Phase des Sender Arrays so bestimmt wird, daß die - aus dem beim Bewegen des Sender-Arrays und Empfänger-Arrays in einem Bildpunkt des Empfänger-Arrays entstehenden Signalverlauf eines Referenzpunktes und eines Objektpunktes - genau am Modulationsmaximums errechneten 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des beweglichen Sender-Arrays zugeordnet werden.
15. Verfahren nach 11 bis 14, gekennzeichnet dadurch, daß die Sollposition der er­ sten Linearführung sich stets aus der Lage der lokalen Extrema der Leuchtdichte der strukturierten, leuchtenden Fläche im Raum der Arrays ableitet.
16. Verfahren nach 11, gekennzeichnet dadurch, daß beim gemeinsamen Bewe­ gen von Sender- und Empfänger-Array, welche starr miteinander verbunden sind, die mittels Empfänger-Array gewonnenen Bildinformationen nach der Aufnahme ei­ nes jeden einzelnen Bildes um mindestens ein Pixel im Bilddaten-Satz verschoben werden.
DE1998146145 1998-10-01 1998-10-01 Verfahren und Anordung zur 3D-Aufnahme Ceased DE19846145A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE1998146145 DE19846145A1 (de) 1998-10-01 1998-10-01 Verfahren und Anordung zur 3D-Aufnahme

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1998146145 DE19846145A1 (de) 1998-10-01 1998-10-01 Verfahren und Anordung zur 3D-Aufnahme

Publications (1)

Publication Number Publication Date
DE19846145A1 true DE19846145A1 (de) 2000-04-20

Family

ID=7883668

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1998146145 Ceased DE19846145A1 (de) 1998-10-01 1998-10-01 Verfahren und Anordung zur 3D-Aufnahme

Country Status (1)

Country Link
DE (1) DE19846145A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005001774A3 (en) * 2003-06-18 2005-02-24 Dimensional Photonics Methods and apparatus for reducing error in interferometric imaging measurements
DE10344051A1 (de) * 2003-09-23 2005-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Vermessung von Entfernung und/oder räumlichen Koordinaten eines Gegenstandes
DE102005002190B4 (de) * 2005-01-17 2007-04-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scanner und Verfahren zum Betreiben eines Scanners
WO2009000341A1 (de) * 2007-06-22 2008-12-31 Automation W+R Gmbh Verfahren und anordnung zur optischen überprüfung von einseitig offenen tunnelartigen hohlräumen in werkstücken, insbesondere von kühlkanälen in bremsscheiben.
WO2009024757A1 (en) 2007-08-17 2009-02-26 Renishaw Plc Phase analysis measurement apparatus and method
US9329030B2 (en) 2009-09-11 2016-05-03 Renishaw Plc Non-contact object inspection
DE102014226729A1 (de) * 2014-12-19 2016-06-23 Sac Sirius Advanced Cybernetics Gmbh Verfahren zur optischen Formerfassung und/oder Formprüfung eines Gegenstands und Beleuchtungseinrichtung
CN107655423A (zh) * 2017-11-27 2018-02-02 中山路得斯空调有限公司 一种车辆轮廓测量装置及方法
WO2018206233A1 (de) 2017-05-08 2018-11-15 Universität Stuttgart Verfahren und anordnung zur robusten, tiefenscannenden/fokussierenden streifen-triangulation mit mehreren wavelets
DE102017004429B4 (de) 2017-05-08 2019-05-09 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden/fokussierenden Streifen-Triangulation
CN113866997A (zh) * 2021-09-17 2021-12-31 深圳技术大学 显示系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4007500A1 (de) * 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
DE4301538A1 (de) * 1992-03-17 1994-07-28 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4007500A1 (de) * 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
DE4301538A1 (de) * 1992-03-17 1994-07-28 Peter Dr Ing Brueckner Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SCHILLING, A., WIEGEL, E.: "Optische Koordinatenmessung, schnell, präzise und sicher", In: Feinwerktechnik & Messtechnik 97 (1989) 8-9, S. 380-383 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005001774A3 (en) * 2003-06-18 2005-02-24 Dimensional Photonics Methods and apparatus for reducing error in interferometric imaging measurements
DE10344051A1 (de) * 2003-09-23 2005-04-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Vermessung von Entfernung und/oder räumlichen Koordinaten eines Gegenstandes
DE10344051B4 (de) * 2003-09-23 2008-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Vermessung von Entfernungen und/oder räumlichen Koordinaten eines Gegenstandes
DE102005002190B4 (de) * 2005-01-17 2007-04-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Scanner und Verfahren zum Betreiben eines Scanners
US7469834B2 (en) 2005-01-17 2008-12-30 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Scanner and method for operating a scanner
WO2009000341A1 (de) * 2007-06-22 2008-12-31 Automation W+R Gmbh Verfahren und anordnung zur optischen überprüfung von einseitig offenen tunnelartigen hohlräumen in werkstücken, insbesondere von kühlkanälen in bremsscheiben.
US8923603B2 (en) 2007-08-17 2014-12-30 Renishaw Plc Non-contact measurement apparatus and method
JP2010537182A (ja) * 2007-08-17 2010-12-02 レニショウ パブリック リミテッド カンパニー 位相解析測定を行う装置および方法
US8605983B2 (en) 2007-08-17 2013-12-10 Renishaw Plc Non-contact probe
US8792707B2 (en) 2007-08-17 2014-07-29 Renishaw Plc Phase analysis measurement apparatus and method
WO2009024757A1 (en) 2007-08-17 2009-02-26 Renishaw Plc Phase analysis measurement apparatus and method
USRE46012E1 (en) 2007-08-17 2016-05-24 Renishaw Plc Non-contact probe
US9329030B2 (en) 2009-09-11 2016-05-03 Renishaw Plc Non-contact object inspection
DE102014226729A1 (de) * 2014-12-19 2016-06-23 Sac Sirius Advanced Cybernetics Gmbh Verfahren zur optischen Formerfassung und/oder Formprüfung eines Gegenstands und Beleuchtungseinrichtung
WO2018206233A1 (de) 2017-05-08 2018-11-15 Universität Stuttgart Verfahren und anordnung zur robusten, tiefenscannenden/fokussierenden streifen-triangulation mit mehreren wavelets
DE102017004428B4 (de) 2017-05-08 2018-11-29 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets
DE102017004429B4 (de) 2017-05-08 2019-05-09 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden/fokussierenden Streifen-Triangulation
US10866088B2 (en) 2017-05-08 2020-12-15 Universität Stuttgart Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets
CN107655423A (zh) * 2017-11-27 2018-02-02 中山路得斯空调有限公司 一种车辆轮廓测量装置及方法
CN113866997A (zh) * 2021-09-17 2021-12-31 深圳技术大学 显示系统
CN113866997B (zh) * 2021-09-17 2023-10-24 深圳技术大学 显示系统

Similar Documents

Publication Publication Date Title
EP0534284B1 (de) Verfahren und Vorrichtung zur Bestimmung der Absolut-Koordinaten eines Objektes
EP1971820B1 (de) Erstellung eines abstandsbildes
EP1497613B1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes
DE19727281C1 (de) Verfahren und Vorrichtung zur geometrischen Kalibrierung von CCD-Kameras
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE102011114674B4 (de) Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
EP2400261A1 (de) Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
EP2079981A2 (de) Vorrichtung und verfahren zum berührungs losen erfassen einer dreidimensionalen kontur
DE102008002725B4 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
EP2791619B1 (de) Verfahren und vorrichtung zur 3d-messung von tiefenlimitierten objekten
DE102012002161A1 (de) Verfahren und Vorrichtung zur 3D-Messung von Objekten
DE102006042311A1 (de) Verfahren und Vorrichtung zur dreidimensionalen Vermessung von Objekten in einem erweiterten Winkelbereich
DE19919584A1 (de) Verfahren und Anordnung zur 3D-Aufnahme
DE19846145A1 (de) Verfahren und Anordung zur 3D-Aufnahme
DE4142676A1 (de) Verfahren und vorrichtung zur vermessung von objekten, insbesondere zahnraedern, mittels projizierter streifenmuster
EP4046133A1 (de) Verfahren und vorrichtung zum bestimmen einer kontur einer fassungsnut
DE19749974C2 (de) Verfahren und Apparat zur Erzeugung einer 3D-Punktwolke
DE102012001307A1 (de) Verfahren und Vorrichtung zur 3D-Messung von Objekten, insbesondere unter hinderlichen Lichtverhältnissen
DE102014016087B4 (de) Dreidimensionale optische Erfassung von Objektoberflächen
DE2247217A1 (de) Hologrammetrisches messverfahren und geraet zur durchfuehrung
EP0867689B1 (de) Mikrofotogrammatische Messeinrichtung
DE19748062C2 (de) Verfahren und Einrichtung zur dreidimensionalen optischen Vermessung von Objekten
DE4428055A1 (de) Anordnung und Verfahren zur optoelektronischen photogrammetrischen Bild- und Meßdatengewinnung
WO2014114663A1 (de) Optische vorrichtung und verfahren zum bestimmen räumlicher koordinaten von oberflächen makroskopischer objekte durch triangulation zweier zeilenkameras
DE4428054C1 (de) Anordnung und Verfahren zur stereoskopischen optoelektronischen Bildgewinnung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8122 Nonbinding interest in granting licenses declared
8127 New person/name/address of the applicant

Owner name: UNIVERSITAET STUTTGART, 70174 STUTTGART, DE

8181 Inventor (new situation)

Free format text: KOERNER, KLAUS, DR., 15566 SCHOENEICHE, DE

8131 Rejection