DE19919584A1 - Verfahren und Anordnung zur 3D-Aufnahme - Google Patents
Verfahren und Anordnung zur 3D-AufnahmeInfo
- Publication number
- DE19919584A1 DE19919584A1 DE1999119584 DE19919584A DE19919584A1 DE 19919584 A1 DE19919584 A1 DE 19919584A1 DE 1999119584 DE1999119584 DE 1999119584 DE 19919584 A DE19919584 A DE 19919584A DE 19919584 A1 DE19919584 A1 DE 19919584A1
- Authority
- DE
- Germany
- Prior art keywords
- array
- luminous
- structured
- receiver
- recording
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung betrifft Verfahren und Anordnungen zur 3-D-Aufnahme mindestens einer Objektoberfläche eines Objektes in einer Szene mit einer Strahlungsquelle zur Beleuchtung eines Arrays, wodurch ein strukturiert leuchtendes Array mit mindestens einem leuchtenden Flächenelement gebildet ist, einem Beleuchtungsobjektiv zur Abbildung des leuchtenden Arrays in den Objektraum und einem Empfänger-Array und einem Aufnahmeobjektiv zur Abbildung von Elementen der mindestens einen Objektoberfläche auf das Empfänger-Array. Dabei werden das Schärfevolumen eines Bildes des mindestens einen leuchtenden Flächenelementes des strukturiert leuchtenden Arrays, wobei dieses Schärfevolumen im Objektraum gebildet ist, und das Schärfevolumen eines Bildes mindestens eines Elementes des Empfänger-Arrays, wobei dieses Schärfevolumen mit Hilfe des Aufnahmeobjektivs ebenfalls im Objektraum gebildet ist, und mindestens ein Element der mindestens einen Objektoberfläche zumindest näherungsweise einmal, aufgrund der Druchführung einer vorbestimmten Verschiebung des mindestens einen leuchtenden Flächenelementes des strukturiert leuchtenden Arrays auf einer Verschiebungsstrecke im Array-Raum mit einer Verschiebunsgkomponente parallel und einer Verschiebungskomponente senkrecht zur optischen Achse des Beleuchtungsobjektivs, zur Koinzidenz gebracht, wobei das durch das Beleuchtungsobjektiv erzeugte Bild dieser Verschiebungsstrecke im Objektraum mit dem zugehörigen Hauptstrahl des Abbildungsstrahlenbündels ...
Description
Das technische Anwendungsgebiet besteht in der Bestimmung der 3D-Form oder 3D-Gestalt von
Körpern oder Objekten im Raum oder sogar kompletten Szenen mit mindestens einem Bildaufnehmer
in einem optischen Aufnahmesystem. Die dazu notwendige Anordnung wird im weiteren als
3D-Aufnahme-Anordnung und das Verfahren wird als 3D-Aufnahme-Verfahren bezeichnet. Die
Anwendung dieser 3D-Aufnahme-Anordnung und dieses Verfahrens erfolgt erstens im Sinne der
3D-Meßtechnik. Als Ergebnis der Berechnung wird aus optisch gewonnenen Signalen die
3D-Punktwolke von Objektoberflächen in einer Szene als digital vorliegender Datensatz mit Bezug zu
einem Nullpunkt der 3D-Aufnahme-Anordnung ermittelt. Die errechnete Punktwolke kann
beispielsweise in einem CAD-System weiterverarbeitet werden.
Eine weitere, mögliche meßtechnische Applikation stellt die Positionsbestimmung eines Fahrzeuges
im Freien dar, ohne die Notwendigkeit das Fahrzeug durch eine interne oder externe
Beleuchtungseinrichtung der 3D-Aufnahme-Anordnung beleuchten zu müssen.
Das zweite Anwendungsgebiet stellt das Gewinnen von 3D-Bildern als Punktwolke von
Objektoberflächen in einer Szene im Nah- und im Fernbereich für 3D-Wiedergabe-Geräte und
3D-Wiedergabe-Verfahren dar. Dabei können auch die Farben der Objektoberflächen erfaßt werden.
Dieses Verfahren betrifft vor allem den Multimedia- und Fernsehbereich im Studio. Es kann aber auch
bei Außenaufnahmen eingesetzt werden.
Weiterhin kann das Verfahren und die Anordnung zur digitalen 3D-Schwarzweiß- und zur digitalen
3D-Farbaufnahme im Nah- und im Fernbereich im Sinne der Fotografie angewendet werden, wobei
ein digitaler Datensatz erzeugt wird, der zu einem 3D-Bild weiterverarbeitet werden kann.
Die 3D-Form von Oberflächen wird häufig mit Streifen-Triangulationsverfahren vermessen. Dabei wird
in der Regel das Objekt oder die Szene unter einem großen Einfallswinkel beleuchtet, beispielsweise
zwischen 30° und 60°. Dies führt jedoch häufig zu störenden Abschattungen des Objekts oder von
Details von Objektoberflächen in der Szene.
Es sind vielfältige 3D-Meßanordnungen mit kohärentem Licht bekannt. Der Einfluß des
Speckle-Phänomens begrenzt jedoch den Einsatz dieser Verfahren. Dies wurde von H. J. Tiziani in
der Arbeit "Automatisierung der optischen Qualitätsprüfung" in Technisches Messen, 55. Jahrgang,
Heft 1211988, S. 481-491 auf Seite 488 dargestellt. Es werden auch Interferenzstreifen-Felder für die
Streifen-Projektionstechnik eingesetzt. Diese werden durch die Überlagerung kohärenter Planwellen
erzeugt und weisen ebenfalls Speckle-Effekte auf, s. Technisches Messen, 62. Jahrgang, Heft 9/1995,
S. 328-330. Diese Speckle-Effekte begrenzen die sinnvolle Höhenauflösung häufig auf weniger als
1/40 der effektiven Wellenlänge.
Bei der herkömmlichen optischen 3D-Messung stellen diskontinuierliche Oberflächen oft ein Problem
dar. Beispielsweise können größere Absätze oder Stufen in der Oberfläche des Objektes zu einer
Verletzung des Sampling-Theorems führen. Abhilfe schafft hier das Gray-Code-Verfahren, bei dem
eine Folge von Binär-Bildern aufprojiziert wird. Zusätzlich werden anschließend - besonders bei
höheren Genauigkeitsforderungen - Sinusgitter auf die Objektoberfläche abgebildet, wobei die
bekannte Phasenschiebemethode zur Anwendung kommt. Ein Beispiel stellt das Modulare optische
3D-Meßsystem optoTOP der Fa. Breuckmann GmbH in D-88709 Meersburg dar. Weiterhin ist das
COMET-500-System der Fa. Steinbichler Optotechnik GmbH in D-83115 Neubeuern zu nennen.
Die Firma ABW in D-72636 Frickenhausen bietet programmierbare Linienprojektoren mit bis zu 1280
Linien für das absolut messende Moire-Verfahren an. Projektoren auf LCD-Basis arbeiten noch relativ
langsam und der zu beobachtende Streifenkontrast auf dem Objekt ist schlechter als bei Projektoren
mit Gitterstrukturen auf Glasplatten.
Die Firma Gottfried Frankowski Meßtechnik in D-14513 Teltow bietet die Digitale Lichtprojektion auf
der Basis von beleuchteten Mikrospiegeln, Digital Light Mirror Devices, auch als DMD bekannt, an. Es
können Gitterbilder mit einer Folgefrequenz von etwa 10 Hz erzeugt und eingelesen werden. Diese
Frequenz ist jedoch für die Hochgeschwindigkeits-Bildaufnahme noch nicht ausreichend. Weiterhin
werden bei der Messung Flächenelemente gleicher relativer Leuchtdichte innerhalb eines Musters
leuchtender Streifen verschoben. Diese Flächenelemente werden nacheinander durch verschiedene
beleuchtete Mikrospiegel dargestellt und bilden eine strukturiert leuchtenden Fläche. Die relative
Leuchtdichte ist auf die mittlere Leuchtdichte des Umfeldes bezogen. Für die Flächenelemente
gleicher relativer Leuchtdichte werden kurze Verschiebungsstrecken, beispielsweise von der Länge
von vier oder acht Mikrospiegelabmessungen, realisiert, die einer Streifenperiode in der Ebene des
Digital Light Mirror Devices entsprechen. Durch die senkrechte Ausrichtung des Digital Light Mirror
Devices zur optischen Achse des Beleuchtungsobjektivs werden die Flächenelemente oder die Orte
gleicher Leuchtdichte in einer ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs auf
Verschiebungsstrecken verschoben. Dabei entspricht die Verschiebung um einen Streifen einer
Änderung der Phase im abgebildeten Streifenfeld um 360°. Dieser Wert ist für die phasenauswertende
Streifenprojektionsmeßtechnik auf der Grundlage der Triangulation für die Bestimmung der
Punktwolke einer Objektoberfläche geeignet. Jedoch können keine Objekte mit einer in Bezug zur
Brennweite des Beleuchtungsobjektivs großen Tiefe vermessen werden, wenn sehr feine Streifen zum
Erreichen eines hohen Tiefenauflösungsvermögens abgebildet werden. Der Tiefenmeßbereich ist
hierbei durch die Ausdehnung der Öffnungsblende DB des Beleuchtungsobjektivs begrenzt.
Um einen großen Schärfentiefebereich bei der Vermessung von tiefen Objekten zu erreichen, wird bei
allen genannten Verfahren in der Regel mehr oder weniger stark abgeblendet, sowohl bei der
Beleuchtung als auch bei der abbildung der Objektoberfläche. Es wird meistens mit kleinen
Objektivöffnungen, beispielsweise mit einer relativen Lichtstärke von 1 : 8 bis 1 : 22 gearbeitet. Dies
erfordert starke Lichtquellen, beispielsweise in Form von Blitzlampen oder starken Halogenlampen,
oder es ist nur die Ausleuchtung vergleichsweise kleiner Felder möglich, beispielsweise 200 mm × 200
mm bis 500 mm × 500 mm.
Auf dem 2. ABW-Workshop 3-DBVITAE vom 25.-26.1.1996 wurde von R. Lampalzer, G. Häusler und
Schielzeth auf den Vorteil einer großen Beleuchtungsapertur zur Verringerung des
Speckle-Rauschens durch die Gewinnung räumlicher Inkohärenz hingewiesen.
In der Vergangenheit kam es durch die Verwendung von zwei Kameras zu Problemen mit der
lateralen Genauigkeit bei der Generierung der 3D-Punktwolke. Neue Entwicklungen, beispielsweise
von der Firma gom in D-38106 in Braunschweig, führten zu einer Serie von 3D-Sensoren auf der
Basis der Projektion von unterschiedlichen Streifenmustern und der Erfassung mit zwei Kameras aus
unterschiedlichen Blickwinkeln. Jedoch es bleibt das Problem einer begrenzten Tiefenausdehnung
des Meßraumes bestehen, wenn zum Erreichen einer hohen Tiefenauflösung Gitter mit einer kleinen
Gitterperiode abgebildet werden.
Ein neues Verfahren mit drei Kameras mit parallel angeordneten optischen Achsen und einem
geeigneten Basisabstand löst das Problem der Erfassung der 3D-Szene durch die Auswertung
stereoskopischer Bilder mittels Hochleistungsrechner, s.VDI-Nachrichten Nr. 21 vom 22. Mai 1998,
Seite 15, "Reise in die strahlende Ruine". Diese so gewonnenen 3D-Informationen werden zum
Steuern eines Roboters, des Roboter "Pioneer", in der Tschernobyl-Ruine und zur 3D-Erfassung der
baulichen Gegebenheiten und des Umfeldes angewendet. Nur mit Hochleistungs-Rechentechnik ist
eine echtzeitnahe 3D-Bildrekonstruktion möglich. Das Bauvolumen dieser Anordnung ist durch die drei
Kameras vergleichsweise groß.
Im Tagungsband "Optische Formerfassung" GMA-Bericht 30, DGZfP - VDINDE-GMA Fachtagung
28./29. April 1997, Langen, Bundesrepublik Deutschland, S. 199-209, wird von den Autoren,
R. Schwarte, H. Heinol, z.Xu, J. OIk und W. Tai darauf hingewiesen, daß für die schnelle Formerfassung
im ca. 20 cm- bis 50 m-Bereich kein präzises, flexibles und kostengünstiges Verfahren zur Verfügung
steht. Diese Aussage gilt besonders für den Bereich von 20 cm bis 2 m, da hier auch die
Laufzeitverfahren nur eine Tiefen-Meßgenauigkeit von 2 mm bis 20 mm aufweisen. Die in oben
genannter Veröffentlichung dargestellte technische Lösung auf der Basis eines Photomischdetektors
PMD wird als gegenwärtig noch nicht geeignet angesehen, im genannten Nahbereich eine hohe
Tiefen-Genauigkeit zu realisieren. Auch wird der technische Aufwand z. Z. noch als recht hoch
eingeschätzt.
Im o. g. Tagungsband "Optische Formerfassung" wird auf den Seiten 211-222, von den Autoren W.
Schreiber, V. Kirchner und G. Notni das Konzept für ein selbsteinmessendes, optisches
3D-Meßsystem auf der Basis strukturierter Beleuchtung dargestellt. Es gestattet, ausgehend von der
Erfahrungen in der Photogrammetrie, die gleichzeitige Bestimmung von Systemparametern und
Koordinaten aus den Meßwerten. Es wird eine hohe Meßgenauigkeit für die Objektkoordinaten mit
einem relativen Fehler von bis zu 10-5 erreicht. Dazu muß jedoch eine mehrmalige Meßwertaufnahme
erfolgen, wobei Gray-Code-Sequenzen und Streifen mit sinusähnlichem Profil in Verbindung mit
Phasenschiebechniken eingesetzt werden. Dies bedeutet einen erheblichen Zeitaufwand für die
Durchführung der Messung aufgrund des notwendigen Einsatzes mehrerer Gitter in einer Meßfolge.
Auch muß das Objekt, aufeinanderfolgend von mehreren Projektoren, in unterschiedlichen Positionen
oder vom gleichen Projektor aus in verschiedenen Richtungen beleuchtet werden. Auch dies
ermöglicht keine hochdynamische Messung oder eine echtzeitnahe 3D-Erfassung von Objekten.
Die Grundzüge dieses optischen Verfahrens sind unter dem Titel "Optische Dreikoordinatenmessung
mit strukturierter Beleuchtung" in Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 321-329 von W.
Schreiber, J. Gerber und R. Kowarschik dargestellt. Der Referenzpunkt für das Koordinatensystem
liegt dabei im Bereich des Objektes. In Bild 2 dieser letztgenannten Veröffentlichung wird eine
Anordnung mit parallelen Achsen für das Beleuchtungs- und das Abbildungsobjektiv und einer
zweiseitig zentralperspektivischen Abbildung dargestellt. Jedoch läßt sich abgeschätzen, daß sich
hierbei aufgrund des angegebenen Apparates und des mathematischen Modells die Umsetzung der
Auswerte-Algorithmen in straight forward-Algorithmen sehr schwierig gestaltet, so daß eine
Echtzeit-Auswertung mittels spezieller Hochgeschwindigkeits-Prozessoren auf diesem Weg kaum
möglich ist.
Da die Kamera und der Projektor räumlich getrennt sind, ist die Realisierung eines kompaktes
3D-Meßmoduls nicht möglich.
Die Daimler-Benz Aerospace stellte 1997 die 2. Generation einer Laserkamera auf der Basis der
Laufzeitmessung des Lichtes dar. Die Meßgenauigkeit liegt nur bei etwa 2% des Meßbereiches und
wird damit für meßtechnische Applikationen im Nahbereich als ungeeignet angesehen. Die
Gewinnung der Farbinformation von der Szene gilt hierbei als praktisch ausgeschlossen.
In der Arbeit "General approach for the description of optical 3D-measuring system" der Autoren
P. Andrä, W. Jüptner, W. Kebbel und W. Osten in SPIE Vol. 3174, S. 207-215 wird eine allgemeine
Beschreibung optischer Methoden für die 3D-Koordinatenmessung gegeben. Die Ableitung von
geeigneten Algorithmen für die Hochgeschwindigkeitsauswertung von Bildserien für die 3D-Messung
ist hierbei nicht gegeben, stellte aber auch nicht das Ziel dieser Arbeit dar.
Eine 3D-Echtzeitkamera wurde im Poster P28 der 99. Tagung der Deutschen Gesellschaft für
angewandte Optik vom 2.6. bis 6.6.1998 in Bad Nenndorf von G. Bohn, L. Cloutot, G. Häusler, M.
Hernandez, C. Horneber, R. Lampalzer, S. Seeger unter Einsatz eines ferroelektrischen Displays
vorgestellt. Dieses ferroelektrische Display ist in 0,1 ms umschaltbar und wird in Verbindung mit einer
astigmatischen Abbildung zur Generierung von sinusförmigen Streifen fester Ortsfrequenz verwendet.
Die Meßzeit des Prototypen beträgt zur Zeit 320 ms. Eine absolute Kodierung des Raumes mittels
strukturiertem Licht ist damit bisher jedoch nicht möglich. Die erreichbare Genauigkeit ist gegenwärtig
auf etwa 1/2000 des Meßbereiches begrenzt.
In der Patentschrift WO9214118 wird eine 3D-Meßanordnung beschrieben, die als "konfokal"
bezeichnet wird, die den Kontrast eines auf die Objektoberfläche projizierten Streifenmusters
auswertet. Dabei werden sowohl das Beleuchtungs- als auch das Abbildungsobjektiv oder ein
gemeinsames Objektiv jeweils auf die gleiche Ebene im Raum des Objektes fokussiert. Es ist jedoch
keine Möglichkeit angegeben, für Objektabstände im Dezimeter- und im Meterbereich eine hohe
Genauigkeit zu erzielen. Mit der Auswertung des Kontrastes des projizierten Streifenmusters läßt sich
bei mittleren und großen Objektabständen mit handelsüblichen Projektionsobjektiven mit einem
Öffnungsblendendurchmesser von bis zu 30 mmbekannterweise keine hohe Genauigkeit in der Tiefe
erreichen. Dabei wird ein beleuchtetes Transmissionsgitters auf einer Verschiebungsstrecke,
beispielsweise von der Länge von einigen Millimetern verschoben. Dies erfolgt in Richtung parallel zur
optischen Achse des Beleuchtungsobjektivs, um die Lage der Schärfefläche im Raum des Objektes
zu verändern, im Sinne eines Scannens. Dadurch ändert sich auch die Streifenbreite im abgebildeten
Streifenfeld. Zusätzlich wird durch einen Piezo-Aktuator, der mit dem beleuchteten Gitter verbunden
ist, das beleuchtete Gitter in Schritten der halben Gitterkonstante gestellt. So detektieren die Elemente
eines Bildempfängers, die zu diesen Gitterelementen optische konjugiert liegen, eine
Hell-Dunkel-Verteilung. Die Größe der Amplitude des entstehenden Signals wird zur Bestimmung der
Kontrastfunktion benutzt. Das Bestimmung des Ortes des Maximums der Kontrastfunktion über der
z-Position des beleuchteten Gitters dient der Bestimmung der z-Position eines jeden Objektpunktes.
Diese Methode der Bestimmung der z-Position von Objektpunkten für die Gewinnung der Punktwolke
ermöglicht jedoch keine sehr hohe Tiefenauflösung.
Zur Verbesserung der lateralen Auflösung bei der Abbildung der Objektoberfläche kann gemäß der
Patentschrift WO 92 14 118 der Empfänger als Zeilen- oder Matrix-Empfänger auch in Schritten
unterhalb des mittleren Bildelementabstandes, also des Pixel Pitch', lateral bewegt werden. Dies ist
keine mit der Verschiebung des Bildempfängers in z-Richtung, also in achsparalleler Richtung,
gekoppelte Bewegung. Die laterale Bewegung wird allein mit dem Ziel durchgeführt, die laterale
Auflösung bei der Aufnahme der Objektoberflächen zu erhöhen.
Allgemein läßt sich feststellen, daß in der phasenauswertenden Streifenprojektionsmeßtechnik auf der
Grundlage der Triangulation stets die Öffnungsblende oder die Pupille des Beleuchtunggsobjektivs
von der Öffnungsblende oder Pupille des Abbildungsobjektivs räumlich getrennt ist. Die
Öffnungsblende mit einem Zentrum kann im Objektraum des körperlich vorhanden sein oder als Bild
der Öffnungsblende. Das Bild der Öffnungsblende wird als Pupille bezeichnet. Der Abstand d der
Blenden- oder Pupillenzentren im Raum des Objektes kann 5 mm, aber auch durchaus auch einen
Meter betragen.
Es sind Arrays mit vertikal abstrahlenden Laserdioden bekannt geworden, die als ein adressierbares,
strukturiert leuchtendes Array anzusehen sind. Die Elemente, hier die vertikal abstrahlenden
Laserdioden, sind einzeln elektronisch in ihrer Leuchtdichte, bzw. Helligkeit steuerbar.
Die Erfindung löst die Aufgabe der flächenhaften Prüfung der 3D-Gestalt technischer und natürlicher
Oberflächen von Objekten im Raum und Szenen mit einem absoluten Bezug zur
3D-Aufnahme-Anordnung. Die Gestalt von Objektoberflächen in einer Szene kann mit hoher
Meßgenauigkeit in der Tiefe und mit hoher Geschwindigkeit gemessen werden.
Weiterhin wird die benötigte Lichtleistung für die Ausleuchtung von Objektoberflächen in einer Szene
zum Teil stark reduziert, bzw. es kann die Bildaufnahmefrequenz bei hoher Lichtleistung erhöht
werden. Durch das Auswerteverfahren wird eine hohe Auflösung der effektiven Wellenlänge in der
Tiefe erreichbar.
Technisch wird die Prüfung der Oberflächengestalt von Werkstücken des Maschinenbaus, des
Fahrzeugbaus und auch der Luft- und Raumfahrt weiter verbessert. Damit ist die Applikation in der
automatisierten Produktion, in der Robotik, im Bauwesen, in der Medizin, beispielsweise bei der
geometrischen Vermessung von Menschen, biologischen Objekten und auch im künstlerischen
Bereich bei Plastiken oder Stuckwerken gegeben.
Weiterhin wird die Aufgabe der Hohlraum- und der Innenraum-Inspektion gelöst. Labyrinthe in
unterschiedlicher Größe und auch verstrahlte oder kontaminierte Innenräume, die dem Menschen
aufgrund von ernsthaften gesundheitlichen Gefahren oder aufgrund der geringen Abmessungen nicht
zugänglich sind, können durch Roboter begangen werden, die mit einer oder mehreren
3D-Aufnahme-Anordnungen ausgerüstet sind. Dabei kann es sich um rollende, schreitende,
saugende, schwimmende, fliegende, kriechende und krabbelnde Roboter handeln. Auch ist der
Unterwassereinsatz für die Schiffswrack-Inspektion mit der 3D-Aufnahme-Anordnung grundsätzlich
möglich.
Auch die elektronische Unterstützung von sehbehinderten Menschen zur Orientierung im Raum ist mit
einer miniaturisierten 3D-Aufnahme-Anordnung möglich.
Bei Recyclingprozessen ist eine Möglichkeit der automatisierten Demontage von Altgeräten, alten
Karosserien sowie die Trennung von Abfallprodukten auch in einer für den Menschen gefährlichen
Umgebung gegeben.
Das unterschiedliche Reflexionsvermögen von technischen Oberflächen, welches beispielsweise
durch eine ausgeprägte Textur verursacht wird, kann kompensiert werden.
Die Erfindung ermöglicht das schnelle und kontinuierliche Erfassen der Punktwolke von Objekten und
Szenen durch aktive Beleuchtung mittels strukturiertem Licht und die schnelle, praktisch gleichzeitige
Erfassung von selbstleuchtenden oder künstlich oder natürlich beleuchteten Objekten und Szenen
mittels einer einzigen 3D-Aufnahme-Anordnung. Die schnelle und kontinuierliche Erfassen der
Punktwolke von Objekten und Szenen kann bei Verwendung geeigneter Hardware und Software im
Videotakt erfolgen.
Die Erfindung ermöglicht die schnelle Erfassung und Prüfung der 3D-Gestalt von Körpern in Szenen
mit großer Tiefenausdehnung in Bezug zu deren Ausdehnung, vorzugsweise mit Abmessungen im
Bereich oberhalb eines Millimeters.
Die Beleuchtung des Objektes erfolgt unter einem vergleichsweise geringen Triangulationswinkel,
beispielsweise um 10° oder kleiner. Die bei der Erfassung räumlicher Strukturen störenden
Lichtschatten aufgrund eines relativ großen Triangulationswinkels von 30° bis beispielsweise 60°
werden so weitgehend vermieden. Der in seiner 3D-Form zu erfassende Körper oder die gesamte
Szene stehen vorzugsweise senkrecht zur optischen Achse des Aufnahmeobjektivs. Das ermöglicht,
aufgrund der optimalen Abbildungsbedingungen eine hohe laterale Auflösung und den Einsatz
tomographischer oder tiefenscannender Verfahren. Die 3D-Punktwolke besitzt einen absoluten
geometrischen Bezug zu einem Nullpunkt der 3D-Aufnahme-Anordnung.
Außerdem können nichttechnische Objekte in ihrer räumlichen Struktur erfaßt werden, wobei der
Raum, in welchem sich die Objekte befinden, in unterschiedlichen Tiefen zeitlich nacheinander
strukturiert beleuchtet wird. Bei entsprechend hoher Dynamik der für die 3D-Aufnahme eingesetzten
Komponenten können auch sich bewegende Objekte und Szenen, einschließlich Personen und Tiere,
aufgenommen werden. Dabei sind grundsätzlich mehrere 3D-Aufnahme-Anordnungen gleichzeitig
einsetzbar, und es kann die Farbe der Objektpunkte bei Verwendung von farbtüchtigen
Bildaufnehmern verarbeitet werden. Eine weitere Verbesserung stellt die deutliche Erhöhung der
Auswertegeschwindigkeit bei der 3D-Erfassung dar. Es besteht die technische Möglichkeit, die
3D-Punktwolke des Objektes oder der Szene im Video-Takt zur Verfügung zu stellen.
Die Anwendung der Erfindung ermöglicht die nahezu vollständige Ausnutzung der hohen
Leistungsfähigkeit optischer Abbildungsysteme für die Prüfung der 3D-Oberflächengestalt. Die
Realisierung einer hohen Beleuchtungsapertur sichert ein geringes Speckle-Rauschen in den Pixeln
der Kamera.
Andererseits können komplette Szenen mit bewegten Objekten echtzeitnah als 3D-Szenen
aufgenommen werden. Die Grenze für das erfaßbare Volumen stellt die verfügbare Lichtenergie, die
Lichtstärke der verwendeten Objektive sowie die photometrische Empfindlichkeit der verwendeten
Bildempfänger dar. Der in der Tiefe erfaßbare Raum kann bei geeigneter Beleuchtung durchaus bis zu
20 m betragen. Die Begrenzung erfolgt letztlich durch das Signal-Rausch-Verhältnis im
Lichtempfänger bzw. im Bildempfänger.
Durch die zusätzliche Erfassung von selbstleuchtenden Objekten und Szenen, beispielsweise im
Hintergrund eines künstlich beleuchteten Objektes, können Objektoberflächen in einer Szene von
einem Nahpunkt bis zur Unendlich-Position in einem Aufnahmevorgang in Echtzeit und in Farbe
aufgenommen werden, wobei die 3D-Daten als Punktwolke berechnet werden können, so daß ein
3D-Datensatz zur Verfügung steht.
Es werden die Grundzüge des Verfahrens und der Anordnung beschrieben. Mittels einer
transmissiven oder reflektierenden, gerasterten Struktur mit mehreren Maxima und Minima der
Transmission oder Reflexion und einer Strahlungsquelle wird ein strukturiert leuchtendes Array mit
lokalen Extrema der Leuchtdichte erzeugt. Diese gerasterte Struktur wird im weiteren als strukturiert
leuchtendes Array bezeichnet. Dem strukturiert leuchtenden Array ist mindestens ein möglichst
hochgeöffnetes Beleuchtungsobjektiv mit einer positiven Brennweite zu dessen Abbildung
nachgeordnet. So entsteht durch die Abbildung des strukturiert leuchtenden Arrays im Objektraum auf
dessen Oberfläche eine strukturierte Beleuchtung.
Grundsätzlich kann das strukturiert leuchtende Array auch selbstleuchtend sein und lokale Extrema
der Leuchtdichte aufweisen.
Zu dem erfinderischem Zweck ist bei der Abbildung des strukturiert leuchtenden Arrays in die Tiefe
des Objektraumes eine möglichst geringe Ausdehnung des Schärfebereiches realisiert, so daß die
räumlich strukturierte Beleuchtung sich mehr in einem scheibenförmigen Volumen befindet. Zum
Beleuchtungsobjektiv ist mindestens ein Objektiv zur Abbildung des Objektes oder der Szenen, das
Abbildungsobjektiv angeordnet. Beleuchtungs- und Abbildungsobjektiv sind vorzugsweise von gleicher
Bauart und weisen somit auch die gleiche Brennweite auf. Auch fallen die Brennebenen der beiden
Objektive im Objektraum vorzugsweise zusammen und die beiden Objektive sind vorzugsweise in
geringem Abstand voneinander angeordnet mit vorzugsweise parallelen Achsen. Gegebenfalls
können die Linsen sogar in einem gemeinsamen Gehäuse untergebracht sein.
Die Objektive weisen vorteilhafterweise ein großes Bildfeld auf. Das Objektiv sollte jeweils in einem
großen Tiefenbereich gut korrigiert sein. Durch die Koinzidenz der Brennebenen im Objektraum
können die Objektive stets auf die gleiche Objekt- und Bildebene eingestellt werden und bilden dann
durch den geringen Abstand der Objektivachsen in einem Bereich, vorzugsweise mit einem Abstand
deutlich unterhalb des einhundertfachen Pupillendurchmessers des Beleuchtungsobjektivs - typisch ist
der dreifache bis zehnfache Pupillendurchmesser - zumindest einen identischen Teil des Objektfeldes
im Objektraum, in der Regel verkleinernd, in den Array-Raum ab. In diesem Raum bestehen getrennte
Bildfelder, jedoch in einer vorzugsweise gemeinsamen Ebene, die vorzugsweise senkrecht auf der
optischen Achse steht. Die Schärfeflächen der beiden Objektive im Objektraum fallen vorzugsweise in
einem möglichst großen Bereich zusammen.
Das Abbildungsobjektiv weist im Array-Raum einen vorzugsweise telezentrischen Strahlengang im
strengen Sinne auf, d. h. die Austrittspupille liegt sehr weit vom Objektiv entfernt, beispielsweise um
100 m. Dagegen fallen objektseitig der Brennpunkt und das Zentrum der Eintrittspupille zusammen.
Das Beleuchtungsobjektiv weist im Array-Raum vorzugsweise einen ebenfalls gut korrigierten
telezentrischen Strahlengang auf. Es ist jedoch auch grundsätzlich möglich, daß dieses
Beleuchtungsobjektiv im Array-Raum einen parallelen Strahlengang mit einer dezentrierten
Eintrittspupille aufweist.
In der Bildebene des Abbildungsobjektivs ist ein weiteres Array, das Empfänger-Array angeordnet.
Auch dieses Array befindet sich vorzugsweise in einem telezentrischen Strahlengang. Dieses
Empfänger-Array kann ein gerasterter Bildempfänger, beispielsweise eine Empfänger-Matrix oder
aber auch ein mikrooptisches Array sein. Das mikrooptische Array in der Bildebene des
Beleuchtungsobjektivs ist vorzugsweise ein Mikrolinsen-Array aus diffraktiven oder refraktiven
Elementen.
Die Telezentrie des Abbildungsobjektiv im Array-Raum sichert, daß beim Bewegen des
Empfänger-Arrays parallel zur Achse des Abbildungsobjektivs, also in der üblichen Notation in
z-Richtung - hier die zA-Richtung, die Abbildungsstrahlen eine feste Position zu den Elementen des
Empfänger-Arrays beibehalten, also die Abbildungsstrahlen nicht lateral auswandern. Im Objektraum
weisen das Beleuchtungs- und das Abbildungsobjektiv dagegen einen vorzugsweise
zentralperspektivischen Strahlengang auf, um einen großen Raumbereich erfassen zu können.
Im Fall der Verwendung eines Mikrolinsen-Arrays im Abbildungsstrahlengang als Empfänger-Array
sind dem Mikrolinsen-Array weitere Komponenten, beispielsweise ein Bildempfänger, nachgeordnet.
Durch das gemeinsame Bewegen des strukturiert leuchtenden Arrays und des Empfänger-Arrays
mittels eines Bewegungs-Systems, parallel zur optischen Achsen des Beleuchtungsobjektivs, also in
der zA-Richtung, werden nach und nach alle Bereiche des Objektes oder der Szene in der Tiefe in der
jeweiligen Schärfefläche beleuchtet und abgebildet. Dabei ist das Bewegungssystem vorzugsweise
als translatorisch arbeitendes Bewegungssystem ausgeführt. Es entsteht eine strukturierte
Beleuchtung in jeweils genau der Ebene des Objektes oder der Szene durch die Abbildung des
strukturiert leuchtenden Arrays, welche durch das Abbildungsobjektiv scharf auf das Empfänger-Array
abgebildet wird. Durch die Anpassung der Leuchtdichte der Strahlungsquelle an die jeweilige
Entfernung der Schärfefläche von der 3D-Aufnahme-Anordnung wird die bekannte Abnahme der
Beleuchtungsstärke auf der Objektoberfläche in Abhängigkeit von deren Entfernung ausgeglichen.
Dabei wird das folgende Bewegungsregime für das strukturiert leuchtende Array und das
Empfänger-Array realisiert: Die Beträge der Bewegung der beiden Arrays parallel zur optischen Achse
des Beleuchtungs- und des Abbildungsobjektivs, die zA-Richtung, sind bei einem Beleuchtungs- und
Abbildungsobjektiv mit gleicher Brennweite gleich.
Das strukturiert leuchtende Array führt mittels einer Linearführung zusätzlich und vorzugsweise
zeitgleich zur Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs eine laterale
Bewegung aus, also senkrecht zur optischen Achse des Beleuchtungsobjektivs.
Bei einem elektronisch steuerbaren strukturiert leuchtenden Array erfolgt die laterale Verschiebung
der Elemente gleicher Leuchtdichte, bzw. die Verschiebung der Orte der lokalen Extrema der
Leuchtdichte vorzugsweise zeitgleich zu der Bewegung parallel zur optischen Achse des
Beleuchtungsobjektivs durch eine elektronische Steuerung der Transmission, der Reflexion - oder der
Leuchtdichte bei einem selbstleuchtenden Array - jeweils in den Elementen des Arrays. Auf dem
elektronisch steuerbaren Array, welches ein elektronisch steuerbares Liniengitter darstellen kann,
werden die lokalen Extrema der Leuchtdichte durch lokale Extrema der Transmission, der Reflexion -
oder durch eine direkte Steuerung der Leuchtdichteverteilung bei einem selbstleuchtenden Array -
erzeugt.
Für die Gitterelemente oder die Elemente gleicher Leuchtdichte, bzw. die Orte der lokalen Extrema
der Leuchtdichte des strukturiert leuchtenden Arrays, bzw. auch der Orte gleicher Phase der
Leuchtdichtverteilung wird so eine lineare Bewegung erzeugt, die parallel zu einer Geraden gA
ausgerichtet ist. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des
Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg, definiert als Quotient aus
Brennweite des Beleuchtungsobjektivs im Array-Raum und Abstand des Brennpunktes des
Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs, aufweist, wobei dieser
Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs
bezogen ist, die beispielsweise in dessen Brennebene im Array-Raum liegt.
Im Fall der parallelen Lage der beiden Achsen von Beleuchtungs- und Abbildungsobjektiv entspricht
der Abstand der beiden Achsen von Beleuchtungs- und Abbildungsobjektiv dem Abstand des
Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs.
Die Gerade gA schneidet - bei einer gegebenen Anordnung mit zwei parallelen Achsen von
Beleuchtungs- und Abbildungsobjektiv und zusammenfallenden Brenn- und Hauptebenen der beiden
Objektive - stets sowohl den Brennpunkt des Beleuchtungsobjektivs auf der Seite des strukturiert
leuchtenden Arrays als auch auf der gleichen Seite des Arrays den Hauptpunkt des
Abbildungsobjektivs. Punkte entlang dieser Geraden werden in diesem Fall auf eine zur Objektivachse
des Beleuchtungsobjektivs parallele Gerade gO abgebildet.
Die Bilder der zur Geraden gA parallelen Geraden, welche die Orte der Elemente des strukturiert
leuchtenden Arrays enthalten, bilden im Objektraum mit der Geraden gO ein Geradenbündel, wobei
der Schnittpunkt aller Geraden dieses Bündels bei der beschriebenen Anordnung stets im Brennpunkt
des Abbildungsobjektivs im Objektraum liegen soll. Gleichzeitig schneiden alle Abbildungsstrahlen des
Abbildungsobjektivs bei Telezentrie im Array-Raum ebenfalls den Brennpunkt des Abbildungsobjektiv
im Objektraum und bilden so ein Strahlenbündel. Die Geraden des Geradenbündels und die Strahlen
des Strahlenbündels koinzidieren. So detektieren, bei einer achssenkrechten Objektoberfläche im
Array-Raum und einer Bewegung des strukturiert leuchtenden Arrays in Richtung der Geraden gA die
zu den jeweiligen Abbildungsstrahlen gehörenden Bildpunkte auf dem Empfänger-Array jeweils den
gleichen Betrag der Phasenverschiebung. Diese Phasenverschiebung entspricht der Verschiebung
von leuchtenden Flächenelementen des strukturiert leuchtenden Arrays oder der Verschiebung der
Leuchtdichteverteilung auf dem strukturiert leuchtenden Array. Ein paralleles Verschieben dieser
Objektoberfläche führt zum gleichen Betrag der Phasenverschiebung in den Signalen, die in allen
Bildpunkten detektiert werden können. Dies bedeutet, daß die Tiefenempfindlichkeit der
beschriebenen 3D-Aufnahme-Anordnung in einer achssenkrechten Ebene im Objektraum eine
Konstante ist, also keine laterale Abhängigkeit aufweist. Die Tiefenempfindlichkeit kann durch die
effektive Wellenlänge der 3D-Aufnahme-Anordnung beschrieben werden. Die effektive Wellenlänge
wird hier als der Betrag der Verschiebung Δz2 π eines Objektpunktes auf einem Abbildungsstrahl
definiert, bei dem sich die Phase genau um 2π im selben Abbildungsstrahl verändert hat, mit zOB als
der zur Achse des Beleuchtungsobjektivs parallelen Koordinate im Objektraum.
Auf der Grundlage der in einer achssenkrechten Ebene konstanten Tiefenempfindlichkeit wird die
Weiterverarbeitung von errechneten Phasenwerten zur 3D-Punktwolke stark vereinfacht. In diesem
Fall können die Berechnungen besonders schnell erfolgen. Es können straight forward-Algorithmen
zur Anwendung kommen.
Eine Anordnung mit zwei starr angeordneten Objektiven ist technisch mit großer Genauigkeit
bezüglich der Parallelität der Achsen und der Lage der Brennebenen realisierbar und auch
vergleichsweise wirtschaftlich herstellbar und wird deshalb zunächst vorzugsweise dargestellt.
Die 3D-Aufnahme-Anordnung kann jedoch auch wie folgt aufgebaut sein: Dem strukturiert
leuchtenden Array ist ein Beleuchtungsobjektiv zum Zweck der Abbildung zugeordnet, wobei das
strukturiert leuchtende Array schiefwinklig zur Achse des Beleuchtungsobjektivs bewegbar ist. Die
geradlinige Bewegungsrichtung des strukturiert leuchtenden Arrays definiert die Lage einer Geraden
gA und ist zur Lage der Achse des Beleuchtungsobjektivs konstruktiv unveränderlich gemacht. Die
Anordnung ist so aufgebaut, daß die Gerade gA möglichst genau den Brennpunkt im Raum des Arrays
sowie die Hauptebene des Beleuchtungsobjektivs in einer endlichen Entfernung von dessen optischer
Achse schneidet, nämlich dort, wo die Achse des Abbildungsobjektivs liegen soll. Die reale oder
gedankliche Abbildung der Geraden gA durch das Beleuchtungsobjektiv in den Objektraum erzeugt die
zur Achse des Beleuchtungsobjektivs parallele Gerade gO. Diese Geraden gO durchstößt die
Brennebene des Beleuchtungsobjektivs im Objektraum. Der objektseitige Brennpunkt des
Abbildungsobjektivs ist in den Durchstoßpunkt der Geraden gO durch die Brennebene des
Beleuchtungsobjektivs möglichst genau einjustiert, wobei die Achse des Abbildungsobjektivs
vorzugsweise parallel zur Achse des Beleuchtungsobjektivs ausgerichtet ist, so daß die Achse des
Abbildungsobjektivs mit der Lage der Geraden gO zusammenfällt. Die Gerade gA weist so, mehr oder
weniger gut angenähert, den Anstieg mit dem Betrag aus dem Quotienten Brennweite des
Beleuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von
der Achse des Beleuchtungsobjektivs auf, wobei dieser Anstieg auf eine senkrechte Gerade zur
Achse des Beleuchtungsobjektivs bezogen ist.
Das Bewegungsregime für die 3D-Aufnahme-Anordnung ist zum einen durch ein System mit zwei
Linearführungen realisierbar, deren Achsen vorzugsweise senkrecht zueinander ausgerichtet sind. Die
bewegten Komponenten dieser Linearführungen, auch als Schlitten bezeichnet, sind unabhängig
voneinander in den Linearbewegungen steuerbar. Eine Miniaturisierung dieser Komponenten ist
möglich. Es können lineare Direktantriebe verwendet werden, beispielsweise elektrodynamische
Tauchspulsysteme oder Linearmotore. Die Bewegungsrichtung der bewegten Komponente der ersten
Linearführung ist parallel zur Richtung der optischen Achse, der zA-Koordinate, die der
Bewegungskomponente der zweiten Linearführung in einer dazu achssenkrechten Richtung, der xA
-Richtung. Diese beiden Linearführungen erzeugen so die Bewegung der Elemente des strukturiert
leuchtenden Arrays parallel zur Geraden gA. Dabei ist das Empfänger-Array der ersten Linearführung
zugeordnet, die in Richtung der optischen Achse arbeitet. Der Schlitten der ersten Linearführung trägt
also das Empfänger-Array und vorzugsweise die zweite Linearführung und der Schlitten dieser
zweiten Linearführung das strukturiert leuchtende Array.
Andererseits kann auch eine einzige Linearführung mit einem Schlitten, der gleichzeitig auf diesem
Schlitten das strukturiert leuchtende Array und das Empfänger-Array trägt, eingesetzt werden. Die
Bewegungsrichtung dieses Schlittens ist parallel zur Geraden gA - also nicht achssenkrecht, sondern
schiefwinklig zu den Objektivachsen. Im letztgenannten Fall gibt es jedoch, entsprechend der
Schlittenbewegung, auf dem Empfänger-Array eine Verschiebung des Bildes zu den Pixeln des
Empfänger-Arrays. Diese Verschiebung kann im Bildauswerte-Algorithmus pixelweise
zurückgerechnet werden. Eine hohe Rechengeschwindigkeit ist dann erreichbar, wenn die
Schlittenbewegung und die Aufnahme von Bildern synchronisiert sind und Bilder in Abhängigkeit von
der Schlittenposition nur dann aufgenommen werden, wenn die aufgetretene Verschiebung des Bildes
auf dem Empfänger-Arrays jeweils mindestens ein ganzes Pixel oder ein davon ganzzahliges
Vielfaches beträgt. Die Ablage der Bilddaten im Datensatz erfolgt stets unter Berücksichtigung der
aufgetretenen Bildverschiebung, so daß im Ergebnis eine Kompensation der Verschiebung des Bildes
mit Hilfe numerischer Methoden erfolgt ist. So wird beispielsweise ein bestimmter realer
Abbildungsstrahl im Objektraum durch die Zuordnung der abgelegten Daten im Bilddaten-Satz
verfolgt, der aus mehreren Schichten, beziehungsweise Datenfeldern besteht. Jede Schicht entspricht
dabei einem aufgenommenen Bild. So bleibt ein realer Abbildungsstrahl, der von einem bestimmten
Element des strukturiert leuchtenden Arrays ausgeht, im gesamten Bewegungsvorgang der beiden
Arrays stets einem Element mit gleichen Indizes, also gleicher Position, in jeder Schicht oder jedem
Datenfeld des gesamten Bilddatensatzes zugeordnet.
Damit sich bei dem Verfahren mit nur einer Linearführung die effektiv erfaßte Objektbreite durch die
laterale Verschiebung des Empfänger-Arrays nicht verringert, wird in Abhängigkeit von der
Verschiebungslänge ein längeres Empfänger-Array eingesetzt. Die zusätzlich benötigte Länge des
Empfänger-Arrays ist allein von der Anzahl der aufgenommenen Bilder pro Bewegungsvorgang des
Schlittens, auch als Scan bezeichnet, abhängig.
Bei einem Bewegungs-System mit zwei Linearführungen wird wie folgt vorgegangen: Die laterale und
lineare Bewegung des strukturiert leuchtenden Arrays erfolgt mittels des Schlittens der zweiten
Linearführung und beginnt vorzugsweise an einem hochstabilen Nullpunkt. Das strukturiert leuchtende
Array kann ein beleuchtetes Liniengitter darstellen, dessen Translation durch ein hochgenaues
Längenmeßsystem erfaßt werden kann. Vorzugsweise wird die Gitterbewegung jedoch hochgenau
mittels eines zweiten Liniengitters phasenmäßig erfaßt, so daß die auf den Nullpunkt bezogene
absolute Gitterphase auch in Bruchteilen von 2π bekannt ist. Hochauflösende Interpolationstechniken
sind aus der inkrementalen Längenmeßtechnik bekannt. Damit kann die Gitterphase selbst die
Referenz für das Abtasten der von der Objektoberfläche aus dem Objektraum aufgenommenen
optischen Signale darstellen. So kann die Phase dieser Signale hochgenau bestimmt werden. Das ist
sehr wesentlich, da in der Phase der optischen Signale in Verbindung mit den Geometrie-Parametern
der Anordnung die Information über die jeweilige Objektposition enthalten ist.
Die Fläche des Empfänger-Arrays befindet sich bei Objektiven gleicher Bauart vorzugsweise in der
gleichen Ebene wie die Fläche des strukturiert leuchtenden Arrays. Außerdem führt das strukturiert
leuchtende Array, hier das beleuchtete Liniengitter, durch das Bewegungssystem oder bei einem
elektronisch steuerbaren Array die lokalen Extrema der Leuchtdichte führen zusätzlich zur Bewegung
in der Tiefe eine laterale Bewegung aus, so daß als resultierende Bewegung des Liniengitters oder
der lokalen Extrema der Leuchtdichte eine lineare Bewegung parallel zu der bereits genannten
Geraden gA erfolgt. Durch diese Bewegung ändert sich die Phase eines Signals, welches im Bildpunkt
eines Objektpunktes beobachtet werden kann.
Andererseits wird durch dieses Bewegungsregime, die Geometrie der Anordnung und die Telezentrie
der Objektive im Array-Raum erreicht, daß ein Beleuchtungsstrahl eines leuchtenden Elementes einer
bestimmten Phase und ein Abbildungsstrahl, die sich in einer beliebigen Schärfefläche schneiden, sich
in allen Schärfeflächen schneiden. So ist auch gegeben, daß beim Bewegen der beiden Arrays die
Bilder der leuchtenden Elemente gleicher Phase und die der empfangenden Elemente der beiden
Arrays bei einer idealen Anordnung im gesamten Objektraum stets zusammenfallen. Dabei sind
Objektive mit geringer Verzeichnung und sehr geringen Fehlern und eine möglichst geringe
Brennweitendifferenz der beiden Objektive und eine möglichst präzise Justierung grundsätzlich von
Vorteil und reduzieren den numerischen Korrekturaufwand erheblich. Die Abweichungen vom
Idealzustand können innerhalb gewisser Grenzen toleriert werden.
Durch die Bewegung des Liniengitters parallel zur Geraden gA und die "feste Kopplung der
Schärfeflächen" der beiden Objektive im Objektraum zu einer gemeinsamen Schärfefläche erfolgt das
"Mitführen der Phase im Abbildungsstrahl". Dies bedeutet, die Phase bleibt in jedem Abbildungsstrahl
konstant, der von einem in der gemeinsamen Schärfefläche mitbewegten Punkt der Objektoberfläche
in das Abbildungsobjektiv gelangt, auch wenn sich die Lage dieser Schärfefläche in der Tiefe des
Array-Raums ändert. Ein gedachter, im Abbildungsstrahl in der Schärfefläche stetig mitlaufender
Objektpunkt würde demzufolge beim Bewegen des Liniengitters keine Phasenänderung im
detektierbaren Signal erfahren, da beispielsweise immer der gleiche Ausschnitt des Streifens im zum
Abbildungsstrahl zugehörigen Bildpunkt detektiert wird.
Dagegen ist im Bildpunkt eines feststehenden Objektpunktes beim Bewegen des beleuchteten
Liniengitters stets ein periodisches Signal zu beobachten. In diesem periodischen Signal selbst und
durch seine Lage in Bezug auf die Phase des beleuchteten Liniengitters ist die Information über die
aktuelle zOB-Position dieses Objektpunktes im Objektraum eindeutig enthalten.
Das Ziel besteht darin, durch das Variieren der Lage der Schärfeflächen in der Tiefe bis zu jedem
Objektpunkt und einen kleinen Betrag darüber hinaus, um das Signal auch im Umfeld des
Objektpunktes erfassen zu können, die Objektphase jeder zu einem Objektpunkt zugehörigen
achssenkrechten Ebene zu bestimmen. Dies wird durch die Detektion eines modulierten periodischen
Signals mit einem Modulationsmaximum in jedem abgebildeten Objektpunkt, also im zugehörigen
Bildpunkt, erreicht. Das periodische Signal entsteht beim Durchgang der beiden koinzidierenden
Schärfeflächen durch die Ebene des jeweiligen Objektpunktes und das Modulationsmaximum
entspricht der Lage der koinzidierenden Schärfeflächen. Eine gewisse Abweichung von der
Koinzidenz der Schärfeflächen führt zu einer effektiven Schärfefläche und ist innerhalb gewisser
Grenzen tolerierbar. Es tritt eine Verringerung des Modulationsmaximums im detektierten Signal auf.
Es ist möglich, die Kopplung der Schärfeflächen der beiden Objektive im Objektraum so auszuführen,
daß sich ein bestimmter Phasenwert in Bezug auf das Modulationsmaximum im beobachteten Signal
durch das laterale Feinjustieren des strukturiert leuchtenden Arrays, bzw. des beleuchteten
Liniengitters, ergibt.
Das periodische Signal wird in den Bildpunkten vorzugsweise in Schritten konstanter Phasenänderung
abgetastet. Schritte konstanter Phasenänderung entstehen im Objektraum durch konstante Schritte
eines bewegten Liniengitters, welches ein beleuchtetes Liniengitter mit konstanter Gitterperiode
darstellt, im Array-Raum. Unter Array-Raum wird immer der Raum verstanden, wo sich das
Empfänger-Array und das strukturiert leuchtende Array, hier das beleuchtete Liniengitter, befinden.
Es wird davon ausgegangen, daß die zOB-Position als Abstand von der Brennebene des
Beleuchtungsobjektivs im Raum des Objekts jeder achssenkrechten Ebene im Objektraum durch eine
lateral invariante, absolute Objektphase ϕObj beschrieben werden kann, so daß es achssenkrechte
Ebenen konstanter Phase im Objektraum gibt.
Die lateral invariante, absolute Objektphase ϕObj in einem Punkt des Objektes ist nur von der Position
ZObj desselben und der Geometrie der optischen Anordnung abhängig und besitzt deshalb bei idealen
Abbildungsverhältnissen und Justierungen grundsätzlich keine laterale Abhängigkeit. Im weiteren wird
in der Regel von der Objektphase ϕObj gesprochen. Die Geometrie der optischen Anordnung ist durch
die Brennweite fB des Beleuchtungsobjektivs, den Abstand d der beiden zueinander parallelen
Objektivachsen und die Gitterkonstante p des strukturiert leuchtenden Arrays, hier ein Liniengitter,
beschrieben. Die Gerade gO, das Bild der Geraden gA, fällt mit der Achse des Abbildungsobjektivs
zusammen, so daß die Größe d auch den Abstand der Geraden gO von der Achse des
Beleuchtungsobjektivs beschreibt.
Es wird von folgendem Geometrie-Modell ausgegangen: Die lateral invariante, absolute Objektphase
ϕObj für eine achssenkrechte Ebene mit dem Abstand zOB entspricht immer der Anzahl der
Streifenordnungen zuzüglich der beiden Streifenbruchteile, die auf der Strecke zwischen einem Punkt
dieser Ebene auf der optischen Achse des Abbildungsobjektivs und einem Punkt dieser Ebene auf der
Geraden gO liegen.
Im Unendlichen ist deshalb die Objektphase wegen der unendlichen Streifenbreite null und in der
Brennebene des Objektraumes nähert sich die Objektphase aufgrund des Streifenabstandes null dem
Unendlichen an. Die Objektphase ϕObj weist bei der gewählten Notation in der Regel negative Werte
auf. Für (-)zOB = fB wird die Objektphase ϕObj = ϕfB und es gilt
mit d als dem Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise
hier auch dem Abstand der parallelen Achsen der beiden Objektive voneinander und mit p als der
Gitterkonstanten des beleuchteten Liniengitters, welches als strukturiert leuchtendes Array verwendet
wird.
Mit einer ebenen und achssenkrechten Referenzplatte kann im Objektraum die Objektphase als die
Anzahl der Streifenordnungen zwischen der Geraden gO und der Achse des Beleuchtungsobjektivs,
beziehungsweise hier zwischen den beiden optischen Achsen, durch Auszählen von Streifen oder
genauer mittels bekannter Phasenschiebetechnik ermittelt werden. Das Problem stellt hier zunächst
die Kenntnis der genauen Lage der beiden optischen Achsen in der Anordnung dar. Die hochgenaue
Bestimmung der Streifenanzahl zwischen den optischen Achsen kann beim parallelen Verschieben
der Referenzplatte in mehreren Schritten - sowohl als Justierkriterium für die Kontrolle der
Abweichung von der Parallelität der optischen Achsen der beiden Objektive als auch der
achssenkrechten Lage der Referenzplatte - genutzt werden. Bei einer eingemessenen Anordnung mit
bekannter Lage der optischen Achsen bzgl. des Sender- und Empfänger-Arrays kann die
Referenzphase so auf experimentellem Weg bestimmt werden.
Um entlang eines Abbildungsstrahls die zOB-Koordinate eines Objektpunktes zObj zu erhalten, ist in
jedem Objektpunkt die lateral invariante, absolute Objektphase ϕObj zu bestimmen, die im weiteren als
Objektphase bezeichnet wird. Ein Abbildungsstrahl soll hier im Modell jeweils genau auf ein Pixel der
lateral feststehenden Empfängerfläche treffen.
Die Objektphase ϕObj eines Objektpunktes wird in Bezug auf eine Referenzfläche bestimmt. Die
absolute, lateral invariante Phase der Referenzfläche, die Referenzphase ϕR, wird aus einem als
bekannt angenommenen, vorzeichenbehafteten Abstand zOB = ZOR der Referenzfläche mit
errechnet, wobei d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs,
beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die
Brennweite des Beleuchtungsobjektivs und p die Gitterkonstante des strukturiert leuchtenden Arrays,
beziehungsweise des beleuchteten Gitters, darstellen. Da zOR in die negative Achsrichtung gezählt
wird, ergibt sich auch ein negativer Wert für die Referenzphase ϕR. Der Abstand zOR der
Referenzfläche wird möglichst genau experimentell ermittelt. In der Regel treffen alle zur Erfassung
der Objektoberflächen in der Szene genutzten Abbildungsstrahlen auch auf die Referenzplatte.
Der Grundgedanke besteht darin, in jedem Abbildungsstrahl aus der Auswertung des im zugehörigen
Bildpunkt eines Referenzpunktes der Referenzplatte über der Phase des Gitters ϕGitter zu
beobachtenden modulierten, periodischen Signals und des in einem Bildpunkt eines Objektpunkt über
der Phase des Gitters zu beobachtenden modulierten, periodischen Signals die absolute
Phasendifferenz ΔϕGitter dieser beiden Signallagen aus der Phase des Gitters zu bestimmen. Dabei
wird davon ausgegangen, daß die periodischen Signale eine Modulation mit einem
Modulationsmaximum aufweisen. Die Breite dieser Modulationskurve über der Phase des Liniengitters
ϕGitter oder dem zugeordneten Verschiebeweg des Liniengitters ist abhängig vom Achsabstand d der
beiden Objektivachsen, den Brennweiten der beiden Objektive und der relativen Öffnung der beiden
Objektive, beschrieben jeweils durch die Blendenzahl k der beiden Objektive, und den Eigenschaften
der Oberfläche hinsichtlich der Lichtstreuung.
Die Bestimmung der absoluten Phasendifferenz ΔϕGitter kann so erfolgen, daß der in einem
Objektpunkt über der Phase des Gitters zu beobachtende Signalverlauf über der Phase, die aus dem
Verschiebeweg des Gitters abgeleitet ist, um genau den Phasenbetrag soweit verschoben wird, daß
sich dieser Signalverlauf mit dem im zugehörigen Referenzpunkt der Referenzplatte zu
beobachtenden Signalverlauf möglichst genau deckt, d. h. die Korrelation dieser beiden Signalverläufe
möglichst hoch ist. Dieser so ermittelte Phasenbetrag entspricht dann der absoluten Phasendifferenz
ΔϕGitter als die Differenz der jeweils zu den beiden Signalverläufen zugehörigen absoluten Phase des
Liniengitters ΔϕGitter.
Dazu wird erstens aus einer Abtastung des Signals über der Phase im Bildpunkt eines
Referenzpunktes der relative Referenzphasenwert ϕRR mod 2π bestimmt. Zweitens wird aus einer
Abtastung des Signals über der Phase im Bildpunkt eines jeden Objektpunktes der relative
Objektphasenwert ϕRObj mod 2π bestimmt. Der relative Referenzphasenwert ϕRR und der relative
Objektphasenwert ϕRObj werden dabei jeweils der absoluten Phase des Liniengitters ϕGitter zugeordnet
und unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert. So entstehen die absoluten
Phasenwerte der Gitterphase ϕGitterR für einen Referenzpunkt und ϕGitterObj für einen Objektpunkt. Mit
der Differenz
ΔϕGitter = ϕGitterObj - ϕGitterR (3)
wird die absolute Phasendifferenz ΔϕGitter bestimmt, die einen positiven Wert aufweist, wenn der
erfaßte Objektpunkt weiter von der Brennebene als der zugehörige Referenzpunkt entfernt ist. Durch
die vorzeichenbehaftete Addition der absoluten Phasendifferenz ΔϕGitter zur experimentell oder
konstruktiv abgeleiteten Referenzphase ϕR wird die absolute Objektphase ϕObj dann mit
ΔϕObj = (-)ϕR + ΔϕGitter (4)
bestimmt. Da das Vorzeichen der Phase der Referenzfläche ϕR negativ ist und die Phasendifferenz
ΔϕGitter im Betrag stets kleiner ist als Phase der Referenzfläche ϕR, ergibt sich für die absolute
Objektphase ϕObj ein negativer Wert. Die Koordinate eines Objektpunktes zOB = zObj kann dann mit
der Gleichung
bestimmt werden, die für eine negative absolute Objektphase ebenfalls einen negativen Wert liefert.
Dabei stellen d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs,
beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die
Brennweite des Beleuchtungsobjektivs, ϕObj die absolute, lateral invariante Objektphase und p die
Gitterkonstante des beleuchteten Liniengitters dar.
Als Nullebene der 3D-Aufnahme-Anordnung wird die achssenkrechte Ebene für zOB = 0, die
Brennebene des Beleuchtungsobjektiv im Objektraum, gewählt. Demzufolge stellt der Brennpunkt FOB
des Beleuchtungsobjektivs im Objektraum den Nullpunkt der 3D-Aufnahme-Anordnung dar.
Der möglichst genauen Bestimmung der absoluten Phasendifferenz ΔϕGitter in der Phase des
beleuchteten Liniengitters ΔϕGitter kommt für das Verfahren eine besonders große Bedeutung zu.
Eine weitere Möglichkeit besteht darin, nicht die relativen Phasenwerte im Referenzpunkt-Signal und
im Objektpunkt-Signal, sondern die Lage der Orte gleicher Phase im Referenzpunkt-Signal und im
Objektpunkt-Signal in Bezug auf die Phase des Liniengitters ϕGitter zu bestimmen, beispielsweise
anhand der Orte gleicher Phasenlagen.
Grundsätzlich kann auch über ein Längenmeßsystem, welches die Bewegung oder Verschiebung des
Liniengitters hochaufgelöst mißt, die Ortsdifferenz der Lagen des Referenzpunkt-Signals und des
Objektpunkt-Signals bestimmt werden. Aus der bekannten Gitterkonstante p des Liniengitters kann
aus der gemessenen Ortsdifferenz die zugehörige Phasendifferenz ΔϕGitter in bekannter Weise
errechnet werden. Dies ist anzuwenden, wenn nur eine einzige Linearführung mit einem
Nullpunktgeber verwendet wird, da die phasenmäßige Abtastung des Liniengitters aufgrund des
Bewegens desselben mit einer dann auch auftretenden Bewegungskomponente in Richtung der
optischen Achse mit einem Gegengitter technisch besonders schwierig ist.
Mit der vorzugsweise hochebenen Referenzplatte muß die 3D-Aufnahme-Anordnung in mindestens
einer achssenkrechten Positionen eingemessen werden. Aus dem experimentell bestimmten Wert
zORexp für die Lage der Referenzplattewird der Wert der Referenzphase ϕR mittels der angegebenen
Gleichung (2) errechnet. Die gemessene Verschiebung in zOB-Richtung wird mit dem der durch die
3D-Aufnahme-Anordnung ermittelten zOR-Wert verglichen. So kann die 3D-Aufnahme-Anordnung
kontrolliert werden. Bei Abweichungen von der hochgenau gemessenen Verschiebung von der
rechnerisch bestimmten liegt für eine in sich gut einjustierte 3D-Aufnahme-Anordnung ein falscher
Wert für die Referenzphase ϕR vor. Numerisch wird die Referenzphase verändert bis sich eine
möglichst gute Übereinstimmung mit den experimentell bestimmten Verschiebewerten ergibt.
Zusammengefaßt gilt: Für die Bestimmung der Objektphase ϕObj im Objektraum wird
vorteilhafterweise folgende Bedingung im Gesamt-Abbildungssystem realisiert, die sich aus der
parallelen Bewegung des Liniengitters - oder ganz allgemein formuliert aus der parallelen Bewegung
der Maxima und Minima der Leuchtdichte auf dem strukturiert leuchtenden Array - zur Geraden gA
ergibt: Beim Durchlaufen der beiden koinzidierenden Schärfeflächen von Beleuchtungs- und
Abbildungsobjektiv durch die Tiefe des Raumes des Objektes bleibt die beobachtete Phase im
Schnittpunkt eines Strahls des Abbildungsobjektivs mit der gemeinsamen Schärfefläche durch die
zusätzliche laterale Bewegung des Liniengitters stets konstant, so daß ein gedachter, in einem Strahl
des Abbildungsobjektivs in der gemeinsamen Schärfefläche mitlaufender Objektpunkt in der gesamten
Tiefe keine Phasenänderung erfährt. Dies wird als "Mitführung der Phase" bezeichnet. Dabei kann die
zusätzliche laterale Bewegung des Liniengitters durch eine zweite Linearführung erfolgen oder sich
aus der Schrägstellung einer gemeinsamen Linearführung für Sender- und Empfänger-Array ergeben.
Andererseits kann diese Bedingung auch durch ein elektronisch gesteuertes Gitter, beispielsweise ein
Liniengitter, realisiert werden, indem zusätzlich zum kontinuierlichen Bewegen des Liniengitters in
zA-Richtung, die Phasenlage des Liniengitters ebenfalls kontinuierlich verändert wird, indem die Lage der
Orte der lokalen Extrema der Leuchtdichte, auf dem elektronisch steuerbaren Liniengitter verändert
wird.
Dazu ist folgendes zu bemerken: Optisch konjugierte Punkte weisen im Array-raum und im
Objektraum betragsmäßig die gleiche absolute Phase auf. Diese absolute Phase kann jeweils als
laterale Koordinate verstanden werden. Die absolute Phase leitet sich aus der Beleuchtungssituation
ab und kann im Array-raum aus der xAB-Position im Gitterelement GAB bestimmt werden, welches sich
im Aufnahmeprozeß auf einer Geraden gA bewegt und bei dieser Bewegung genau den array-seitigen
Brennpunkt FAB schneidet. Aus diesem Zusammenhang ergibt sich die absolute Phase im Array-Raum
mit
mit xAB1 als der lateralen Koordinate des Durchstoßpunktes der Geraden gA durch das Gitterelement
GAB und p als Gitterkonstante des Liniengitters. Im optisch konjugierten Punkt GOB ergibt sich die
gleiche absolute Phase wie im Punkt GAB, jedoch mit umgekehrtem Vorzeichen.
Weiterhin muß das Empfänger-Array kein Bildempfänger sein, sondern kann nach dem Stand der
Technik als Mikrolinsen-Array ausgeführt sein, um eine hohe Tiefenauflösung auf der Basis einer
hohen Streifendichte erreichen zu können. Das Mikrolinsen-Array befindet sich im Array-Raum in einer
zum strukturiert leuchtenden Array optisch konjugierten Ebene. Wie bekannt, ist dem
Mikrolinsen-Array ein weiteres Objektiv nachgeordnet. Dieses Objektivist auf der dem
Mikrolinsen-Array zugeordneten Seite möglichst gut telezentrisch ausgeführt. Auf der zweiten Seite
des Objektivsbefindet sich der Bildaufnehmer.
Auch kann in der Ebene des Empfänger-Arrays ein elektronisch steuerbares, vorzugsweise
transmissives Array angeordnet sein. Dabei wird wie folgt vorgegangen: Es erfolgt eine erste
Gewinnung einer 3D-Punktwolke mit einer beispielsweise mittleren Transmission in den
Array-Elementen. Anschließend wird die Aussteuerung in den Elementen des Bildempfänger
kontrolliert und die Transmission elementeweise so eingestellt, daß sich eine geeignete Aussteuerung
in den Bildelementen eines nachgeordneten Bildempfängers ergibt. Das elektronisch steuerbare,
transmissive Array kann vorzugsweise dem Mikrolinsen-Array zugeordnet sein. Es ist aber auch
möglich, daß es dem Bildaufnehmer zugeordnet ist. Auch kann es dem strukturiert leuchtenden Array
zugeordnet sein. Letztlich muß die Zuordnung nur zu einer optisch konjugierten Ebene des
Empfänger-Arrays erfolgen.
Zur Bestimmung der Phasenlage der periodischen Signale in den Bildpunkten des Empfänger-Arrays
kommen im einfachsten Fall die bekannten Phasenschiebe-Algorithmen mit 3 bis 5 Intensitätswerten
zur Anwendung. Dabei wird die Intensität in den Bildpunkten des Empfänger-Arrays entsprechend der
Phasenlage des strukturiert leuchtenden Arrays abgetastet. Möglich ist hier eine Abtastung in
diskreten 90°-Phasenschritten. Mit den ausgelesenen Intensitätswerten kann beispielsweise auch die
Modulation über der Phase in 90°-Schritten mit den bekannten Elementargleichungen bestimmt
werden. Die Auswertung der Phasenlage kann in jeweils 180°-Schritten der Phase des strukturiert
leuchtenden Arrays, hier des Liniengitters, erfolgen.
Besser für die Genauigkeit der Phasenbestimmung und damit für die Tiefenmeßgenauigkeit sind
jedoch Algorithmen, die über eine größere Anzahl von Intensitätswerten, beispielsweise 8, 16 oder 32,
die Phase im Signal wie auch den Ort des Modulationsmaximums bestimmen. Das gesamte
Know-how der Signalverarbeitung, wie es in der Elektrotechnik bereits bekannt ist, kann hier
angewendet werden. Beispiele für die erfolgreiche Applikation derartiger Signalauswertungen sind aus
der Weißlicht-Interferenzmikroskopie bekannt. Im allgemeinen werden diese
Signalauswertungs-Methoden bei Kurzkohärenz-Methoden angewendet.
Da die Gitterkonstante, des strukturiert leuchtenden Arrays vorzugsweise konstant ist, ist die
Phasenänderungsgeschwindigkeit bei einer konstanten Bewegung des strukturiert leuchtenden
Arrays, ebenfalls konstant. Dies ermöglicht auch das Anwenden der Sub-Nyquist-Abtastung, da hier
aufgrund der Kenntnis der Signalfrequenz das bekannte Abtast-Theorem ohne Nachteile verletzt
werden kann. Dies reduziert die Anzahl der aufzunehmenden Bilder ganz erheblich, so daß
grundsätzlich eine hohe Geschwindigkeit der Bewegung des Liniengitters realisiert werden kann und
so eine Hochgeschwindigkeits-Auswertung realisierbar wird. Digitale Filteroperationen sind in der
bekannten Art mit den Phasen-Auswerte-Methoden zu kombinieren, bzw. bereits vor der
Phasenauswertung durchzuführen. Dieser Sachverhalt wird hier nicht weiter vertieft, obwohl von der
optimalen Gestaltung der Algorithmen die Leistungsfähigkeit des gesamten Auswerte-Verfahrens
abhängt. Die Ausführung der Rechenoperationen kann dabei mittels spezieller
Hochgeschwindigkeits-Prozessoren erfolgen.
Es ist vorteilhaft, wenn das strukturiert leuchtende Array, hier das Liniengitter, zusätzlich eine
Nullpunktmarke aufweist und die laterale Gitterbewegung mit einem Gegengitter phasenmäßig erfaßt
wird. Durch das Positionieren der Referenzplatte im Objektraum in einer bekannten zOB-Position
zOB = zOR wird die absolute Phase des Nullpunktes bestimmt. Auch werden die Referenz-Phasen
mod 2π als relative Referenzphasen ϕRR durch die Auswertung des Signalverlaufs in den
Abbildungsstrahlen im Bereich der scharfen Abbildung der Referenzplatte ermittelt und gespeichert.
Bei einem unbekannten Objekt wird durch den Signalverlauf im Schärfebereich des Objektpunktes die
zugehörige Phase des Liniengitters ϕGitter an der Stelle im Signalverlauf im Bereich des Maximums
der Modulation ermittelt, die der zugehörigen Referenz-Anfangsphase im Bereich des Maximums der
Modulation entspricht.
Dann kann die Objektphase für jede Ebene in der Entfernung zOB mittels der Phase, die aus der
Gitterverschiebung abgeleitet wird, bestimmt werden. Die hochstabile Nullpunktmarke kann als
Startpunkt für die laterale Bewegung des Liniengitters dabei so einjustiert werden, daß der Start der
Bildaufnahme kurz vor dem Erreichen der scharfen Abbildung der Referenzplatte durch die
koordinierte Bewegung von Liniengitter und Bildempfänger beginnt. Auch nach dem Entfernen der
Referenzplatte bleibt die Lage der Referenzplatte beim Einmessen jeweils als "die Referenzfläche des
3D-Aufnahmesystems" bis zum neuen Einmessen bestehen.
In der vorangegangenen Darstellung wurde davon ausgegangen, daß das Beleuchtungsobjektiv und
das Abbildungsobjektiv stets fest angeordnet sind und in sich starre Objektive darstellen, also keine
eigene Fokussierung aufweisen, bzw. die gegebenenfalls vorhandene, objektiveigene Fokussierung
nicht benutzt wird. Die Brennebenen der Objektive stehen demzufolge fest im Raum. Das Fokussieren
im Sinne des Veränderns der Lage der Schärfeflächen im Objektraum erfolgte in der bisherigen
Darstellung jeweils über das Bewegen des strukturiert leuchtenden Arrays und des Empfänger-Arrays
in einer Komponente parallel zur optischen Achse der Objektive.
Im Fall des Veränderns der Lage der Schärfeflächen im Objektraum über die Fokussierung des
Objektivs, beispielsweise durch eine interne Fokussierung, wie es dem Stand bei modernen
Fotoobjektiven entspricht, muß die Fokussierung elektronisch steuerbar sein, d. h. die Objektive
müssen auch eine motorische Fokussierung gestatten. Auch beim Verschieben des gesamten
Objektivs zum Zweck der Fokussierung muß eine motorische Verschiebung gewährleistet sein.
Da moderne Objektive mit interner Fokussiermöglichkeit durch das Verschieben von massearmen,
optischen Komponenten im allgemeinen eine recht schnelle Fokussierung ermöglichen, wird dieser
Fall betrachtet.
Grundsätzlich kommt es aber bei der erfindungsgemäßen 3D-Aufnahme-Anordnung und dem
3D-Aufnahme-Verfahren jedoch nur darauf an, eine definierte Relativbewegung zwischen den
Brennebenen der Objektive und den jeweils zugehörigen Arrays oder den Orten der Extrema der
Leuchtdichte auf diesen zu erreichen. Zum Erreichen der Relativbewegung können auch die
Brennebenen im Raum bewegt werden, beispielsweise durch eine interne Fokussierung des
Objektivs.
Ziel ist letztlich die Detektierung eines modulierten cos2-ähnlichen Signals mit einem
Modulationsmaximum in den Bildpunkten des Empfänger-Arrays. Die Annäherung an die
cos2-Charakteristik wird bekannterweise durch die optische Modulationsübertragungfunktion des
Objektivs in der jeweiligen Abbildungssituation unterstützt.
Es muß realisiert werden, daß die Bewegung des Punktes des strukturiert leuchtenden Arrays,
welcher in der Brennebenenlage des strukturiert leuchtenden Arrays mit dem Brennpunkt des
Beleuchtungsobjektivs koinzidiert, auf einer Geraden gA erfolgt. Andere Punkte, bzw. Elemente des
strukturiert leuchtenden Arrays bewegen sich auf parallelen Geraden zur Geraden gA. Diese Gerade
gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Array-Raum
schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im
Array-Raum und Abstand des Brennpunktes vom Abbildungsobjektiv, aufweist, wobei dieser Anstieg
der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist.
Demzufolge bewegt sich die Gerade gA gemeinsam mit der Brennebene des Beleuchtungsobjektivs.
Da sich beim internen Fokussieren der Brennpunkt stets auf der Achse des Beleuchtungsobjektivs
bewegt, ist zur Realisierung der Bewegung der Elemente des strukturiert leuchtenden Arrays auf einer
Geraden gA, noch eine zusätzliche Bewegung des strukturiert leuchtenden Arrays senkrecht zur
optischen Achse erforderlich. Bei einem elektronisch steuerbaren Liniengitter wird eine Veränderung
der Orte der lokalen Extrema der Leuchtdichte erzeugt. Dies kann auch als eine Bewegung senkrecht
zur optischen Achse verstanden werden.
Es ist sehr wesentlich für die Genauigkeit des Meßverfahrens, daß die beschriebene Bewegung oder
Verschiebung der Brennebene des Beleuchtungsobjektivs sehr genau erfolgt, so daß die Bewegung
auf der Geraden gA nur mit möglichst kleinen Lageabweichungen erfolgt. Dies kann mittels eines
hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung bewegten
optischen Komponenten im Beleuchtungsobjektiv unterstützt werden.
Die interne Fokussierung des Abbildungsobjektivs mit einer miniaturisierten Linearführung sollte so
erfolgen, daß die Schärfefläche des Abbildungsobjektivs mit der durch das Beleuchtungsobjektiv
vorgegebenen Schärfefläche im Objektraum möglichst gut koinzidiert. Möglich ist auch hier die
Verwendung eines hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung
im Abbildungsobjektiv bewegten optischen Komponenten. Auch ist eine starre Kopplung der bewegten
Komponenten der beiden Objektive grundsätzlich möglich.
Um die Anforderungen an die Genauigkeit der internen Fokussierung des Abbildungsobjektivs zu
verringern, kann das Abbildungsobjektiv etwas stärker abgeblendet werden, da sich dann der
Schärfentiefebereich vergrößert. Im Extremfall ist auch eine so starke Abblendung des
Abbildungsobjektivs denkbar, daß dann bei einem Objekt mit begrenzter Tiefenausdehnung sowohl
auf dessen interne Fokussierung als auch auf eine Bewegung des Empfänger-Arrays - also auf eine
Fokussierung im Abbildungsstrahlengang überhaupt - verzichtet werden kann.
So wird erfindungsgemäß auch eine Anordnung vorgeschlagen, die mit einem elektronisch
steuerbaren Liniengitter als strukturiert leuchtendes Array arbeitet, welches eine Verschiebung der
Orte der lokalen Extrema der Leuchtdichte auf dem Empfänger-Array, beziehungsweise bei einer
cos2-ähnlichen Leuchtdichteverteilung auf dem strukturiert leuchtenden Array eine Verschiebung der
Phasenlage, erzeugt, und das zugehörige Beleuchtungsobjektiv gleichzeitig eine interne Fokussierung
aufweist. Dadurch bewegen sich die Orte der Extrema oder die Orte gleicher Phase der
Leuchtdichteverteilung auf dem strukturiert leuchtendes Array auch bei der internen Fokussierung auf
einer sich im Raum bewegenden Geraden gA.
Grundsätzlich ist es möglich, daß die beiden Achsen von Beleuchtungsobjektiv und
Abbildungsobjektiv zueinander geneigt sind. Jedoch ist es in diesem Fall von großem Vorteil, wenn
der Brennpunkt FOA des Abbildungsobjektivs im Objektraum in der Brennebene des
Beleuchtungsobjektivs liegt. Die Lage dieses Brennpunktes FOA definiert den Ort der Geraden gO, die
als Bild der Geraden gA definitionsgemäß diesen Brennpunkt FOA enthalten und parallel zur Achse des
Beleuchtungsobjektivs liegen muß. Dies führt dazu, daß die Tiefenempfindlichkeit der
3D-Aufnahme-Anordnung in einer zur Achse des Beleuchtungsobjektivs senkrechten Ebene im
Objektraum eine Konstante ist, also die Tiefenempfindlichkeit keine laterale Abhängigkeit in der Ebene
aufweist.
Bei einer gegebenen Anordnung von Beleuchtungs- und Abbildungsobjektiv muß die Richtung der
Bewegung der Elemente des strukturiert leuchtenden Arrays parallel zur Geraden gA liegen. Wie
bereits dargestellt, ist die Gerade gA dabei so definiert, daß deren Bild im Objektraum, die Gerade gO,
den Brennpunkt des Abbildungsobjektivs im Objektraum bei gleichzeitig paralleler Lage zur Achse des
Beleuchtungsobjektivs schneidet. Die Anordnung mit zueinander geneigten optischen Achsen der
Objektive bringt Vorteile, wenn sich Bereiche des Objektes in besonders geringer Entfernung vom
Beleuchtungsobjektiv befinden und diese vom Abbildungsobjektiv bei einer parallelen Anordnung der
Objektive nicht mehr aufgenommen werden können. Hierbei ist es von Vorteil, wenn das
Abbildungsobjektiv so aus der parallelen Lage herausgedreht ist oder motorisch und rechnergesteuert
herausgedreht wird, daß es die Bereiche des Objektes in besonders geringer Entfernung erfassen
kann.
Weiterhin ist es möglich, daß das Empfänger-Array zusätzlich rechnergesteuert drehbar angeordnet
ist, um die Scheimpflugbedingung zu erfüllen, wodurch die Koinzidenz der Schärfeflächen im
Objektraum erreichbar ist. Es ist auch möglich, daß die beiden Objektive unterschiedliche Brennweiten
aufweisen können, wobei das Abbildungsobjektiv wesentlich kurzbrennweitiger gestaltet ist, wenn sich
nur der Brennpunkt des Abbildungsobjektivs in der Brennebene des Beleuchtungsobjektivs im
Objektraum befindet.
Es ist weiterhin von Vorteil für das Einmessen und Kontrollieren der 3D-Aufnahme-Anordnung, daß
eine transparente Platte als permanent verbleibende Referenzplatte achssenkrecht in der Nahdistanz
im Objektraum zur Selbsteinmessung zugeordnet ist, wobei auf mindestens einer der beiden Flächen
eine schwach lichtstreuende Mikrostruktur aufgebracht ist. Die Mikrostruktur bewirkt eine für die
Erfassung der Fläche der Referenzplatte ausreichende Rückstreuung in die
3D-Aufnahme-Anordnung. Die Einmessung kann beliebig oft kontrolliert und gegebenenfalls korrigiert
werden, beispielsweise beim Auftreten von Temperaturänderungen. Auch ist es möglich, die
Anordnung zu kapseln und thermisch durch eine Temperaturregelung zu stabilisieren, um ein
temperaturbedingtes Driften der Phasenlagen zu verhindern. Auch ist zum Einmessen die
Verwendung einer Anordnung mit zwei parallel angeordneten transparenten Platten mit Luftspalt im
Objektraum möglich, wobei der Luftspalt konstant und dessen Geometrie bekannt ist.
Grundsätzlich können die mit einer Referenzplatte gemessenen relativen Phasenwerte ϕRR in einer
Rerenzphasen-Matrix abgelegt werden und zur Berechnung der Objektkoordinaten genutzt werden,
auch wenn die Referenzplatte bereits wieder entfernt ist.
Es ist auch möglich, Verzeichnungen der Objektive und Justierfehler der Anordnung als
Phasenbeträge über die Raumkoordinaten zu ermitteln und zu speichern und bei Bedarf zur Korrektur
zu verwenden.
Die beschriebene Vorgehensweise gestattet grundsätzlich die zeitoptimale Auswertung auf der Basis
von straight forward-Algorithmen. Diese Algorithmen können in speziellen
Hochgeschwindigkeits-Prozessoren implementiert werden, wodurch eine Echtzeitauswertung von
bewegten Objekten und Personen möglich wird.
Für ein optimales Signal-Rausch-Verhältnis in den Signalen kann die Helligkeit der Strahlungsquelle in
Abhängigkeit von der Position des strukturiert leuchtenden Arrays gesteuert werden. Für die
Anpassung an das lateral unterschiedliche Reflexionsvermögen in den einzelnen Objektpunkten kann
dagegen in einem elektronisch steuerbaren, strukturiert leuchtenden Array die Lichtintensität
pixelweise objektorientiert angepaßt werden. Dabei kann das elektronisch steuerbare strukturiert
leuchtende Array lateral bewegt werden, um die Phase zu ändern, aber auch lateral feststehen und
elektronisch durch Verschieben der Gitterlinien eine Phasenänderung erzeugen, beispielsweise mit
konstanter Phasengeschwindigkeit.
Weiterhin kann die Lichtstärke der Objektive verändert werden. Es kann abgeblendet werden, um den
Schärfentiefebereich beispielsweise bei schnellen Orientierungsmessungen vergrößern zu können.
Dies verringert die Anzahl der notwendigen Bilder, verringert aber auch die Tiefenmeßgenauigkeit. Um
dagegen den Schärfentiefebereich verkleinern zu können, werden eine oder zwei
Apodisationsblenden angeordnet, eine in der Austrittspupille des Beleuchtungsobjektivs und eine in
der Eintrittspupille des Abbildungsobjektivs also jeweils im Objektraum. Diese Blenden sind so
gestaltet, daß die achsnahen Strahlen geschwächt oder ausgeblendet werden, um eine stärkere
Wirkung der Randstrahlen zu erreichen. Es sind die aus der Spektroskopie bekannten
Apodisationsfunktionen, beispielsweise Rechteck, Dreieck- oder Gaußfunktion einsetzbar.
Andererseits kann in bestimmten Fällen, beispielsweise für die besonders schnelle 3D-Aufnahme,
auch ein Bewegungssystem mit einem rotatorischen Antrieb zur kontinuierlichen, rotatorischen
Bewegung eines strukturiert leuchtenden Arrays, vorzugsweise in der Art eines Radialgitters mit
mindestens einer Referenzmarke, angeordnet sein, wobei ein Ausschnitt des Radialgittes das Feld
des Beleuchtungsobjektivs vollständig ausfüllt. Dem Radialgitter ist ein Gegengitter zur
phasenmäßigen Abtastung zugeordnet, welches die Gegenstruktur zur Abtastung enthält, sowie die
Beleuchtung, ein Optikmodul und die Auswerte-Elektronik mit Rechnerschnittstelle. Auch auf dem
Gegengitter befindet sich außerdem noch eine Referenzmarke für das Gewinnen mindestens eines
hochgenauen Nullpunkt-Signals.
Weiterhin weist dieses Bewegungssystem eine Linearführung auf, die den rotatorischen Antrieb zur
vorzugsweise kontinuierlichen rotatorischen Bewegung des strukturiert leuchtenden Arrays und das
Empfänger-Array trägt. Die Bewegungsrichtung der Linearführung liegt parallel zur optischen Achse
des Abbildungsobjektivs in zA-Richtung. Durch die Kopplung des Radialgitters mit einem rotatorischen
Antrieb wird erreicht, daß das strukturiert leuchtende Array einen kontinuierlichen Lauf erfährt, der
durch die phasenmäßige Abtastung hochgenau geregelt werden kann. Bei dieser Lösung tritt wegen
der Struktur des Radialgitters eine Variation der Gitterkonstante entlang der Koordinate xA auf. Für
Radialgitter mit einem vergleichsweise großen Durchmesser zum Feld des Abbildungsobjektivs ist
diese Tatsache in Verbindung mit numerischen Methoden akzeptierbar.
Es ist grundsätzlich möglich, für das Beleuchtungs- und das Abbildungsobjektiv rechnergesteuerte
Zoom-Objektive einzusetzen, die vorzugsweise jeweils mit der gleichen Brennweiteneinstellung
arbeiten.
Um vom strukturiert leuchtenden Array weit geöffnete Strahlenbündel ausgehen zu lassen, kann das
strukturiert leuchtende Array mit einem speziellen Mikrolinsen-Array gekoppelt sein, beispielsweise
kann dieses Mikrolinsen-Array dem strukturiert leuchtendes Array in Lichtrichtung vorgeordnet sein.
Es ist auch möglich, das strukturiert leuchtende Array selbst als Zylinderlinsen-Array hoher Apertur
auszuführen.
Die Kontrolle der Parallelität der optischen Achsen der beiden Objektive kann mit Hilfe des Vergleichs
der Phasenlagen zwischen der Phase des am strukturiert leuchtenden Array abgenommenen Signals
und der Phase, die im Signal in einem Bildpunkt auf der optischen Achse des Abbildungsobjektivs
detektiert werden kann, erfolgen, wenn eine Referenzplatte dabei in der Tiefe verschoben wird und
der Verschiebeweg dabei gemessen wird.
Es ist mit einem elektronisch gesteuerten, strukturiert leuchtenden Array möglich, die durch
Telezentriefehler des Beleuchtungsobjektivs beim Tiefen-Scannen auftretenden Phasenfehler durch
Dehnen oder Stauchen des elektronisch gesteuerten strukturiert leuchtenden Arrays auszugleichen.
Für das Einmessen und Kontrollieren der Tiefenempfindlichkeit der Anordnung kann eine Stiftplatte
verwendet werden. Die Stifte sind sehr präzise und fest an einer Trägerplatte in einem bekannten
Raster befestigt und weisen bezogen auf die Trägerplatte zwei unterschiedliche, aber bekannte
Stiftlängen auf. Die Abstände der Stifte sind so groß gewählt, daß in einem bestimmten
Entfernungsbereich der Platte von der Anordnung auf den Stirnflächen der Stifte keine Abschattung
auftritt. So werden zwei Ebenen mit einem sehr genau bekannten Abstand dargestellt. Dieser Abstand
kann mit einer hochgenauen Koordinaten-Meßmaschine vermessen werden. In verschiedenen
Abständen der Platte von der Anordnung kann so die Tiefenempfindlichkeit dieser Anordnung, aber
auch die Verzeichnungen der Objektive bestimmt werden.
Um sehr große Objekte teilweise oder rundum vermessen zu können, wird aus einer größeren Zahl
von 3D-Aufnahme-Anordnungen ein Schirm aufgebaut. Dieser Schirm kann näherungsweise die
Grobform des zu vermessenden Objektes, beispielsweise die Form einer kompletten
Automobilkarosserie, aufweisen. Die erfaßten Objekträume der 3D-Aufnahme-Anordnungen
überdecken sich teilweise. Das Einmessen kann durch mehrere Referenzkörper, auch Planplatten,
gegebenenfalls mit Marken erfolgen, die gleichzeitig von zwei 3D-Aufnahme-Anordnungen im
Überdeckungsbereich erfaßt werden.
Auch ist es möglich, daß mehrere 3D-Aufnahme-Anordnungen nebeneinander so positioniert sind,
daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei
sich die erfaßten Bereiche im Objektraum der unmittelbar nebeneinander positionierten
3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung mit der
übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten
3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt mit einer jeweils andersfarbigen
Strahlungsquelle ab. Dann beleuchten beispielsweise die 3D-Aufnahme-Anordnungen mit einer
geradzahligen Positionsnummer das Objekt mit rotem Licht und die 3D-Aufnahme-Anordnungen mit
einer ungeradzahligen Positionsnummer das Objekt mit grünem Licht. Im Abbildungsstrahlengang der
3D-Aufnahme-Anordnungen befinden sich entsprechend schmalbandige Filter, die nur das Licht der
eigenen Strahlungsquelle passieren lassen. Denkbar sind auch mehrere Lichtfarben, wodurch mehr
als zwei 3D-Aufnahme-Anordnungen den gleichen Teil des Objektes erfassen können.
Weiterhin können mehrere Beleuchtungsobjektive einem Abbildungsobjektiv zugeordnet sein,
beispielsweise zwei. Dabei kann jedem Beuchtungsobjektiv eine andersfarbige Strahlungsquelle
zugeordnet sein, beispielsweise dem ersten eine rote und dem zweiten eine grüne. Dem
Abbildungsobjektiv ist ein mechanisch oder elektronisch schaltbares Filter zugeordnet, um jeweils nur
Licht einer einzigen Strahlungsquelle auf den Bildempfänger gelangen zu lassen.
Andererseits kann auch eine farbtüchtige Kamera angeordnet sein, um gleichzeitig das strukturierte
Licht aus den beiden Beleuchtungsobjektiven getrennt zu verarbeiten. So können verschiedene
Beleuchtungsrichtungen im Objektraum realisiert werden, um beispielsweise direkte Reflexe von
einem speziellen Objektdetail wenigstens bei einer Aufnahme nicht auftreten zu lassen. Auch werden
die Schatten der jeweils anderen Aufnahme ausgeleuchtet und so können auch diese Objektteile
sichtbar gemacht werden.
Möglich ist Trennung der Bilder von verschiedenen Beleuchtungsobjektiven auch mittels drehbarer
Polarisatoren und der Verwendung von polarisiertem Licht.
Für die Farb-Aufnahmetechnik mit farbsensitiven Bildaufnehmern kann wie folgt vorgegangen werden:
Die Beleuchtung des Objektes oder der Szene erfolgt vorzugsweise mit weißem Licht und mehrere 3D-Aufnahme-Anordnungen sind so positioniert, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereich oder Winkel-Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung der mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt zu jeweils unterschiedlichen Zeiten ab. Zu diesem Zweck sind alle 3D-Aufnahme-Anordnungen von einer Leitstelle aus synchronisiert, so daß das Aufnehmen von Bildern auch synchron erfolgt. Dann erfassen beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt im Hinlauf der bewegten Arrays und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt im Rücklauf der bewegten Arrays und die Objekte sind nur beleuchtet, wenn jeweils die Aufnahme von Bildern erfolgt.
Die Beleuchtung des Objektes oder der Szene erfolgt vorzugsweise mit weißem Licht und mehrere 3D-Aufnahme-Anordnungen sind so positioniert, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereich oder Winkel-Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung der mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt zu jeweils unterschiedlichen Zeiten ab. Zu diesem Zweck sind alle 3D-Aufnahme-Anordnungen von einer Leitstelle aus synchronisiert, so daß das Aufnehmen von Bildern auch synchron erfolgt. Dann erfassen beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt im Hinlauf der bewegten Arrays und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt im Rücklauf der bewegten Arrays und die Objekte sind nur beleuchtet, wenn jeweils die Aufnahme von Bildern erfolgt.
Bei Verwendung einer farbtüchtigen Kamera als Bildaufnehmer sind vorzugsweise die jeweils
zusammengehörenden farblich sensitiven Elemente, auch als RGB-Sensoren bekannt, linienförmig
und in Richtung der Streifen des Liniengitters, also auf Linien gleicher Phase, angeordnet. Dadurch
wird erreicht, daß es keine farblich bedingten Phasenlagen in den Signalen gibt. Dagegen kann die
Phase zwischen den RGB-Sensoren objektbedingt durchaus verschieden sein.
Weiterhin ist es auch möglich, daß ein Roboterarm eine einzige 3D-Aufnahme-
Anordnung über das Objekt führt und die Daten nacheinander eingelesen werden. Durch
Überdeckung der erfaßten Bereiche der Objektoberfläche erfolgt ein "Weiterhangeln" über die
Objektoberfläche, welches grundsätzlich ohne das Vorhandensein von Bezugsmarken auf der
Objektoberfläche möglich ist. Die jeweils erfaßten Objekträume werden numerisch zusammengesetzt.
Das Abbildungsobjektiv kann fest angeordnet sein. Dabei ist mindestens ein Beleuchtungsobjektiv
gemeinsam mit dem strukturiert leuchtenden Array und der kompletten Beleuchtungsanordnung um
das Abbildungsobjektiv drehbar oder schwenkbar angeordnet, wobei vorteilhafterweise die optische
Achse des Abbildungsobjektivs die Drehachse für das Beleuchtungsobjektiv darstellen kann. Damit ist
eine Beleuchtung des Objektes aus verschiedenen Richtungen möglich, um Schatten zu eliminieren.
Die Drehbewegung wird rechnergesteuert.
Auch ist es möglich, daß sich vor der 3D-Aufnahme-Anordnung ein schwenkbarer Planspiegel
befindet, der in den Strahlengang geschwenkt werden kann und so eine fest angeordnete
Referenzplatte vermessen und nach erfolgter Vermessung der Planspiegel zurückgeschwenkt wird.
Vorteilhaft ist es, wenn zu Beginn eines 3D-Aufnahmeverfahrens in einem Bildaufnahmevorgang ein
erster Datensatz gewonnen und gespeichert wird und die errechneten Objektpunkte eliminiert werden,
die eine Abweichung vom Modulationsmaximum aufweisen. Anschließend kann das strukturiert
leuchtende Array um einen Bruchteil der Gitterperiode verschoben werden und mindestens ein zweiter
Datensatz aufgenommen und gespeichert wird, wobei die errechneten Werte ebenfalls eliminiert
werden, die sich nicht in unmittelbarer Lage des Modulationsmaximums befinden. Aufgrund der durch
die Gitterverschiebung im Bruchteil der Gitterperiode erfolgten Phasenänderung sind die errechneten
Objektpunkte der ersten Messung mit denen der zweiten Messung nicht identisch, so daß eine
vollständige Erfassung der Mehrzahl der Objektpunkte erreicht wird. Vorzugsweise entspricht die
beschriebene Verschiebung des strukturiert leuchtenden Arrays dem Betrag der viertel Gitterperiode.
Im folgenden werden weitere Merkmale des Verfahrens und der Anordnung zur 3D-Aufnahme von Objekt
oberflächen in Szenen dargestellt.
Weiterhin ist in einem Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens
einer Szene mindestens eine elektromagnetischen Strahlungsquelle angeordnet und die Strahlungsquelle
ist mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit
mindestens zwei Flächenelementen ausgebildet.
Dabei leuchtet mindestens ein Flächenelement, so daß mindestens ein leuchtendes Flächenelement ge
bildet ist. Dabei ist jedes leuchtende Flächenelement FELj des strukturiert leuchtenden Arrays selbst,
oder deren Bilder, in einer Leuchtdichteverteilung durch eine zumindest näherungsweise vorbestimmte
Leuchtdichte und durch einen zumindest näherungsweise vorbestimmten Ort definiert, welches im weite
ren als leuchtendes Flächenelement FELj bezeichnet wird. Der Begriff "Leuchten" wird hier als das Ab
strahlen von elektromagnetischer Strahlung verstanden.
Das strukturiert leuchtende Array kann auch als ein Sender-Array und die leuchtenden Flächenelemente
FEL können als Senderelemente dieses Sender-Arrays verstanden werden. Weiterhin kann das struktu
riert leuchtende Array dabei ein Array aus äquidistanten steuerbaren Mikro-Lichtquellen, beispielsweise
Mikro-Laser oder auch Mikro-Leuchtdioden darstellen. So ist es auch möglich, ein strukturiert leuchtendes
Array beispielsweise mit vertikal abstrahlenden Laserdioden zu erzeugen, die mittels eines Rechners,
auch einzeln, angesteuert werden. Beispielsweise kann ein leuchtendes Flächenelement FELj so das
100fache der mittleren Leuchtdichte des Arrays aufweisen, also vergleichsweise intensiv leuchten.
Die Strahlungsquelle kann aber auch als eine flächige und unstrukturierte Strahlungsquelle einem struktu
rierten Array, welches ein Transmissions- oder ein Reflexionsgitter darstellen kann, vorgeordnet sein. So
kann ebenfalls ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte realisiert
werden. In jedem Fall stellen die leuchtenden Bereiche des strukturiert leuchtenden Arrays selbst, ein
schließlich deren Bilder, leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung mit einer zu
mindest näherungsweise vorbestimmten Leuchtdichte in Bezug zur mittleren Leuchtdichte der Leuchtdich
teverteilung im strukturiert leuchtenden Array dar.
Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an
geordnet, welches mindestens einem strukturiert leuchtenden Array, einschließlich einem Bild desselben,
zugeordnet ist. So wird eine Abbildung des mindestens einen leuchtenden Flächenelementes FELj reali
siert und die Objektoberflächen können zumindest zu einen einzigen Zeitpunkt strukturiert beleuchtet wer
den.
Es ist weiterhin möglich, daß durch die Überlagerung von kohärenten Lichtbündeln auf den Objektoberflä
chen in der Szene eine strukturierte Beleuchtung auf der Basis der Interferenz elektromagnetischer Wel
len erzeugt wird. Vorzugsweise können zwei kohärente Lichtbündel zur Interferenz gebracht werden. Vor
zugsweise können diese zumindest näherungsweise Ausschnitte aus Kugelwellen darstellen, und es kann
ein Streifenmuster gebildet werden. Die Lage der Streifen kann durch die Änderung des optischen
Gangunterschiedes zwischen den kohärentem Lichtbündeln verändert werden.
Weiterhin ist mindestens ein Abbildungsstrahlengang für die Abbildung von Elementen der mindestens ei
nen Objektoberfläche und mindestens ein Empfänger-Array mit mindestens zwei Elementen und minde
stens einem dem Empfänger-Array zugeordneten Abbildungsobjektiv angeordnet. Dabei detektieren Ele
mente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elementen der
mindestens einen beleuchteten Objektoberfläche im Objektraum.
Weiterhin werden von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv stets auch Bilder
im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebil
det. Die Elemente der mindestens einen Objektoberfläche werden mit mindestens einem Abbildungsob
jektiv abgebildet. Mindestens ein leuchtendes Flächenelement FELj des strukturiert leuchtenden Arrays
kann eine Verschiebung erfahren. Durch die Abbildung des mindestens einen leuchtenden Flächenele
mentes FELj mit dem mindestens einen Beleuchtungsobjektiv wird ein Bild mindestens eines leuchtenden
Flächenelementes FELj im Objektraum mit einem geometrisch-optischen Schärfevolumen gebildet.
Das Empfänger-Array kann auch einen Film oder eine Platte mit einer Beschichtung darstellen, die für
Röntgen-, UV-, VIS- oder IR-Strahlung sensibilisiert ist, und gerastert ausgelesen wird. Die Verwendung
eines Targets, welches für UV-, VIS- oder IR-Strahlung empfindlich gemacht ist, ist ebenfalls möglich.
Die Detektion von elektromagnetischer Strahlung von den Elementen der mindestens einen Objektober
fläche durch die Elemente des Empfänger-Arrays erfolgt mindestens in einem Zeitbereich ΔtB, in welchem
auch die Verschiebung mindestens eines leuchtenden Flächenelementes FELj des strukturiert leuchten
den Arrays durchgeführt wird, wobei jeweils mindestens ein Signalwert gewonnen wird.
Dabei wird innerhalb des Zeitbereichs ΔtB mindestens mit einem leuchtenden Flächenelement FELj des
strukturiert leuchtenden Arrays eine zumindest näherungsweise vorbestimmte Verschiebung durchge
führt, - einschließlich einer vorbestimmten optischen Verschiebung desselben als Ergebnis einer geome
trisch-optischen Weglängenänderung - und so sendet mindestens ein leuchtendes Flächenelement FELj
zu unterschiedlichen Zeitpunkten an mindestens zwei unterschiedlichen Orten elektromagnetische Strah
lung aus.
Dabei werden das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten, leuchten
den Flächenelementes FELj des mindestens einen strukturiert leuchtenden Arrays, wobei dieses Schär
fevolumen im Objektraum gebildet ist, und das Schärfevolumen mindestens eines Bildes mindestens ei
nes vorbestimmten Elementes des Empfänger-Arrays, wobei dieses Schärfevolumen ebenfalls im Objekt
raum gebildet ist, und mindestens ein Element der mindestens einen Objektoberfläche zumindest nähe
rungsweise einmal aufgrund der Durchführung der vorbestimmten Verschiebung mindestens eines vor
bestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays mit zumindest einer
Verschiebungskomponente in zA-Richtung im Array-Raum, also mit einer Verschiebungskomponente
parallel zur optischen Achse des Beleuchtungsobjektivs, zur Koinzidenz gebracht. So wird im Objektraum
zumindest einmal und zumindest näherungsweise die Koinzidenz des Schärfevolumens eines Bildes ei
nes vorbestimmten, feuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und des
Schärfevolumes eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays und mindestens ei
nes Elementes der mindestens einen Objektoberfläche erzeugt. Beim Auftreten der Koinzidenz erfährt
zumindest das an dieser Koinzidenz beteiligte Element des Empfänger-Arrays zumindest einmal eine zeit
lich veränderte Bestrahlung gegenüber dem Fall der Nichtkoinzidenz und so detektiert dieses Element des
Empfänger-Arrays zumindest einmal ein verändertes Signal.
So werden durch die Realisierung der Verschiebung nach und nach Elemente der mindestens einen Ob
jektoberfläche gleichzeitig zur Koinzidenz mit dem Schärfevolumen eines Bildes eines vorbestimmten,
leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und dem Schärfevolumen eines
Bildes eines vorbestimmten Elementes des Empfänger-Arrays gebracht. Jeweils beim Auftreten der Koin
zidenz erfährt das an dieser Koinzidenz jeweils beteiligte Element des Empfänger-Arrays zumindest ein
mal eine zeitlich veränderte Bestrahlung und so detektiert dieses Element des Empfänger-Arrays zumin
dest einmal ein verändertes Signal.
Ein leuchtendes Flächenelement kann fest an eine geometrische Struktur eines Körpers gebunden sein,
beispielsweise an ein Transparenzmaximum auf einem verschiebbaren Transmissionsgitter in Verbindung
mit einer vorgeordneten Strahlungsquelle.
Die feste Kopplung an eine geometrische Struktur eines Körpers muß jedoch nicht sein, denn in einem
elektronisch steuerbaren, strukturiert leuchtenden Array, mit zwei Flächenelementen kann sich das
leuchtende Flächenelement FELj zu jeweils unterschiedlichen Zeitpunkten sowohl am Ort des ersten, als
auch am Ort des zweiten Flächenelementes befinden.
Es ist aber auch grundsätzlich in der beschriebenen Anordnung und nach dem beschriebenen Verfahren
möglich, daß ein strukturiert leuchtendes Array mit mehreren fest angeordneten leuchtenden Flächenele
menten FELj in einer räumlichen vorbestimmten Struktur aufgebaut ist. Im Objektraum entstehen nach
Abbildung der fest angeordneten leuchtenden Flächenelementen FEL durch das Beleuchtungsobjektiv an
verschiedenen Orten Bilder der fest angeordneten leuchtenden Flächenelementen FEL. In der 3D-Auf
nahme-Anordung ist in den optisch konjugierten Orten im Array-Raum des Abbildungobjektivs jeweils
mindestens ein Element eines Empfänger-Arrays angeordnet. Bei der exakten Positionierung eines Objek
tes im Objektraum, welches genau dort Elemente der Objektoberfläche aufweist, wo sich genau ein Bild
der leuchtenden Flächenelemente FEL befindet, detektieren die Elemente des Empfänger-Arrays jeweils
einen Signalwert oberhalb eines Schwellwertes.
Für die Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert
leuchtenden Arrays und die Positionen der Bilder der leuchtenden Flächenelemente FEL im Objektraum
nach der Newtonschen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs in der 3D-
Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs bestimmt und realisiert. Die Ver
schiebung erfolgt dabei zum einen vorzugsweise mit konstanter Geschwindigkeit. Andererseits kann die
Gegenstandsweite des strukturiert leuchtenden Arrays auch sprunghaft verändert werden.
Aus dem Datensatz von einer bekannten Soll-Objektoberfläche kann ein strukturiert leuchtendes Array mit
mehreren fest angeordneten leuchtenden Flächenelementen FEL in einer räumlichen Struktur gestaltet
werden. Eine 3D-Aufnahme-Anordnung kann mit diesem speziellen, strukturiert leuchtenden Array zur
Prüfung von massenhaft gefertigten Ist-Objektoberflächen bei entsprechend genauer Positionierung in der
beschriebenen 3D-Aufnahme-Anordnung eingesetzt werden. In diesem Fall erfolgt keine physische Ver
schiebung der leuchtenden Flächenelementen FELj im Array-Raum, sondern nur eine parallele Detektion
durch die Elemente des Empfänger-Arrays. Dieses Verfahren kann mit einer außerordentlich hohen Ge
schwindigkeit durchgeführt werden. Die Begrenzung liegt in der Regel bei der Positionierung. Es ist
grundsätzlich eine Prüfung von Objektoberflächen von Werkstücken im Flug oder im freien Fall möglich.
Um für das Verfahren zur 3D-Aufnahme einen großen Tiefenschärfebereich bei der Abbildung von Ob
jektoberflächen in einer Szene zu erreichen, können die Orte bestimmter relativer Leuchtdichte der struk
turierten, leuchtenden Fläche und so auch die Orte lokaler Extrema der Leuchtdichte im Array-Raum auf
Bahnkurven verschoben werden. Das strukturiert leuchtendes Array kann ein elektronisch steuerbares,
strukturiert leuchtendes Array, beispielsweise ein LCD mit einer vorgeordneten Strahlungsquelle sein,
welches durch ein Bewegungssystem geradlinig verschoben wird. Es kann durch die elektronisch gesteu
erte laterale Verschiebung der lokalen Extrema der Leuchtdichte auch eine definierte Abweichung der
Bahnkurven von der Geradheit erzeugt werden, beispielsweise durch die Verschiebung von transparenten
Linien eines sehr feinstrukturierten LCDs mit einer sehr großen Anzahl von Elementen beispielsweise in
der Größenordnung 106. So kann die zA-abhängige Verzeichnung des Beleuchtungsobjektivs oder die
systematische Abweichung von der Geradlinigkeit des Bewegungssystem so beeinflußt werden, daß sich
bei der Verschiebung des strukturiert leuchtenden Arrays die Bilder der Bahnkurven im Objektraum Bah
nen mit einer sehr geringen Abweichung von der Geradheit, also Strecken darstellen.
Die Bahnkurven können dabei so r 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880ealisiert werden, daß nach deren Abbildung mit dem Beleuchtungsob
jektiv aus deren Bildern zumindest näherungsweise im Objektraum ein erstes Streckenbüschel SB1 mit
einem Konvergenzpunkt K1 der Strecken gebildet werden kann. Diese Strecken können im Objektraum
als Spuren von nacheinander abgebildeten Lichtpunkten verstanden werden, beispielsweise als die ver
schobenen Extrema der Leuchtdichte bei einem beleuchtetem Liniengitter im Transparenzmaximum oder
die Spur eines Bildes eines beleuchteten Spaltes. Die Spuren der Lichtpunkte können im Objektraum auf
einer Objektoberfläche beobachtet werden, wenn das Bild eines Lichtpunktes und der beobachtete Punkt
der Objektoberfläche zumindest näherungsweise koinzidieren. Durch den Triangulationseffekt kann bei
der Verschiebung des Bildes eines leuchtenden Flächenelementes FELj und des mit diesem koinzidie
renden Bild eines Elementes des Empfänger-Arrays ein laterales Auswandern des Bildes des Lichtpunk
tes beobachtet werden. Die Ablage von der Ausgangsposition nimmt mit zunehmender Abweichung des
beleuchteten Bereiches der Objektoberfläche vom aktuellen Koinzidenzpunkt der beiden Bildern zu, wobei
das Element des Empfänger-Arrays ein zunehmend unscharfes Bild des leuchtenden Flächenelementes
FELj detektiert, beziehungsweise ein in der Regel ebenfalls unscharfes, leuchtendes Flächenelement
FELj+1 in der Nachbarposition von dem ersten leuchtenden Flächenelement FELj auf dem strukturiert
leuchtenden Array. Dabei erfolgt die Abbildung des leuchtenden Flächenelementes FELj stets über die
Objektoberfläche. Im Falle eines einzelnen leuchtenden Flächenelementes FELj registriert das zugehöri
ge Element eines Empfänger-Arrays eine geringere Lichtintensität, so daß beim Abbilden eines einzelnen
Lichtspaltes sich ein Signalverlauf mit einer Veränderung der Signalintensität, beispielsweise auch ein Si
gnalverlauf mit einem Extremum - in der bereits beschriebenen dreifachen Koinzidenzsituation, ergibt.
Dieses Verfahren ermöglicht in einem vorbestimmten Verschiebungsvorgang des strukturiert leuchtenden
Arrays und so auch der leuchtenden Flächenelemente FEL in einer Verschiebungsrichtung mit einer
Komponente in zA-Richtung, also auch mit einer Komponente parallel zur optischen Achse des Beleuch
tungsobjektivs, eine eindeutige Aussage über das Vorhandensein eines Elementes der Objektoberfläche
an einem vorbestimmten Ort im Objektraum. Dabei wird der Betrag in zA-Richtung so gewählt, daß die
Schärfefläche den Objektraum von einem Nahbereich, welcher der Fläche Fmin entspricht, beispielsweise
in der zehnfachen Brennweite des Beleuchtungsobjektivs, bis zu einem Fernbereich, welcher der Fläche
Fmax entspricht, beispielsweise in einer Entfernung von der 3D-Aufnahmeanordnung der 100fachen
Brennweite, nach und nach durch eine vorbestimmte, beispielsweise eine elektronisch gesteuerte Ver
schiebung der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays durchwandert. Da
bei liegt der Betrag der Verschiebung der leuchtenden Flächenelemente FEL vorzugsweise in der Größe
eines Zehntels der Brennweite des Beleuchtungsobjektivs.
Dieses Verfahren wird mit der Gesamtheit der leuchtenden Flächenelemente des strukturiert leuchtenden
Arrays und der Gesamtheit der Elemente des Empfänger-Arrays für die Gesamtheit der Elemente der
Objektoberflächen im Erfassungsvolumen der 3D-Aufnahmeanordnung durchgeführt.
Durch mehrfaches Detektieren und Auslesen während des Verschiebungsvorganges von mindestens ei
nem vorbestimmten Element des Empfänger-Arrays kann eine Interpolation zur Verbesserung der Genau
igkeit der Bestimmung des Ortes eines erfaßten Elementes der Objektoberfläche durchgeführt werden.
Die Öffnungsblende des Abbildungsobjektiv kann hierbei vorzugsweise vergleichsweise klein gemacht
sein, beispielsweise kann die relative Öffnung 1 : 22 betragen, so daß das Schärfevolumen des Bildes der
Elemente des Empfänger-Arrays eine vergleichsweise große Tiefe besitzt, beispielsweise in der Form ei
nes langen Ausschnittes aus einer schlanken Pyramide - bei einem Element mit einer quadratischen Flä
che.
Die Größe des Schärfevolumens ist im Objektraum von der Entfernung vom zugehörigen Objektiv ab
hängig. Bei der Abbildung eines Elementes des Empfänger-Arrays in den Objektraum soll es einen Tie
fenbereich aufweisen, in welchem das Bild eines Elementes des Empfänger-Arrays aufgrund der geome
trisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert - gegenüber der idea
len geometrisch-optischen Abbildung. So weist das Schärfevolumen nach dieser Definition an einem
Punkt des Objektraum im Mittel die zweifache Fläche eines Bildes eines Elementes des Empfänger-
Arrays auf. Der Tiefenbereich ergibt sich dann als der Bereich, in dem die Bildfläche eines Elementes des
Empfänger-Arrays sich unschärfebedingt nicht größer als verdoppelt darstellt.
Dagegen kann das Beleuchtungsobjektiv eine vergleichsweise große relative Öffnung besitzen. Bei
spielsweise kann die relative Öffnung 1 : 2,0 betragen. Dadurch kann das Schärfevolumen des Bildes von
leuchtenden Flächenelementen FEL eine vergleichsweise geringe Tiefe aufweisen, beispielsweise in der
Form eines kurzen Ausschnittes aus einer Pyramide.
Das Schärfevolumen soll bei der Abbildung eines leuchtenden Flächenelementes FELj in den Objektraum
einen Tiefenbereich aufweisen, in welchem das Bild von leuchtenden Flächenelementen FEL aufgrund
der geometrisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert. Es gilt das
gleiche Kriterium. Bei einem linienförmigen, leuchtenden Flächenelement FELj kann eine Verdoppelung
der Breite des Bildes des linienförmigen, leuchtenden Flächenelementes FELj als Unschärfe-Kriterium
angenommen werden. So weist ein Schärfevolumen an einem Punkt des Objektraum im Mittel die zweifa
che Fläche eines Bildes eines leuchtenden Flächenelementes FELj. Der Tiefenbereich ergibt sich dann
auch hier als der Bereich, in dem die Bildfläche eines Elementes des Empfänger-Arrays sich nicht größer
als verdoppelt darstellt.
Die exakte Definition des jeweiligen Schärfevolumens spielt jedoch hier für die Gewinnung der 3D-
Punktwolke keine Rolle, da von der Definition des Schärfevolumens keine Rechenvorschrift abgeleitet
wird.
Bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes FELj im Array-Raum bewegt
sich im hier dargestellten Fall das Schärfevolumen jeweils eines Bildes eines leuchtenden Flächenelemen
tes FELj im Schärfevolumen jeweils eines Bildes eines Elementes des Empfänger-Arrays. So kann sich in
diesem Fall ein Element der Objektoberfläche permanent im Schärfevolumen eines Bildes eines Empfän
gerelementes befinden. Jedoch erst bei der Koinzidenz des Schärfevolumens des Bildes eines leuchten
den Flächenelementes mit einem Element der Objektoberfläche erfolgt eine strukturierte Beleuchtung die
ses Elementes der Objektoberfläche. So kann durch das - bei der vorbestimmten Verschiebung eines
leuchtenden Flächenelementes FELj - mehrfach ausgelesene Element eines Empfänger-Arrays bei
spielsweise ein Signalverlauf mit einem relativen Maximum zum Zeitpunkt der Koinzidenz detektiert wer
den.
Die vorbestimmte Verschiebung der leuchtenden Flächenelemente FELj kann elektronisch gesteuert er
folgen. Um die mechanische Bewegung des strukturiert leuchtenden Arrays zu vermeiden, können die
Orte der lokalen Extrema der Leuchtdichte der strukturierten, leuchtenden Fläche jeweils Verschiebungen
auf Bahnkurven im Array-Raum erfahren, die sich aus der elektronisch gesteuerten Veränderung der opti
schen Weglänge im Array-Raum und der elektronisch gesteuerten Verschiebung der lokalen Extrema der
Leuchtdichte auf dem strukturiert leuchtendes Array ergeben. Zusätzlich kann auch eine elektronisch ge
steuerte Veränderung der optischen Weglänge im Raum vor dem Empfänger-Array durchgeführt werden,
die zu scheinbaren Verschiebungen der sensitiven Elemente des Empfänger-Arrays entlang von Bahn
kurven führen.
Weiterhin kann vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der De
tektion von Licht in einem Zeitbereich ΔtB zumindest näherungsweise auf je einer Verschiebungsstrecke
VSBAj relativ zum Beleuchtungsobjektiv verschoben werden. Durch das Beleuchtungsobjektiv kann dieses
leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungsweise
vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des
Zeitintervalls Δti stets auf eine vorherbestimmte Strecke im Objektraum BSOj abgebildet werden.
Der Ort des Bildes des leuchtenden Flächenelementes FELj wird dabei auf der Strecke BSOj nach und
nach verändert und so wird das Bild des leuchtenden Flächenelementes FELj mit einer zumindest nähe
rungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach durch den Objektraum
verschoben. Bei der Verschiebung je eines leuchtenden Flächenelementes FELj werden mehrfach nach
einander Signalwerte aus Elementen des Empfänger-Arrays ausgelesen und so wird ein Signalverlauf
gebildet, wobei der Ort des jeweils ausgelesenen Elementes des Empfänger-Arrays verändert wird. Die
Orte der ausgelesenen Elemente des Empfänger-Arrays liegen auf einer Strecke ASAj und das Bild dieser
Strecke ASAj, die Strecke ASOj, ist mit der vorherbestimmten Strecke BSOj der Bilder der leuchtenden
Flächenelemente FEL im Objektraum optisch konjugiert. So kann je ein Bild eines Elementes des Emp
fänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj zumindest zu einem Zeit
punkt ti innerhalb des Zeitintervalls Δti im Zeitbereich ΔtB im Objektraum zur Koinzidenz gebracht sein und
so wird je ein Paar mit wechselnden Bildern erzeugt, wobei dieses Paar nach und nach durch den Objek
traum geschoben wird. So ist gegeben, daß je ein Schärfevolumen des Bildes eines leuchtenden Flä
chenelementes des strukturiert leuchtenden Arrays und je ein Bild eines Elementes des Empfänger-
Arrays mit je einem Flächenelement der Objektoberfläche einmal im Verschiebungsvorgang innerhalb ei
nes Zeitbereich ΔtB zusammenfallen, wenn sich ein Element der Objektoberfläche auf dem Abbildungs
strahl zwischen den Bildern der beiden Flächen Fmin und Fmax im erfaßten Bereich des Objektraum es be
findet. Die ausgelesenen Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz
einen veränderlichen Signalverlauf vorzugsweise mit mindestens einem relativen Extremum der Signal
größe, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zei
tintervall Δti im Zeitbereich ΔtB zeitlich eingepaßt werden kann.
Vorteilhaft kann auch ein einem mechanisch feststehendem Empfänger-Array verwendet werden, bei
spielsweise eine CCD-Kamera, die nicht senkrecht zur optischen Achse des Abbildungsobjektivs steht.
Dies ermöglicht ausgewählte Elemente der Objektoberflächen aus unterschiedlichen Tiefen des Objek
traum scharf abzubilden. Es kann auch ein räumlich strukturiertes Empfänger-Array eingesetzt werden.
Dieser Ansatz ist besonders für kleine oder für flache Meßvolumina mit geeignet. Vorzugsweise kann das
leuchtende Array auch einen beleuchteten Einzelspalt darstellen. Andererseits kann beispielsweise auch
ein Direct Mirror Device oder einem LCD-Array als steuerbares Array in Verbindung mit einer im Beleuch
tungsstrahlengang vorgeordneten Lichtquelle eingesetzt werden.
Ein beleuchteter Einzelspalt kann beispielsweise linear verschobenen werden. Der Abbildungsstrahl, wo
bei die Lage dieses Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwerpunk
tes des gerade ausgelesenen Elementes des Empfänger-Arrays und den Ort des Zentrums der Öff
nungsblende des Abbildungsobjektivs bestimmt ist, wandert dabei zunächst über die nicht vom Bild des
Lichtspaltes beleuchteten Flächenelemente der Objektoberfläche. Der Lichtspalt wird erst in der Koinzi
denzsituation vom Bild des leuchtendem Flächenelementes, vom Bild des Elementes des Empfänger-
Arrays und vom Element der Objektoberfläche vom Element des Empfänger-Arrays detektiert. Jedoch fällt
je ein Bild eines leuchtenden Flächenelementes FELj, z. B. ein Spaltbild, stets mit dem Bild eines Elemen
tes des Empfängers für das Zeitintervall Δti zusammen, sozusagen immer in der "Erwartung" der Objekto
berfläche. Im nächsten Zeitintervall Δti+1 kommt das nächste Element des Empfängers mit einem Bild ei
nes leuchtenden Flächenelementes zur "Paarbildung". So bildet ein bestimmtes leuchtendes Flächenele
mentes FELj mit Bildern wechselnder Elemente des Empfänger-Arrays für das Zeitintervall Δti jeweils ein
Paar, wobei durch die getrennten Pupillen des Beleuchtungsobjektivs und des Abbildungsobjektivs ein
Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem Hauptabbildungstrahl besteht, so
daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenelement detektieren kann,
wenn gleichzeitig, also im Zeitintervall Δti, auch noch ein Element der Objektoberfläche zumindest nähe
rungsweise mit dem gerade, also im Zeitintervall Δti, bestehenden Bildpaar koinzidiert, also auch das
Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flächenelementes
zusammenfällt. So besteht ein Tripel. In dieser Position detektiert das Element des Empfänger-Arrays das
Lichtspaltbild auf der Objektoberfläche. Weit außerhalb des Schärfevolumen detektiert es dagegen nur die
undurchlässigen Bereiche der Maske auf der gegebenenfalls vorhandenen Objektoberfläche. Dazwischen
besteht ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger-Arrays, die innerhalb
eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf mit einem Maximum,
der dem von konfokalen 3D-Meßmikroskopen entspricht.
Dabei kann sich auch stets das gleiche leuchtende Flächenelement FELj auf den Punkten der Verschie
bungsstrecke befinden. Dies entspricht dem realen mechanischen Verschieben des leuchtenden Flä
chenelementes FELj. Dies muß nicht immer so sein, da andererseits auch der Aufenthalt eines beliebi
gen, leuchtendes Flächenelementes FELj zum Zeitpunkt ti innerhalb des Zeitintervalls Δti genügt.
Dabei kann das strukturiert leuchtende Array auch aus zumindest näherungsweise punktförmigen oder
linienhaften Strahlungsquellen in einer gerasterten Struktur bestehen. So kann ein strukturiert leuchtendes
Array mit Bereichen unterschiedlicher Leuchtdichte gebildet sein. Weiterhin können auch leuchtende Flä
chenelemente FEL mit lokalen Extrema der Leuchtdichte verschoben werden. Die elektronisch gesteuerte
Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort kann mit mechanischen Mit
teln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch gesteuerte Verschie
bung möglich.
Leuchtende Flächenelemente FEL können in einer Leuchtdichteverteilung mit einer zumindest nähe
rungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zeitlich nacheinander an unter
schiedlichen Orten elektromagnetische Strahlung aussenden und gleichzeitig erfolgt die Detektion von
elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitinter
valls Δti.
Es wird weiterhin vorgeschlagen, die strukturierte Beleuchtung mit einem Beleuchtungsobjektiv mit einer
vergleichsweise großen Pupillenöffnung und mit einem strukturiert leuchtendes Array, welches ein parallel
zur optischen Achse des Beleuchtungsobjektivs verschobenes Liniengitter, beziehungsweise eine Punkt-
oder eine Schlitzmaske sein kann, und die Abbildung mit einem Abbildungsobjektiv mit einer vergleichs
weise besonders kleinen Pupillenöffnung durchzuführen. Die kleine Pupillenöffnung führt zu einem größe
ren Tiefenschärfebereich und so wird erreicht, daß ein Objekt mit einer größeren Tiefenausdehnung er
faßt werden kann, ohne daß das strukturiert leuchtendes Array bewegt werden muß. Da auch miniaturi
sierte Objektive eingesetzt werden können, ergibt sich so eine besonders kompakte Anordnung. Wenn
das Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können so bei der Aufnahme in den
Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten Frequenz und ei
nem Modulationsmaximum gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb
zu einer erheblichen Reduzierung der Rechenzeit bei der Bestimmung der absoluten Phase und führen.
Bei der Verwendung von einer Punkt- oder Schlitzmaske entstehen dagegen in den Elementen des
strukturiert leuchtenden Arrays Signale mit einem einzelnen Maximum. Aus der Lage des Maximums kann
in der bekannter Weise die zugehörige zO-Position des Objektpunktes bestimmt werden.
Weiterhin kann bei einem Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorzugswei
se je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion in einem Zeitbereich
ΔtB zumindest näherungsweise auf je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuch
tungsobjektiv verschoben werden und durch das Beleuchtungsobjektiv abgebildet sein. Dabei bedeutet
die Formulierung "relativ", daß auch die Position des leuchtenden Flächenelementes FELj ortsfest sein
kann und sich in diesem Fall zumindest Komponenten des Beleuchtungsobjektivs bewegen. Dieses
leuchtende Flächenelement FELj wird zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti
stets auf eine Strecke BSOj auf einen vorherbestimmten Abbildungsstrahl ABSO, im Objektraum abgebil
det. Die Strecke BSOj kann dann auch das Bild der Verschiebungsstrecke VSBAj darstellen und sich der
Ort des Bildes des leuchtenden Flächenelementes FELj auf der Verschiebungsstrecke VSBAj zumindest
näherungsweise kontinuierlich - innerhalb eines Zeitbereich ΔtB - ändern und so das Bild des leuchtenden
Flächenelementes FELj mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen
Leuchtdichte nach und nach auf der Strecke BSOj durch den Objektraum verschoben werden. Außerdem
wird eine zumindest näherungsweise geradlinige, relative Verschiebung des Empfänger-Arrays zum Ab
bildungsobjektiv und parallel zur optischen Achse des Abbildungsobjektivs durchgeführt, wobei die For
mulierung "relativ" bedeutet, daß auch die Position des Empfänger-Arrays ortsfest sein kann und sich in
diesem Fall zumindest Komponenten des Abbildungsobjektivs bewegen. Bei der Verschiebung können
mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und
so je ein Signalverlauf mittels eines einzelnen Empfängerelementes gebildet werden, wobei der Ort je ei
nes Elementes des Empfänger-Arrays zumindest näherungsweise kontinuierlich ändert. Die geradlinige
relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des
Abbildungsobjektivs wird vorzugsweise so durchgeführt, daß je ein Bild eines Elementes des Empfänger-
Arrays mit dem Bild eines leuchtenden Flächenelementes FELj mit einer zumindest näherungsweise vor
herbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des Zei
tintervalls Δti im Objektraum zur Koinzidenz gebracht ist und so ein Paar von Bildern erzeugt wird, wel
ches und nach durch den Objektraum geschoben wird.
Dabei fallen vorzugsweise Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flä
chenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitin
tervalls ΔtB zusammen und die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzi
denz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße. Der Zeitbereich ΔtB
kann dabei größer als das Zeitintervall Δti gemacht sein und so wird mindestens ein Zeitintervall Δti im
Zeitbereich ΔtB zeitlich eingepaßt.
Hier wird der Fall mit einem bewegten Empfänger-Array dargestellt. Dieser ist ein sehr relevanter Fall, da
so auch Objekte mit vergleichsweise großer Tiefenausdehnung vermessen werden können. Außerdem
sind einseitig telezentrische Systeme mit einem geringen Bauvolumen in der Regel nicht extrem lichtstark,
so daß für das Erreichen einer hinreichend schmalen Einhüllenden, um die Ordnung eines Streifens
identifizieren zu können, beide Systeme hohe relative Öffnungen aufweisen sollten.
Dabei ist die Lage des Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwer
punktes eines Elementes des Empfänger-Arrays und einen optisch konjugierten Ort des effektiven Zen
trums der Öffnungsblende des Abbildungsobjektivs bestimmt.
Auch ein beleuchteter Spalt kann als leuchtendes Array - im Sinne einer leuchtenden Struktur - eingesetzt
werden. So fällt je ein Bild eines vorbestimmten beleuchteten Flächenelementes, z. B. ein Spaltbild, stets
mit dem Bild eines vorbestimmten Elementes des Empfänger-Arrays zusammen und bildet so ein Bild
paar. Durch die zumindest um einen kleinen Abstand getrennten Pupillen des Beleuchtungs- und des
Abbildungsobjektivs besteht ein Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem
Hauptabbildunggstrahl, so daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenele
ment detektieren kann, wenn auch noch ein Element der Objektoberfläche mit dem Bildpaar koinzidiert,
also auch das Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flä
chenelementes zusammenfällt. Dann detektiert das Element des Empfänger-Arrays das Lichtspaltbild.
Weit außerhalb des Schärfevolumen werden nur die undurchlässigen Bereiche der Maske detektiert. Da
zwischen besteht jedoch ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger-
Arrays, die innerhalb eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf
mit einem Maximum, der dem von konfokalen Meßanordnungen entspricht. Der Abstand zwischen den
Pupillen des Beleuchtungs- und des Abbildungsobjektivs kann dabei beispielsweise im Minimum nur ein
Achtel der Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist die Tie
fenempfindlichkeit auch nur sehr gering. Andererseits kann der Abstand zwischen den Pupillen des Be
leuchtungs- und des Abbildungsobjektivs im Objektraum dabei beispielsweise das Bfache der mittleren
Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist das Tiefenauflö
sungsvermögen hier etwa um zwei Größenordnungen gegenüber dem vorherigen Beispiel vergrößert.
Dieses Verfahren ist auch für die Anwendung von vollflächigen, strukturiert leuchtenden Arrays und Emp
fänger-Arrays geeignet. So kann auch ein bewegtes, beleuchtetes Transmissionsgitter als strukturiert
leuchtendes Array eingesetzt werden. Die detektierbaren Signale entsprechen in ihrer Charakteristik in
diesem Fall denen der Kurzkohärenz-Interferometrie.
Bei mehreren teildurchlässigen Objektoberflächen in Richtung der Hauptachse des Abbildungsstrahls mit
einer jeweils geringen Lichtstreuung bringt jede Objektoberfläche ein eigenes relatives Extremum im Si
gnalverlauf.
Die permanente Koinzidenz vom Bild eines leuchtenden Flächenelementes FELj mit dem Bild eines
Empfängerelemente im Objektraum kann, muß aber nicht bestehen. Im Fall der permanenten Koinzidenz
bewegt sich das Bild eines leuchtenden Flächenelementes stets direkt auf einer Strecke auf dem Abbil
dungsstrahl.
Das leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungswei
se vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbestimmten Wellenlängenspek
trum kann monochromatisches, quasi-monochromatisches oder polychromatisches Licht im sichtbaren
oder im unsichtbaren Spektralbereich aussenden.
Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort
kann mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elek
tronisch gesteuerte Verschiebung möglich.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion von
Licht in einem Zeitbereich ΔtB zumindest näherungsweise an je einem eigenen Ort OABj im strukturiert
leuchtenden Array relativ zum Beleuchtungsobjektiv angeordnet und durch Ansteuerung zum Leuchten
gebracht werden und durch das Beleuchtungsobjektiv abgebildet wird und dieses leuchtende Flä
chenelement FELj zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf einen vorher
bestimmten Ort im Objektraum OOBj abgebildet wird. Dieser Bildort OOBj eines jeweils leuchtenden Flä
chenelementes FEL wird im Objektraum durch eine Ansteuerung verändert, indem ein jeweils anderes,
vorbestimmtes Flächenelement angesteuert und zum Leuchten gebracht wird, so daß das Bild je eines
leuchtenden Flächenelementes FELj auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsinkre
menten AIO der Bilder der Abstände AIA der leuchtenden Flächenelementes FEL im Array-Raum, durch
den Objektraum geschoben wird - im Sinne des gesteuerten Einnehmens vorherbestimmter, unterschied
licher Positionen. In jeder Position nach der Verschiebung - um mindestens ein ganzzahliges Vielfaches n,
einschließlich n = 1, des Abstandsinkrementes AIO - wird mindestens ein Signalwert aus einem Empfän
gerelement detektiert und ausgelesen und so wird aus mehreren Vorgängen des Detektierens und Ausle
sens von Elementen des Empfänger-Arrays ein Signalverlauf gebildet. So wird der Ort des detektierten
und ausgelesenen Elementes des Empfänger-Arrays kontinuierlich verändert. Die Orte der detektierten
und ausgelesenen Elemente des Empfänger-Arrays liegen an Orten OAAj im Empfänger-Array und das
Bild dieses Ortes OAAj, der Bildort OOAj, ist mit dem vorherbestimmten Bildort OOBj des leuchtenden Flä
chenelementes FELj im Objektraum optisch konjugiert. So ist je ein Bild eines detektierten und ausgele
senen Elementes des Empfänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj
zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti im Objektraum zur Koinzidenz gebracht
und so wird je ein Paar von Bildern mit wechselnden Bildern erzeugt, welches und nach verschiedene
Positionen im Objektraum einnimmt. Der Objektraum wird so in der Tiefe nach und nach durch derartige
Paare durchsetzt. Dabei fallen Schärfevolumina des Bildes je eines leuchtenden Flächenelementes FELj
mit je einem Flächenelement der Objektoberfläche mindestens einmal im Zeitbereich ΔtB in einem Zeitin
tervall ΔtB zusammen und die detektierten und die ausgelesenen Elemente des Empfänger-Arrays weisen
im Zeitintervall Δti der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Si
gnalgröße auf, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens
ein Zeitintervall Δti in den Zeitbereich ΔtB zeitlich eingepaßt wird.
Dieses Verfahren kann auch ohne jede Bewegung eines Arrays realisiert werden, also vollständig elek
tronisch. Das strukturiert leuchtende Array und das Empfänger-Array können in sich starre, vorzugsweise
dreidimensionale Strukturen darstellen, beispielsweise kann das leuchtende Array Luminiszenzdioden
oder vertikal abstrahlende Laserdioden in einer 3D-Anordnung aufweisen. Diese können vorzugsweise in
einer Kompaktanordnung und starr miteinander gekoppelt sein. Nach und nach werden einzelne Flä
chenelemente elektronisch angesteuert und zum Leuchten gebracht.
Dabei kann auch ein beleuchteter Mikrospiegel eines zweidimensionalen oder dreidimensionalen Direct
Mirror Device DMD oder ein beleuchtetes LCD-Element oder ein vertikal abstrahlendes Mikro-
Laserelement oder eine Mikro-Luminiszenzdiode in der dreidimensionalen Struktur zur Anwendung kom
men. Durch die Ansteuerung von vorherbestimmten, leuchtenden Flächenelementen und das Auslesen
von Elementen eines Empfänger-Arrays, wobei deren Bilder im Objektraum ein Bildpaar darstellen, wird
genau dann ein Extremum im Signalwert eines Elementes des Empfänger-Arrays gewonnen, wenn das
Bildpaar mit einem Element der Objektoberfläche zumindest näherungsweise koinzidiert. Das ist der Fall,
wenn das Schärfevolumen des Bildes des leuchtenden Flächenelementes das Element der Objektoberflä
che durchsetzt.
Das Verfahren kann auch als optoelektronische Abfrage des Vorhandenseins von Elementen einer Objekt
oberfläche verstanden werden. Besonders gut möglich ist damit die Anwesenheitskontrolle von Bauele
menten in einer komplexen, dreidimensionalen Struktur mit einer vergleichsweise großen Tiefenausdeh
nung.
Ein leuchtendes Flächenelement repräsentiert durch seine feste Position im Verbund des strukturiert
leuchtenden Arrays und durch die Parameter seiner Abbildung in den Objektraum stets ein kleines Volu
menelement. Durch das Auslesen genau des Elementes eines Empfänger-Arrays, welches im Objektraum
ein Bild besitzt, welches zumindest mit dem Bild des leuchtenden Flächenelementes optisch konjugiert ist,
erfolgt eine Abfrage des Vorhandenseins eines Elementes der Objektoberfläche in diesem Volumenele
ment. Es kann hier durch eine Triggerschwelle eine ja/nein-Entscheidung getroffen werden. Dies ist bei
Oberflächen ohne Textur ein gangbarer und schneller Weg. Besser ist es für die Genauigkeit der Orts
bestimmung des jeweiligen Elementes der Objektoberfläche, mehrere Elemente des Empfänger-Arrays
auszulesen und aus dem gebildeten Signalverlauf den Ort des relativen Extremums oder den Schwer
punkt des Signalverlaufes zu bestimmen. Aus diesem kann bei Kenntnis der Geometrie der optischen An
ordnung der Ort eines Elementes der Objektoberfläche bestimmt werden.
Dabei kann der Wert der relativen Leuchtdichte eines leuchtenden Flächenelementes vorzugsweise nur
zwei Werte annehmen, ein Minimum und ein Maximum, gleichbedeutend mit dem logischen 0 und L. Je
doch kann wegen der Anpassung an den Reflexionsgrad des Elementes der Objektoberfläche, beispiels
weise als Ergebnis einer zuvor durchgeführten Überblicksmessung, und der Berücksichtigung der Entfer
nung des Elementes der Objektoberfläche vom Beleuchtungsobjektiv eine Veränderung des absoluten
Wertes der Leuchtdichte vorgenommen werden.
Weiterhin bilden die Abstandsinkremente, die zu den Bildern der leuchtenden Flächenelemente FELj ge
hören, im Objektraum vorzugsweise Strecken auf einer Geraden, die zu einem Streckenbündel SB1 mit
einem Konvergenzzentrum K1 gehören, vorzugsweise mit dem Konvergenzzentrum K1 in der Brennebene
des Beleuchtungsobjektivs. So ist die Eindeutigkeit der Signalgewinnung gegeben, da sich die Strecken
des Streckenbündels SB1 im Objektraum nicht überkreuzen.
Bei Anwendung einer nachgeschalteten Abbildungsstufe im Beleuchtungsstrahlengang kann das Konver
genzzentrum des Streckenbündels auch im Unendlichen liegen. Dies entspricht dem telezentrischen Fall.
Vorteilhaft ist, wenn das Konvergenzzentrum in der Pupille eines Abbildungsobjektivs für die Aufnahme
der Objektoberfläche liegt.
Bei a priori-Kenntnissen über die Objektoberfläche können aus Abstandsinkrementen auch einzelne
Bahnkurven oder Teilstrecken zusammengesetzt werden. So wird durch die Ansteuerung verschiedener
leuchtender Flächenelemente FEL reale Verschiebung eines leuchtenden Flächenelemente FELj nach
gebildet. Grundsätzlich kann das leuchtende Array sogar in seiner mechanischen Gestaltung ein verklei
nertes 3D-Flächen-Modell der zu untersuchenden Objektoberfläche oder der prüftechnisch relevanten Be
reiche derselben darstellen und die einzelnen leuchtenden Flächenelemente werden gleichzeitig oder
nacheinander auf die Objektoberfläche abgebildet. Analog gilt dies auch für die Struktur des Empfänger-
Arrays. Auch dieses kann eine objektangepaßte 3D-Struktur aufweisen. Universeller sind durch die Mög
lichkeiten der Steuerung jedoch strukturiert leuchtende Arrays mit lateral äquidistanten Abständen der
leuchtenden Flächenelemente FEL Empfänger-Arrays mit lateral äquidistanten Abständen der Elemente
des Empfänger-Arrays in einer Fläche. Sowohl das leuchtende Array als auch das Empfänger-Array kön
nen in der Tiefe mehrere aktive Flächen mit leuchtenden Elementen, beziehungsweise empfangenden,
Elementen aufweisen, so daß die Erfassung von dreidimensionalen Objektoberflächen vergleichsweise
großer Tiefe ohne jede mechanische Verschiebung möglich ist. So können mit diesen rechnergesteuerten
leuchtenden Arrays und Empfänger-Arrays auch in einem definierten Meßvolumen völlig unbekannte Ob
jektoberflächen erfaßt werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL
je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuchtungsobjektiv verschoben werden.
Die leuchtenden Flächenelemente FEL weisen dabei in einer Leuchtdichteverteilung vorzugsweise eine
zumindest näherungsweise vorherbestimmt gleichbleibende, relative Leuchtdichte zumindest zu einem
Zeitpunkt ti innerhalb eines Zeitintervalls Δti auf. Weiterhin werden die leuchtenden Flächenelemente FEL
auf einer B-Strecke BSAj positioniert, wobei die B-Strecke BSAj die Sollorte für die leuchtenden Flä
chenelemente FEL zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti darstellen.
Die Bilder dieser B-Strecken BSAj sind im Objektraum durch Abbildung mit mindestens einem Beleuch
tungsobjektiv vorzugsweise stets zu einem Streckenbüschel SB1 mit einem Konvergenzpunkt K1 geformt.
Dabei ist der Konvergenzpunkt K1, mindestens in einem Abstand dK1 min von der optischen Achse des Be
leuchtungsobjektivs vom 16ten Teil. Dementsprechend ist die Tiefenempfindlichkeit auch nur sehr gering.
Maximal beträgt der Abstand dK1 max das 16fache des Abstandes d des Pupillenzentrums PZOB des Be
leuchtungsobjektivs vom Pupillenzentrum des am weitesten entfernten Abbildungsobjektivs. Zumindest in
einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente auf Ver
schiebungsstrecken VSBAj werden jeweils genau ein Bild von einem Empfängerelement und jeweils genau
ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest zu einem einzigen Zeit
punkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest näherungsweise gemeinsam auf
dem Bild einer B-Strecke BSAj positioniert.
So wird vorzugsweise zumindest zu diesem Zeitpunkt ti aus dem Bild von einem Empfängerelement und
dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein Paar mit fester Zuordnung
gebildet und so werden im Objektraum derartige Paare erzeugt und diese derartigen Paare werden durch
den Objektraum geschoben. Dabei fallen Schärfevolumina von Bildern der leuchtenden Flächenelemente
FELj mit Flächenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb
eines Zeitintervalls ΔtB zusammen. Am Ort dieser Paare ist im Schwerpunkt des aktuellen Schnittvolu
mens des Schärfevolumens der beiden Bilder so zu diesem Zeitpunkt ti ein aktueller Koinzidenzpunkt Koj i
gebildet, der durch den Objektraum geschoben wird. Dabei kann der aktuelle Koinzidenzpunkt Koj i mit
konstanter Geschwindigkeit, aber auch sprunghaft verschoben werden.
Die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz vorzugsweise einen
Signalverlauf mit mindestens einem relativen Extremum der Signalgröße, wobei der Zeitbereich ΔtB größer
als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti im Zeitbereich ΔtB zeitlich ein
gepaßt wird. So werden die leuchtenden Flächenelemente FELj des strukturiert leuchtenden Arrays und
die Elemente des Empfänger-Arrays jeweils zumindest zu einem Zeitpunkt ti innerhalb eines Zeitintervalls
Δti, also stets zur gleichen Zeit, im Objektraum aufeinander abgebildet.
Bei der Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert
leuchtenden Arrays und die Positionen der Elemente des Empfänger-Arrays stets nach der Newtonschen
Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs und der Lage des Abbildungsobjektivs in
der 3D-Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs und der Brennweite fA des
Abbildungsobjektivs bestimmt und realisiert. So werden im Objektraum sowohl die leuchtenden Flä
chenelemente FEL des strukturiert leuchtenden Arrays als auch die Elemente des Empfänger-Arrays zu
mindest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet.
Typisch für dieses Verfahren ist vorzugsweise der Abstand dk1 = d. Es kann ein einmaliger oder mehrma
liger Durchgang durch oder auch ständiger Aufenthalt eines leuchtenden Flächenelementes FELj auf ei
ner B-Strecke BSAj erfolgen. Vorteilhaft ist hier die Verwendung eines vollflächigen und mechanisch be
wegten, strukturiert leuchtenden Arrays. Dabei kann das Empfänger-Array auch fest angeordnet sein.
Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL einen anderen Ort kann
mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch
gesteuert Verschiebung möglich.
A-priori-Kenntnisse über Lage der Objektoberfläche sind nicht notwendig, wenn eine große Anzahl von
Zeitintervallen Δti nacheinander durchfahren wird. Deshalb ist dieses Verfahren für völlig unbekannte Ob
jektlagen und Objektformen sehr geeignet. Bei a-priori-Kenntnissen über die Lage der Objektoberfläche
und deren Tiefenausdehnung kann der Zeitbereich ΔtB - zumindest bei Objekten mit einer geringen Tie
fenausdehnung - in der Regel kleiner gemacht werden, im Vergleich zu einer Situation mit einer völlig un
bekannten Szene. Die Verschiebungsstrecken VSBAj stellen die Ist-Strecken, also die Ist-Orte oder die Ist-
Positionen der photometrischen Schwerpunkte der leuchtenden Flächenelemente FELj 3A dar und die B-
Strecken BSAj stellen die Soll-Orte dar, die zumindest zum Zeitpunkt ti des Zeitintervalls Δti eingenommen
sein sollten. Nur zum Zeitpunkt der Detektion, d. h. nur zu einem Zeitpunkt ti im Bereich des Zeitintervalls
Δti müssen die Ist- und Soll-Orte übereinstimmen und die Verschiebungsstrecken VSBAj sich mit den B-
Strecken BSAj schneiden. Natürlich können die Verschiebungsstrecken VSBAj-Strecken mit den B-
Strecken BSAj auch permanent im gesamten Verschiebungsvorgang zusammenfallen.
Der Konvergenzpunkt K1 der Bilder der B-Strecken BSAj kann mindestens in einem Abstand dK1 min von der
optischen Achse des Beleuchtungsobjektivs vom 16ten Teil des Abstandes d des Pupillenzentrums PZOB
des Beleuchtungsobjektivs vom Pupillenzentrum PZO des Abbildungsobjektivs positioniert werden. Dieser
kleine Abstand ist für strahlteilergekoppelte Strahlengänge für schnelle Messungen mit vergleichsweise
geringer Tiefenauflösung sehr geeignet.
Der maximale Abstand dK1 max kann das 16fache des Abstandes d des Pupillenzentrums PZOB des Be
leuchtungsobjektivs vom Pupillenzentrum PZOA des Abbildungsobjektivs betragen. Dieser ist typisch für
3D-Aufnahme mit einer höheren Geschwindigkeit, beispielsweise mit kontinuierlich rotierenden Gittern. In
diesem Fall erfolgt die Bestimmung der Phasenverschiebung ϕ auf der Basis eines Trägerfrequenzverfah
rens zu einer von der Bewegung des strukturiert leuchtenden Arrays direkt abgeleiteten Trägerfrequenz
im Sinne einer Referenzfrequenz. Dieses Verfahren ist auch geeignet, um Streifen im Objektraum auf
grund der hohen Geschwindigkeit für Beobachter unsichtbar werden zu lassen. Bei einem begrenztem
Szenenvolumen kann das durch die höhere Geschwindigkeit vergleichsweise geringere Einschaltverhält
nis der Empfängerelemente akzeptiert werden.
Vorzugsweise wird der Wert dk1 = d realisiert. In diesem Fall entspricht die im Signalverlauf auftretende
Phasenveränderung der Ablage der detektierten Elemente der Objektoberfläche von einer vorbestimmten
Position. Verfahrenstechnisch bringt ein größeres dk1 als d deshalb keinen Vorteil, da dieser für die Aus
wertung sehr wichtige quantitative Zusammenhang verloren gehen kann. Außerdem muß im Fall mit ei
nem größeren dk1 - bei der Bewegung der leuchtenden Flächenelemente FEL mit der gleicher Geschwin
digkeit in z-Richtung wie für den Fall dk1 = d - die Kamera besonders schnell ausgelesen werden muß. Für
sehr viele größere Werte für dK1 als d weist dieses Verfahren die Merkmale eines Trägerfrequenzverfah
rens auf.
Das dargestellte Verfahrensmerkmal ist auch sehr geeignet für die Aufnahme mit zwei zentralperspektivi
schen Objektiven sein. Auch können die Hauptebenen derselben koinzidieren. Dabei ist das Empfänger-
Array vorzugsweise feststehend. Hierbei wird davon ausgegangen, daß leuchtende Flächenelemente FEL
der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise gleichbleibenden, relativen
Leuchtdichte sich nicht wirklich auf einer B-Strecke BSAj bewegen müssen, sondern die Verschiebungs
strecken VSBAj der leuchtenden Flächenelemente FEL schneiden nur zu einem Zeitpunkt ti, also kurzzei
tig die B-Strecken BSAj, wobei vor und nach diesem Zeitpunkt ti die Elemente des Empfänger-Arrays be
reits Licht detektieren, so daß sich leuchtende Flächenelemente FEL nur kurzzeitig auf den B-Strecken
BSAj befinden.
Ein zumindest näherungsweise kontinuierliches Verschieben bedeutet, eine Kurve oder eine Treppen
funktion um eine Strecke oder Gerade als mittlere Lage zu erzeugen. Das Verschieben von Orten kon
stanter, relativer Leuchtdichte einer Leuchtdichteverteilung bedeutet hier, daß vorzugsweise genau die
Orte verschoben werden, die eine bestimmte gleichbleibende relative Leuchtdichte aufweisen, beispiels
weise von 70%. Diese Orte mit einer relativen Leuchtdichte von 70% werden vorzugsweise entlang einer
Strecke verschoben und die Leuchtdichte bleibt dabei stets 70%, bezogen auf das gesamte leuchtende
Array oder einen Teilbereich desselben.
Aus dem Signalverlauf kann auch die mittlere Objektpunkthelligkeit und die Farbinformation bei Verwen
dung einer Farbkamera gewonnen werden. Dabei kann die Objektoberfläche mit weißem Licht oder mit
farbigem Licht beleuchtet werden.
Es ist weiterhin möglich, durch eine Verschiebung des Objektes oder eine schwingende Bewegung eine
Mittelwertbildung über einen beliebigen Oberflächenbereich durchzuführen und so einen Anfangsphasen
wert in jedem Element des Empfänger-Arrays zu bestimmen.
Weiterhin wird vorzugsweise ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vor
geschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchten
des Flächenelement FELj auf je einer B-Strecke BSAj positioniert wird. Die B-Strecken BSAj werden dabei
auf das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet, so daß der Konvergenz
punkt K1 zumindest annähernd im Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positio
niert ist. Weiterhin ist der Konvergenzpunkt K1 auch in der Pupillenebene des Beleuchtungsobjektivs posi
tioniert und so werden während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerele
ment und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest nähe
rungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert.
So kann aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes
FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet werden und so im Objektraum derarti
ge Paare von Bildern erzeugt werden und während des Verschiebungsvorganges der leuchtenden Flä
chenelemente FELjeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchten
den Flächenelement FELj im Objektraum einmal zumindest näherungsweise zur Koinzidenz gebracht
werden.
Hierbei ist der Fall mit zwei zentralperspektivischen Objektiven mit koinzidierenden Hauptebenen einge
schlossen. Dabei kann das Empfänger-Array feststehend und so eingestellt sein, daß der "durchlaufende"
Schärfebereich oder die Schärfeebene, des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebe
ne des Abbildungsobjektivs zusammenfällt. Dagegen ist es von Vorteil, wenn die "durchlaufende" Schär
feebene des Beleuchtungsobjektivs stets im durch starke Abblendung vergleichsweise groß gemachten
Tiefenschärfebereich des Abbildungsobjektivs verbleibt. Hierbei wird davon ausgegangen, daß die leuch
tenden Flächenelemente FEL der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise
gleichbleibenden, relativen Leuchtdichte sich wirklich auf einer B-Strecke bewegen, wobei diese B-
Strecke, wie alle B-Strecken in diesem Fall, auf das Pupillenzentrum PZOA im Array-Raum zielt.
Dieser Ansatz ist beispielsweise realisierbar mit elektronischen Gittern mit einer sehr hohen Pixelzahl,
beispielsweise von mindestens einer Million Pixeln. Elektronische Gitter können im Verschiebungsvorgang
kontinuierlich gedehnt oder gestaucht werden, um die Bedingung der Konvergenz des Streckenbündels
zu erfüllen. Im Ergebnis kann das Bild jedes leuchtenden Flächenelementes FELj zumindest näherungs
weise mit einem Bild eines Empfängerelementes zur Koinzidenz gebracht werden, so daß ein aktueller
Koinzidenzpunkt gebildet wird, der sich durch den Objektraum bewegt.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele
ment FEL zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion mit einer
zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke BSAj positio
niert wird. Dabei wird wobei der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Be
leuchtungsobjektivs im Objektraum und zusätzlich im Pupillenzentrum PZOA der Pupille eines Abbildungs
objektivs im Objektraum positioniert. Während des Verschiebungsvorganges werden jeweils ein Bild von
einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FEL im Objek
traum zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä
herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so zumindest zu diesem
Zeitpunkt ti werden aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flä
chenelementes FELjeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objek
traum derartige Paare mit fester Zuordnung erzeugt. Während des Verschiebungsvorganges der leuch
tenden Flächenelemente FEL werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild
von einem leuchtenden Flächenelement FELj im Objektraum genau einmal zumindest näherungsweise
zur Koinzidenz gebracht.
Die B-Strecken BSAj werden dabei parallel einer zu Geraden gAP positioniert, wobei die Gerade gAP den
Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg mit dem Betrag aus
dem Quotienten Abstand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum
von der Achse des Beleuchtungsobjektivs und der Brennweite fB des Beleuchtungsobjektivs aufweist, wo
bei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.
Es können zwei zentralperspektivische Objektive mit zueinander geneigten Achsen eingesetzt werden.
Das Empfänger-Array kann vorzugsweise feststehend und so eingestellt sein, daß die "durchlaufende"
Schärfeebene des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebene des Abbildungsobjek
tivs in einem Schnitt, zusammenfällt. Wenn das Abbildungsobjektivs stark abgeblendet wird, kann der
Tiefenbereich der 3D-Aufnahme vergleichsweise groß gemacht werden. Dieser Fall kann als ein Stan
dardfall mit einem starren Gitter angesehen werden.
Hierbei wird vorzugsweise davon ausgegangen, daß die leuchtenden Flächenelemente FEL von einem
Starrkörpergitter sich nicht wirklich auf einer B-Strecke bewegen müssen. Es ist möglich, daß sich die
Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL bei einem starren, beleuchteten
Gitter nur zu einem Zeitpunkt ti, also kurzzeitig, die B-Strecken BSAj, schneiden. Dabei detektieren die
Elemente des Empfänger-Arrays vorzugsweise sowohl vor als auch nach diesem Zeitpunkt ti Licht. So be
finden sich die leuchtende Flächenelemente FEL von Starrkörpergittern nur kurzzeitig auf den B-Strecke.
Der Vorteil liegt darin, daß so für die mechanische Verschiebung der Starrkörpergitter ein kürzerer Stell
weg realisiert werden kann. Dies dient der Erhöhung der Aufnahmegeschwindigkeit.
Für elektronisch steuerbare Gitter hat die Einschränkung der Detektion auf einen Bereich innerhalb des
Zeitintervalls Δti keine praktische Bedeutung, da diese "masselosen Gitter" stets so gesteuert werden
können, daß im gesamten Intervall Δti der Detektion die Bedingung der Koinzidenz der Strecken VSBAj
und BSAj ohne Probleme zu erfüllen ist. Damit kann grundsätzlich im Vergleich zu starren Gittern ohne die
Realisierung der Koinzidenz der Strecken VSBAj und BSAj, eine höhere relative Integrationszeit erreicht
werden. Dies setzt jedoch eine entsprechend hohe Dynamik der elektronischen Gitter voraus.
Hierbei können grundsätzlich für die strukturierte Beleuchtung der Objektoberfläche ein arrayseitig tele
zentrisches Objektiv und für die Abbildung derselben ein arrayseitig telezentrisches Objektiv eingesetzt
werden.
Um die Konvergenzbedingung zu erfüllen, kann in diesem Fall ein Starrkörper-Gitter verwendet werden,
da durch die Lage des Konvergenzzentrums K1 keine Dehnung im Array notwendig ist. Z. B. kann, um
Verschiebeweg für das Starrkörper-Gitter bei der Generierung von +270°-Phasenschritten für ein Sub-
Nyquist-Verfahren zu sparen, ein beleuchtetes Liniengitter in x-Richtung mit entgegengesetztem Rich
tungssinn verschoben werden, um dann -90°-Phasenschritte zu realisieren. Denn wie bereits ausgeführt,
nur zum Zeitpunkt der Detektion von Licht muß die Bedingung der Position des Gitters erfüllt sein. Die
kürzeren Verschiebungswege bringen, die hier im Beispiel nur ein Drittel betragen, eine höhere Dynamik.
Dieses Verfahren kann besonders vorteilhaft für eine Zeile, bzw. für einen eingeschränkten Tiefenbereich
eingesetzt werden. Der besondere Vorteil liegt in der einfachen Anordnung und im hohen Tiefenauflö
sungsvermögen, aufgrund des vergleichsweise großen Triangulationswinkels von beispielsweise 30°.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise die Verschiebungsstrecken VSBAj und die B-Strecken BSAj im Verschiebungsvorgang
zumindest näherungsweise im Zeitintervall Δtk koinzidieren, wobei das Zeitintervall Δtk zumindest die Län
ge des Zeitintervalls Δti und maximal die Länge des Zeitbereiches ΔtB aufweist. Während des Verschie
bungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem
leuchtenden Flächenelement FEL im Objektraum zumindest zeitweilig und zumindest näherungsweise
gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird aus dem Bild von einem Empfän
gerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein perma
nentes Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern er
zeugt.
Während des Verschiebungsvorganges im Zeitbereich ΔtB der leuchtenden Flächenelemente FEL werden
vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden
Flächenelement FELj im Objektraum zumindest näherungsweise einmal zur Koinzidenz gebracht, wobei
der Zeitbereich ΔtB größer als das Zeitintervall Δtk gemacht wird und das Zeitintervall Δtk in den Zeitbereich
ΔtB eingepaßt ist und die leuchtenden Flächenelemente in einer gerasterten Struktur mit äquidistanten
Abständen verschoben werden.
Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL sich wirklich auf einer B-
Strecke bewegen, und die Verschiebungsstrecken der leuchtenden Flächenelemente FEL mit den B-
Strecken BSAi. Dies ist mit einem beleuchteten Liniengitter zu realisieren. Natürlich kann auch ein elektro
nisches Gitter so angesteuert werden. Das Empfänger-Array kann dabei feststehen, so daß der Tiefen
meßbereich begrenzt ist. Durch die Wahl einer kleinen Blende für das Abbildungsobjektiv sind sehr viele
Meßaufgaben mit einem vergleichsweise großen Tiefenmeßbereich, bezogen auf den mittleren Abstand
des Meßvolumens von der 3D-Aufnahmeanordnung, lösbar. Da für das Beleuchtungsobjektiv eine sehr
große Blendenöffnung gewählt werden kann, wird die Szene gut strukturiert ausgeleuchtet, so daß das
Umgebungslicht weitgehend für die 3D-Aufnahme unschädlich ist.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise durch die Steuerung der Dauer eines jeden Zeitintervalls Δti und durch die Steuerung
der relativen Einschaltzeiten in Bezug zur Dauer eines jeden Zeitintervalls Δti der einzelnen leuchtenden
Flächenelemente FEL, die über die Objektoberfläche jeweils ein Empfängerelement beleuchten und durch
die Steuerung der Leuchtdichte der leuchtenden Flächenelemente, photometrisch der Fall der Verschie
bung von leuchtenden Flächenelementen mit einer zumindest näherungsweise gleichbleibenden, relativen
Leuchtdichte auf B-Strecken BSAj nachgebildet wird. So werden vorzugsweise effektiv leuchtende Flä
chenelemente FEL mit ihrem jeweiligen effektiven Schwerpunkt auf B-Strecken BSAj verschoben, wobei
der Konvergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs und im
Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positioniert ist, und die B-Strecken BSAj auf
das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet sind.
Es können zwei zentralperspektivische Objektive in einer Anordnung mit koinzidierenden Hauptebenen
eingesetzt werden. Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL auf
grund eines zu "groben" Rasters des strukturiert leuchtenden Arrays nicht genau genug auf einer B-
Strecke bewegen können, sondern erst in der photometrischen Wirkung eine bessere Annäherung er
reicht wird. So wird der Fall nachgebildet, daß sich zu einem Zeitpunkt die Verschiebungsstrecken der
leuchtenden Flächenelemente FEL mit den B-Strecken BSAj schneiden. Für vergleichsweise kleine Meß
volumina ist die kurze relative Detektionszeit kein Nachteil. Der besonders Vorteil besteht darin, daß ohne
ein "dehnbares", strukturiert leuchtendes Array benutzen zu müssen, der Fall der Verschiebung auf den
B-Strecken BSAj nachgebildet werden kann.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele
ment FELj eines strukturiert leuchtenden Arrays mit äquidistanten Abständen der leuchtenden Flä
chenelemente zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti mit einer zumindest
näherungsweise gleichbleibenden, relativen Leuchtdichte aufje einer B-Strecke BSAj positioniert wird. Da
bei wird der Konvergenzpunkt K1 mit dem Brennpunkt FOA mindestens eines Abbildungsobjektivs im Ob
jektraum zumindest annähernd zur Koinzidenz gebracht. Zumindest annähernd wird dabei eine geradlini
ge relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des
Abbildungsobjektivs durchgeführt und bei der Verschiebung werden mehrfach nacheinander Signalwerte
aus je einem einzelnen Empfängerelement ausgelesen und so wird je ein Signalverlauf mittels einem ein
zelnen Empfängerelement gebildet und bei Abbildung von mehrfach so erzeugten Verschiebungsstrecken
ASAj von Elementen des Empfänger-Arrays mit dem Abbildungsobjektiv wird aus deren Bildern im Objek
traum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im
Brennpunkt FOA des Abbildungsobjektivs gebildet. Die geradlinige Verschiebung des Empfänger-Arrays
wird parallel zur optischen Achse des Abbildungsobjektivs so durchgeführt, so daß während des Ver
schiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem
leuchtenden Flächenelement FELj im Objektraum zumindest zu einem Zeitpunkt ti innerhalb eines jeden
Zeitintervalls Δti zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj zur Koinzidenz
gebracht und verschoben werden und so aus dem Bild von je einem Element des Empfänger-Arrays und
dem Bild je eines leuchtenden Flächenelementes FELj jeweils zumindest zu diesem Zeitpunkt ti ein Paar
mit fester Zuordnung gebildet wird und so im Objektraum Paare von Bildern erzeugt werden.
Da jedes Element des Empfänger-Arrays die Gewinnung eines eigenen Signalverlaufs ermöglicht, ist die
Möglichkeit der Parallelverarbeitung mit einem Parallelrechner-System für die einzelnen Elemente eines
Empfänger-Arrays gegeben. Es besteht die Möglichkeit einer sehr hohen Verarbeitungsgeschwindigkeit.
Weiterhin ist das Erreichen eines sehr großen Tiefenmeßbereiches bei der 3D-Aufnahme möglich, da das
Empfänger-Array so nachgeführt wird, daß die Schärfeflächen im Objektraum gemäß der bekannten Ab
bildungsgleichungen zumindest näherungsweise zusammenfallen, beispielsweise bei einer Anordnung mit
parallelen Achsen der Objektive.
Es können je ein Bild eines leuchtenden Flächenelementes und je ein Bild eines Empfängerelementes in
der gesamten Tiefe des Raumes koinzidieren. Es muß jedoch keine permanente Koinzidenz zwischen
dem Bild eines leuchtenden Flächenelementes und dem eines Empfängerelementes bestehen.
Weiterhin kann auch das Abbildungsobjektiv relativ zum Empfänger-Array verschoben werden, beispiels
weise auch durch eine Innenfokussierung desselben. Deshalb kann es sich hierbei auch um eine relative
Verschiebung handeln.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils
ein Bild von einem Element eines Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flä
chenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke
BSAj permanent zur Koinzidenz gebracht und verschoben werden. Die permanente Koinzidenz führt zu
einem hohen relativen Detektionsverhältnis, beispielsweise von 90% bei 90°-Phasenschritten.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise der Konvergenzpunkt K1 des Streckenbüschels SB1 gemeinsam mit dem Konvergenz
punkt K2 des Streckenbüschels SB2 im Objektraum sowohl mit dem Brennpunkt FOA als auch mit dem
Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zumindest annähernd zur Koinzidenz gebracht
werden, wobei das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils arrayseitig zumindest nähe
rungsweise telezentrisch ausgeführt sind. Die leuchtenden Flächenelemente FEL werden zumindest an
nähernd parallel zu einer Geraden gA auf Verschiebungsstrecken VSBAj verschoben. Die Gerade gA
durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum. Für die Gerade gA ist der An
stieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand d des
Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea
lisiert, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch
tungsobjektivs bezogen ist und wegen der Telezentrie des Abbildungsobjektivs im Array-Raum in diesem
Fall die Gerade gA mit der Geraden gAP koinzidiert.
Dieses Verfahren ermöglicht die 3D-Aufnahme in einem sehr großen Tiefenmeßbereich, wobei eine An
ordnung mit parallelen und zumindest näherungsweise baugleichen Objektiven mit Vorteil gewählt werden
kann. Die detektierten Signale weisen bei einer Bewegung des strukturiert leuchtenden Arrays, beispiels
weise eines Liniengitters mit äquidistanten Linienabständen, eine konstante Frequenz auf. Die Schärfeflä
chen werden durch das synchrone Stellen des strukturiert leuchtenden Arrays und des Empfänger-Arrays
zur Koinzidenz gebracht. Dabei ist ein starre Kopplung des strukturiert leuchtenden Arrays und des Emp
fänger-Arrays von Vorteil.
Um für eine gute Ausleuchtung des Objektes ein Abbildungsobjektiv mit einer hohen relativen Öffnung
einsetzen zu können und dennoch eine große Tiefenausdehnung bei der 3D-Aufnahme erreichen zu kön
nen, wird eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil
dungsobjektivs durchgeführt. Bei der Verschiebung werden nacheinander Signalwerte aus einzelnen, ne
beneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen Signalwerten wird ein
Signalverlauf gebildet. Dabei werden zur Bildung eines einzelnen Signalverlaufes jedoch nur Elemente
ausgewählt aus deren Orten zumindest näherungsweise jeweils eine Strecke erzeugt werden kann, die im
Zentrum der Austrittspupille des Abbildungsobjektivs im Objektraum konvergiert. Die Abbildung dieser
Strecke mit dem Abbildungsobjektiv liefert ein Bild, welches zumindest annähernd zu einem zweiten
Streckenbüschel mit einem Konvergenzpunkt K2 der Strecken im Pupillenzentrum PZOA der Pupille des
Abbildungsobjektivs im Objektraum gehört. Dieses Verfahren führt zu einem Signal mit einer zuminde
stens näherungsweise konstanter Frequenz beim Verschieben des Liniengitters mit konstanter Ge
schwindigkeit in zA-Richtung.
Bei Objekten mit vergleichsweise großen Abmessungen und mit einer großen Tiefenausdehnung ist für
die technische Realisierung folgendes von Vorteil: Die strukturierte Beleuchtung erfolgt vorzugsweise mit
einem im Array-Raum telezentrischen Beleuchtungsobjektiv und einem beleuchteten Liniengitter sowie die
Abbildung mit einem im Array-Raum telezentrischen Abbildungsobjektiv. Für das Empfänger-Array wird
eine geradlinige Verschiebung parallel zur optischen Achse des Abbildungsobjektivs durchgeführt. So wird
für jedes Element des Empfänger-Arrays eine eigene Verschiebungsstrecke erzeugt. Bei Abbildung dieser
Verschiebungsstrecken mit dem Abbildungsobjektiv entsteht aus den Bildern dieser Verschiebungsstrec
ken ein zweites Streckenbüschel mit einem Konvergenzpunkt K2 der abgebildeten Strecken im Objek
traum im Brennpunkt FOA des Abbildungsobjektivs. Weiterhin werden der Konvergenzpunkt K1 und der
Brennpunkt FOA des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht,
so daß auch der Konvergenzpunkt K2 mit dem Konvergenzpunkt K1 zusammenfallen. Dabei wird der Kon
vergenzpunkt K1 der Strecken im Objektraum so gebildet, indem die Orte bestimmter relativer Leuchtdich
te des beleuchteten Liniengitters, beispielsweise die Maxima der Transmission des Liniengitters, auf Ver
schiebungsstrecken zumindest annähernd parallel zu einer Geraden gA verschoben werden. Die Gerade
gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum, wobei für die Gerade gA
der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des
Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea
lisiert wird, und dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch
tungsobjektivs bezogen ist. Da das Beleuchtungsobjektiv und das Abbildungsobjektiv vorzugsweise je
weils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sind, fallen im Objektraum der Brenn
punkt FOA und das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zusammen. So werden auch
der Konvergenzpunkt K1 und der Konvergenzpunkt K2 im zusammenfallenden Pupillenzentrum PZOA und
Brennpunkt FOA des Abbildungsobjektivs zur Koinzidenz gebracht. Weiterhin ist wesentlich, daß während
des gesamten Verschiebungsvorganges jeweils ein Bildelement eines Ortes bestimmter relativer Leucht
dichte des beleuchteten Liniengitters und jeweils ein Bildelement eines Elementes des Empfänger-Arrays
im Objektraum wenigstens näherungsweise zur Koinzidenz gebracht werden und so im Objektraum flä
chendeckend feste Paare von einander unveränderlich zugeordneten Bildelementen erzeugt werden. Dies
bedeutet, daß im Objektraum die Schärfeflächen des Beleuchtungs- und des Abbildungsobjektivs stets
zumindest teilweise koinzidieren. In den Elementen des Empfänger-Arrays können bei diesem Verfahren
periodische Signale mit einem Modulationsmaximum detektiert werden, aus denen die Information über
die absolute Phase eines Objektpunktes im Zusammenhang mit der Anordnung gewonnen werden kann.
Wenn das beleuchtete Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können bei der
Aufnahme in den Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten
Frequenz gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erhebli
chen Reduzierung der Rechenzeit führen.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise zumindest näherungsweise eine geradlinige Verschiebung des Empfänger-Arrays
durchgeführt wird und bei der Verschiebung nacheinander Signalwerte aus einzelnen, auch nebeneinan
der liegenden Elementen des Empfänger-Arrays ausgelesen werden und Signalverläufe auch durch ge
wichtete Summierung der Signale einzelner Elemente des Empfänger-Arrays, so daß Signale von virtuel
len Elementen gebildet werden. Zur Bildung eines einzelnen Signalverlaufes werden so Signalwerte von
virtuellen Elementen des Empfänger-Arrays verwendet, wobei diese virtuellen Elemente des Empfänger-
Arrays beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschie
bungsstrecke ASAj im Array-Raum liegen, deren Verlängerung das Zentrum der Austrittspupille des Abbil
dungsobjektivs schneidet. Bei Abbildung von mehrfach so erzeugten Strecken wird mit dem Abbildungsob
jektiv aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel mit einem
Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet und während
des Verschiebungsvorganges der Elemente des Empfänger-Arrays werden diese mehrfach nacheinander
ausgelesen.
Innerhalb des Verschiebungsvorganges werden vorzugsweise jeweils ein Bild von einem Element des
Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu
mindest während eines Zeitintervalls Δti innerhalb des Verschiebungsvorganges zumindest näherungs
weise zur Koinzidenz auf B-Strecken BSAj gebracht. So wird aus dem Bild von einem Empfängerelement
und dem Bild von einem leuchtenden Flächenelement FELj, welches auch als ein aktueller Koinzidenz
punkt angesehen werden kann, jeweils ein Paar mit fester Zuordnung gebildet und so werden im Objek
traum derartige Paare erzeugt.
Hier durch wird erreicht, daß bei Verwendung von Arrays mit großen Pixelzahlen ein effektiv leuchtendes
Flächenelement und ein virtuelles Empfängerelement so gebildet werden, daß diese für die Dauer eines
Zeitintervalls der Detektion von Licht von einem Element der Objektoberfläche im Objektraum koinzidie
ren. Das ist die Nachbildung des Falles, daß bei einer Anordnung mit zwei zumindest näherungsweise
baugleichen zentralperspektivischen Objektiven in paralleler Lage und mit koinzidierenden der Hauptebe
nen sowohl ein reales, leuchtendes Flächenelement FELj als auch ein reales Empfängerelement auf ei
ner Verschiebungsstrecke in Richtung des Pupillenzentrums des Abbildungsobjektivs bewegt werden.
Dies ist ein kostengünstiger Fall für die optischen Komponenten, da Standardobjektive eingesetzt werden
können.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie
bungsstrecken VSBAj durchgeführt werden und bei Abbildung der erzeugten, parallelen Verschiebungs
strecken VSBAj mit dem Beleuchtungsobjektiv aus deren Bildern zumindest näherungsweise mindestens
ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 im Objektraum im Brennpunkt FOB des Beleuch
tungsobjektivs gebildet wird. Zusätzlich eine geradlinige Verschiebung des Empfänger-Arrays, die syn
chronisiert mit den Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie
bungsstrecken VSBAj durchgeführt wird, werden während der Verschiebung nacheinander Signalwerte
aus einzelnen, nebeneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen wer
den Signalverläufe gebildet. Zur Bildung eines einzelnen Signalverlaufes werden nebeneinander liegende
Elemente des Empfänger-Arrays ausgewählt, deren Orte beim Verschieben des Empfänger-Arrays zu
mindest näherungsweise jeweils auf einer A-Strecke ASAj im Array-Raum liegen und die Verlängerung der
A-Strecke ASAj jeweils auf das Pupillenzentrum PZAB des Beleuchtungsobjektivs im Array-Raum zielt. Bei
Abbildung von mehrfach so erzeugten parallelen A-Strecken ASAj mit dem Abbildungsobjektiv wird aus de
ren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konver
genzpunkt K2 im Pupillenzentrum PZOB der Pupille des Beleuchtungsobjektivs gebildet. Die A-Strecken
ASAj werden parallel zu einer Geraden gAA ausgerichtet und die Gerade gAA schneidet den Brennpunkt FAA
des Abbildungsobjektivs im Array-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Ab
stand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des
Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs auf, wobei dieser Anstieg der Ge
raden gAA auf die Achse des Beleuchtungsobjektivs bezogen ist. Während des synchronisierten Verschie
bungsvorganges der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays werden
die Elemente des Empfänger-Arrays mehrfach nacheinander ausgelesen. Jeweils ein Bild von einem
Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Ob
jektraum werden innerhalb des Verschiebungsvorganges zumindest während eines Zeitintervalls Δti in
nerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz gebracht und so wird
aus dem Bild von einem des Empfängerelement und dem Bildpunkt jeweils ein verschiebbares Paar mit
fester Zuordnung gebildet und so werden im Objektraum verschiebbare Paare erzeugt.
Dabei kann die Geraden gAA den Durchstoßpunkt einer zur Achse des Beleuchtungsobjektivs parallelen
Geraden, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum enthält,
durch die array-seitige Hauptebene des Beleuchtungsobjektiv schneiden.
Dieser Ansatz stellt eine Möglichkeit für schnelle Überblicksmessungen ohne die Notwendigkeit der latera
len Verschiebung eines beleuchteten Liniengitters dar. Sowohl das beleuchtete Liniengitter als auch das
Empfänger-Array bewegen sich vorzugsweise synchron und parallel zu den parallelen Achsen der beiden
Objektive. Dabei koinzidieren die Schärfeflächen des Beleuchtungs- und des Abbildungsstrahlenganges
im Objektraum. Bei einem hochgeöffneten Abbildungsobjektiv ist die Verschmierung der Abbildung durch
das laterale Bewegen der Abbildungsstrahlen über die Objektoberfläche für eine Überblicksmessung in
der Regel zu tolerieren.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt
punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst
und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu
lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur
absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm
ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den
Geometriedaten der optischen Anordnung errechnet. Dadurch ergibt sich im Ergebnis dieser Rechenope
ration eine absolute Objektphase ϕObj für jeden Objektpunkt, die auf einen Referenzpunkt im Objektraum
bezogen ist, wobei Informationen aus dem Signalverlauf des zugehörigen Referenzpunktes abgespeichert
werden.
Dabei kann die Position der Referenzplatte zOR im Objektraum vor der Messung der Objektoberfläche
oder der Szenen zumindest im Nahbereich mehrfach gemessen werden und die gegebenenfalls ortsab
hängige Zuordnung der jeweiligen Phasenlage des Signals zum Modulationsmaximum bestimmt werden.
Dies stellt eine Möglichkeit dar, um Phasenkorrekturwerte zu gewinnen. Diese Veränderung der jeweiligen
Phasenlage des Signals zum Modulationsmaximum resultiert beispielsweise aus den ortsabhängigen
Verzeichnungen der Objektive. Dieser Phasengang wird in Abhängigkeit vom Ort bestimmt und für die
rechnergestützte Korrektur tabelliert. Weitere Details hierzu wurden bereits im ersten Teil der Offenbarung
dargestellt.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt
punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst
und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu
lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur
absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm
ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den
Geometriedaten der optischen Anordnung errechnet, wodurch sich im Ergebnis dieser Rechenoperation
eine absolute Objektphase ϕObj für jeden Objektpunkt ergibt, die auf einen Referenzpunkt im Objektraum
bezogen ist,
und aus dem Signalverlauf des zugehörigen Referenzpunktes der absolute Referenzphasenwert berech net und als absoluter Referenzphasenwert abgespeichert wird.
und aus dem Signalverlauf des zugehörigen Referenzpunktes der absolute Referenzphasenwert berech net und als absoluter Referenzphasenwert abgespeichert wird.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays
selbst so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden Ar
rays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe
eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums
errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des
verschobenen strukturiert leuchtenden Arrays zugeordnet werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe
renzgitters so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden
Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe
eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums
errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des
mitverschobenen Referenzgitters zugeordnet werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays
selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und
Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Refe
renzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π-Phasenlagen
vorzeichenrichtig zur ständig gemessenen absoluten Phase des verschobenen strukturiert leuchtenden
Arrays ϕR zugeordnet werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe
renzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays
und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Re
ferenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π-
Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des mitverschobenen Refe
renzgitters ϕR zugeordnet werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise zusätzlich über den Beleuchtungsstrahlengang eine Bildaufnahme des Objektes oder
der Szene mit einem zusätzlichen Empfänger-Array durchgeführt wird und die Bildelemente des zusätzli
chen Empfänger-Arrays dabei jeweils eine geradlinige Verschiebung im Array-Raum erfahren.
Die Realisierung einer zweiten Beobachtungsrichtung ermöglicht eine bessere Erfassung der Szene. So
kann die Schattenbildung verringert werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise zusätzlich eine Beleuchtung des Objektes oder der Szene durchgeführt wird mit einem
zusätzlichen, strukturiert leuchtenden Array mit leuchtenden Flächenelementen mit Extrema der Leucht
dichte und diese Extrema dabei jeweils parallel zu einer Geraden gAP2, die spiegelsymmetrisch zur Gera
den gAP ist, auf Verschiebungsstrecken im Array-Raum verschoben werden.
Die Realisierung einer zweiten Beleuchtungsrichtung ermöglicht eine bessere Ausleuchtung der Szene
und reduziert gegebenenfalls Schatten auf den Objektoberflächen.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian
te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Verschiebung des
strukturiert leuchtenden Arrays durch optische Kopplung mit einer gerasterten Struktur als Gegengitter
und einem Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase abgeleitet
wird.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian
te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Bewegung einer
starr mit dem strukturiert beleuchteten Array gekoppelten Referenzstruktur abgeleitet wird. Dabei ist die
ser ein Auswertesystem und ein Nullpunktgeber für die Berechnung der absoluten, lateral invarianten
Objektphase zugeordnet.
Der Referenzstruktur, beispielsweise am Umfang einer rotierenden Scheibe; ist vorzugsweise ein Auswer
tesystem und ein Nullpunktgeber zugeordnet, um die Information der Referenzstruktur auswerten zu kön
nen. So kann, von einem Nullpunkt beginnend, die absolute, lateral invarianten Objektphase bestimmt
werden. Aber es kann auch allgemein in grundsätzlich beliebigen Einheiten, beispielsweise in einer Län
geneinheit oder in der Form von Zählimpulsen, die Weginkremente verkörpern können, ein Referenzwert
gewonnen werden, welcher ein Äquivalent für die absolute, lateral invariante Objektphase darstellt.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise das Auslesen der Elemente des Empfänger-Arrays bei veränderlichen Werten der
Referenzphase mod 2π durchgeführt wird, also asynchron zur Referenzphase ϕGitter durchgeführt wird,
wobei der jeweils aktuelle Triggerimpuls für das Detektieren von Licht der Elemente des Empfänger-
Arrays im Zeitintervall Δti bei einer gegebenen präzisonsmechanisch-optischen Anordnung zur 3D-
Aufnahme sich in Abhängigkeit von deren Geometrie der Anordnung sowie der Lage der Konvergenz
punkte K1 und K2 und in Abhängigkeit vom aktuellen Wert der absoluten Referenzphase ϕGitter für jedes
Element berechnet wird und in einer Phasenkorrekturwert-Tabelle vorliegt. So wird in jedem Element des
Empfänger-Arrays ein Signalverlauf mit zumindest näherungsweise konstanter Ortsfrequenz erzeugt. Da
bei erfolgt das Auslesen der Elemente des Empfänger-Arrays in aufeinanderfolgend zumindest annähernd
gleichen Phasenschritten ΔϕEmpfänger der Phase ϕEmpfänger in jedem Element des Empfänger-Arrays und die
im Verhältnis zur Phasenschrittweite ΔϕEmpfänger selbst kleineren Abweichungen ΔΔϕ zwischen der Refe
renzphase und der in einem Element des Empfänger-Arrays sich ergebenden Phase ϕEmpfänger als von der
Referenzphase ϕGitter abhängige Phasenkorrekturwerte ΔΔϕ werden mindestens einmalig für jedes Ele
ment des Empfänger-Arrays errechnet. Diese von der Referenzphase ϕGitter abhängige Phasenkorrektur
werte ΔΔϕ und liegen so in einer Phasenkorrekturwert-Tabelle vor und werden gespeichert. Die Phasen
korrekturwerte ΔΔϕ werden sowohl für die Bestimmung des jeweiligen Abtastpunktes als auch bei der Be
rechnung der absoluten Phase verwendet. Weiterhin werden Verschiebungen der leuchtenden Flä
chenelemente FEL durchgeführt, wobei die Bilder der Verschiebungsstrecken VSBAj ein Streckenbüschel
SB1 mit einem Konvergenzpunkt K1 bilden.
Hierbei wird bei Kenntnis der Geometrie der Anordnung, der Lage der Konvergenzpunkte K1 und K2 und
der Kenntnis der Lage der realen Verschiebungsstrecken der Zeitpunkt des Abtastintervalls Δti verscho
ben, um zumindest annähernd ein Signal mit einer konstanten Frequenz zu erhalten, das sehr schnell
ausgewertet werden kann.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise leuchtende Flächenelemente FEL - und so auch leuchtende Flächenelemente FEL mit
lokalen Extrema der Leuchtdichte - im Array-Raum auf Verschiebungsstrecken VSBAj verschoben werden,
die mit den B-Strecken BSAj koinzidieren, und die B-Strecken BSAj mittels einer zweistufigen Abbildungs
stufe abgebildet werden. Gleichzeitig erfolgt die Detektion von Licht von den Elementen der Objektober
flächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays. Diese werden
ausgelesen und so wird jeweils ein Signalwert gewonnen und so wird jeweils ein leuchtendes Flä
chenelement FELj auf je einer B-Strecke BSAj positioniert, und die Bilder dieser B-Strecken BSAj werden
nach der ersten Abbildung mit einem Beleuchtungsobjektiv zu einem Streckenbüschel SB1 mit einem
Konvergenzpunkt K1 geformt und ein zum Konvergenzpunkt K1 optisch konjugierter Punkt K1konj wird in
den Objektraum in das Zentrum der Pupille PZOA des Abildungsstrahlenganges im Objektraum abgebildet.
Während des Verschiebungsvorganges von strukturiert leuchtendem Array und Empfänger-Array werden
jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtendes Flächenelement
konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche im Objektraum zumindest nähe
rungsweise gemeinsam auf das Bild einer B-Strecke BSAj gebracht und so werden aus dem Bild von ei
nem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils ein
Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt.
Bei diesem Verfahren ist der telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum ein
geschlossen, d. h. die Pupille im Objektraum kann jeweils auch im Unendlichen liegen. Die Beobachtung
kann mit einer Kamera von oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und
das Empfänger-Array bewegt werden, nicht jedoch ein Objekt. Dieses Verfahren ist deshalb beispielswei
se für das 3D-Aufnahmeverfahren bei chirurgischen Operationen geeignet, da der in sich bewegliche Pa
tient und auch das schwere 3D-Aufnahmegerät in Ruhe verbleiben können. Weiterhin ist von Vorteil, daß
bei einem telezentrischen Strahlengang die effektive Wellenlänge im gesamten Objektraum konstant ist.
Die leuchtenden Flächenelemente FEL können sich hierbei ständig auf den B-Strecken BSAj befinden.
Dabei sind keine Kenntnisse über die Lage und Form der Objektoberfläche notwendig, wenn ein großer
Tiefenbereich im Objektraum gewählt wird. Bei A-priori-Kenntnissen über die Lage und Grobform der Ob
jektoberfläche kann der Zeitbereich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist,
wo sich die Objektoberfläche befindet und die an die Objektoberfläche angrenzende Tangentialebene
zumindest näherungsweise senkrecht zur optischen Achse des Beleuchtungsobjektivs steht.
Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen
tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe
leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise die B-Strecken BSAj mittels eines afokalen Beleuchtungsstrahlenganges mit einem in
neren Brennpunkt FBi abgebildet werden und die Objektoberflächen mit einem afokalen Abbildungsstrah
lengang mit einem inneren Brennpunkt FAi abgebildet werden und im Objektraum der Brennpunkt des afo
kalen Beleuchtungsstrahlenganges und des afokalen Abbildungsstrahlenganges zusammenfallen. Gleich
zeitig erfolgt die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitin
tervalls Δti durch die Elemente des Empfänger-Arrays und diese werden ausgelesen und so wird jeweils
ein Signalwert gewonnen. Der Konvergenzpunkt K1 wird in einem Abstand dK1 von der optischen Achse
des Beleuchtungsobjektivs positioniert, wobei der Abstand dK1 dem halben Abstand vom inneren Brenn
punkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges
durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht. Dabei sind das Beleuch
tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil
dungsstufen zumindest näherungsweise telezentrisch ausgeführt. So werden leuchtende Flächenelemen
te FEL und so auch die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung mit lokalen Ex
trema der Leuchtdichte zumindest annähernd parallel zu einer Geraden gA auf Verschiebungsstrecken
VSBAj verschoben. Die Gerade gA durchstößt dabei den Brennpunkt FAB des Beleuchtungsobjektivs im Ar
ray-Raum und für die Gerade gA ist der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Be
leuchtungsobjektivs und Abstand dk1 realisiert, wobei der Anstieg auf die Hauptebene des Abbildungsob
jektivs bezogen ist. Zumindest annähernd wird eine geradlinige Verschiebung des Empfänger-Arrays
parallel zur optischen Achse des Abbildungsobjektivs mit der gleichen Geschwindigkeit wie das leuchten
de Array durchgeführt und bei der Verschiebung der beiden Arrays werden mehrfach nacheinander
Signalwerte aus je einem einzelnen Element des Empfänger-Arrays ausgelesen. So wird je ein Signalver
lauf aus einem einzelnen Element des Empfänger-Arrays gebildet und bei Abbildung mit einer Abbil
dungsstufe von mehrfach so erzeugten Verschiebungsstrecken von Elementen wird aus deren Bildern im
Raum nach der Abbildungsstufe zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem
Konvergenzpunkt K2 im inneren Brennpunkt FAi des Abbildungsobjektivs gebildet.
Während des Verschiebungsvorganges von einem strukturiert leuchtendem Array und einem Empfänger-
Array werden vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem
leuchtenden Flächenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild
BSOj einer B-Strecke BSAj zur Koinzidenz gebracht und gemeinsam verschoben. So wird aus dem Bild von
einem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils
ein Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern ver
schoben.
Dieses Verfahren stellt den telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum dar,
d. h. die Pupille im Objektraum liegt jeweils im Unendlichen. Die Beobachtung kann mit einer Kamera von
oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und das Empfänger-Array bewegt
werden müssen. Die leuchtenden Flächenelemente FEL befinden sich vorzugsweise ständig auf den B-
Strecken BSAj. Dabei sind keine Kenntnisse über die Lage und die Form der Objektoberfläche notwendig.
Bei A-priori-Kenntnissen über die Lage und Grobform der Objektoberfläche kann in der Regel der Zeitbe
reich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist, wo sich die Objektoberfläche
befindet.
Der Abstand dK1 entspricht dem halben Abstand vom inneren Brennpunkt FBi der afokalen Abbildungsstu
fe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene Fi des
Beleuchtungsstrahlenganges. Dies ist gleichbedeutend mit der Tatsache, daß der Konvergenzpunkt K1 im
Durchstoßpunkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbil
dungsstrahlenganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt.
Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen
tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe
leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise die Elemente des Empfänger-Arrays im Aufnahmevorgang Licht von den Elementen
der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und die zwei Empfänger-
Arrays, die zur Aufnahme der strukturiert beleuchteten Objektoberflächen in einer Szene im Objektraum
verwendet werden, beim Aufnahmevorgang gleichzeitig im Array-Raum auf Verschiebungsstrecken ASA1
und ASA2 verschoben werden, die einen Winkel zueinander aufweisen.
Dabei sind für die 3D-Aufnahme des Hintergrundes der Szene mindestens zwei Abbildungsstrahlengänge
für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbildungsstrah
lengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet, wobei die
Abbildungsobjektive räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv mit
mindestens je einem Empfänger-Array mit Elementen oder einem Bild desselben zugeordnet ist. Die
Brennebenen der Abbildungsstrahlengänge schneiden sich im Objektraum, wobei die Schnittgerade SG
senkrecht auf der Symmetrielinie SL im Hauptschnitt steht, und die Bilder der Verschiebungsstrecken
ASA1 und ASA2 die Strecken ASO1 und ASO1, annähernd auf der Symmetrielinie zwischen den beiden Ach
sen der Objektive zur Konvergenz gebracht werden und dort in einem Koinzidenzpunkt K0 konvergieren.
Im Konvergenzpunkt K0 werden das Streckenbüschel S21 der Bilder der Verschiebungsstrecken ASA1j der
einzelnen Elementes des ersten Empfänger-Arrays, die Strecken ASO1j, mit dem Konvergenzpunkt K21
und das Streckenbüschel S22 der Bilder der Verschiebungsstrecken ASA2j der einzelnen Elementes des
zweiten Empfänger-Arrays, der Strecken ASO2j, mit dem Konvergenzpunkt K22 zur Koinzidenz gebracht.
Die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfän
ger-Arrays werden im Objektraum für den Zeitbereich ΔtB paarweise zumindest näherungsweise zur Ko
inzidenz gebracht und die paarbildenden Elemente der beiden Empfänger-Arrays stellen jeweils korre
spondierende Elemente dar.
Die Signalverläufe S1 des ersten Empfänger-Arrays werden durch Auslesen von je einem Element wäh
rend der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und die
Verschiebung des ersten Empfänger-Arrays wird parallel zu einer Geraden gA1P durchgeführt und so wer
den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf
Verschiebungsstrecken ASA1j verschoben. Die Signalverläufe S2 des zweiten Empfänger-Arrays werden
durch Auslesen von je einem Element während der Verschiebung des zweiten Empfänger-Arrays auf der
Verschiebungsstrecke AS2j gebildet und die Verschiebung des zweiten Empfänger-Arrays erfolgt gleich
zeitig mit der des ersten Empfänger-Arrays und die Verschiebung des zweiten Empfänger-Arrays wird
parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfänger-Arrays
zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben. Die
Gerade gA1P wird in einem Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum und die
Gerade gA2P wird in einem Punkt PA2 in der Hauptebene des Abbildungsobjektivs zum Schnitt gebracht,
wobei zusätzlich die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs enthält und die Ge
rade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im A 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880rray-Raum enthält. Dabei liegt der Punkt PA1
im Durchstoßpunkt einer Geraden durch die Hauptebene des ersten Abbildungsobjektivs im Array-Raum,
die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält. Der
Punkt PA2 liegt im Durchstoßpunkt einer Geraden durch die Hauptebene des zweiten Abbildungsobjektivs
im Array-Raum, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0
enthält.
Bei Schärfeeinstellungen auf eine große Entfernung von der 3D-Aufnahmeanordnung, dies entspricht ei
ner Positionierung der leuchtenden Flächenelemente FEL der strukturierten Beleuchtung in der Nähe der
Brennebene des Beleuchtungsobjektivs im Array-Raum, beispielsweise auf den Hintergrund einer Szene,
können die abgebildeten leuchtenden Flächenelemente FEL der strukturierten Beleuchtung nicht mehr
detektiert werden. Die gegebene Beleuchtung und die strukturierte Beleuchtung, wenn diese noch einen
detektierbaren Beitrag leistet, werden ohnehin vermischt. So kann die absoluten Phaseabs nicht mehr zu
verlässig bestimmt werden. Hier kommt deshalb vorzugsweise dieses nachstehend Auswerteverfahren
zur Anwendung.
Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch
selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen
Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be
sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je
weils zugehörigen Elementes der Objektoberfläche bestimmt werden.
Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger-
Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners
abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar,
deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt koinzidieren. So
bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemein
samen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender Elemente.
Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde
stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei
ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und S2j
entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j und S2j
aus den Fenstern gebildet. Vorteilhaft sind Fensterlängen mit einer Länge von beispielsweise 8 oder 16
Signalwerte, andere, auch größere Werte sind möglich.
Es erfolgt synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem In
krement der Verschiebung der Empfänger-Arrays entspricht, über jeden dieser beiden Signalverläufe S1j
und S2j und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, wird je ein Signalstück
S1 teil Position k j und S2 teil Position k j gebildet.
Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je
dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der
beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be
gonnen wird.
Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und
S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke
invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal-
Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre
lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.
Die Invertierung ist notwendig um korrelierbare Signale zu erhalten, da die Abbildungsstrahlen der Ele
mente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest
näherungsweise gleichen Ausschnitt der Szene im Verschiebungsvorgang entlang einer Spur gegensinnig
bewegen, also beispielsweise aufeinander zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D-
Aufnahmeanordnung.
Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er
folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke
das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis
die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom
men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m be
stimmt wird. Aus den m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei in die
ser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt wird
und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und damit
dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete Maxi
malwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann eine
Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der
weiteren Verarbeitung ausgeschlossen werden. Das Maximum der Maximalwert-Kurve kann auch über
eine Schwerpunktbildung erfolgen. Dabei können Interpolationsmethoden angewendet werden.
So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren
den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array-
Raum definiert.
Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der
Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch
die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D-
Aufnahmeanordnung bekannten ist. So können die Positionen von den Elementen einer Objektoberfläche,
von welchen Signalverläufe aufgenommen werden können, berechnet werden, wobei die Geometrie der
3D-Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschie
bung, der beiden Empfänger-Arrays vorbestimmt sind.
Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion
aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur
venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge
ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort
des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In
terpolationsmethoden angewendet werden.
Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei
stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objekt
oberfläche bezeichnet werden. Es wird darauf in der Offenbarung unter dieser Bezeichnung auf dieses
Korrelationsverfahren mit zwei gefensterten Signalverläufen noch weiter Bezug genommen.
Weiterhin werden vorzugsweise für die Bestimmung der mittleren Beleuchtungsstärke von Elementen der
Objektoberfläche zumindest die Elemente des Empfänger-Arrays im Verschiebungsvorgang der Empfän
ger-Arrays ausgelesen, die im Verschiebungsvorgang zumindest näherungsweise je auf einer Strecke lie
gen im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist.
Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL und die der Empfänger-
Arrays an einen anderen Ort kann mit mechanischen oder mit mikromechanischen Mitteln erfolgen.
Die beiden Achsen der Abbildungsobjektive können zueinander geneigt sein. Bei einer parallelen Anord
nung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der Punkt PA2 im Punkt PA zu
sammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen der Empfänger-Arrays
übereinstimmen und die Abbildungsobjektive zumindest näherungsweise baugleich sind und die Empfän
ger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befinden bilden alle Elemente der
beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Verschiebungen der beiden Emp
fänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bilder ASO1 und ASO2 im Objek
traum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y-Verfahren gesprochen werden
kann.
Bei der Bestimmung der 3D-Punktwolke kann im Vordergrund der Szene das bereits beschriebene Ver
fahren mit der Verschiebung der leuchtenden Flächenelemente FEL und der Bestimmung der absoluten
Phase eingesetzt werden. Für den Hintergrund wird das soeben beschriebene Korrelationsverfahren ein
gesetzt. Es ist dabei ein Übergangsbereich notwendig. Gegebenenfalls müssen die Verfahren zeitlich
nacheinander angewendet werden, um einen Übergangsbereich ohne Informationsverluste überbrücken
zu können. Dies ist notwendig, da bei dem Verfahren zur Bestimmung der absoluten Phase sich in der
Regel die Elemente des Empfänger-Arrays auf ASAj-Strecken, also parallel zu den Achse des jeweiligen
Abbildungsobjektivs bewegen. Dagegen erfolgt die Verschiebung der Empfänger-Arrays beim 3D-Y-
Verfahren vorzugsweise auf anderen Strecken, den beiden oberen Y-Ästen. Dies erfordert eine jeweils
andere mechanische Bewegung und somit auch der Steuerung der Empfänger-Arrays. Für das 3D-Y-
Verfahren mit der beschriebenen Bestimmung des Korrelationsmaximums Mj findet die Verschiebung der
leuchtenden Flächenelemente FEL auf Strecken parallel zu der Achse des jeweiligen Beleuchtungsobjek
tivs statt.
Im phasenauswertenden Verfahren kann aus dem Signalverlauf, der von einem Element der Objektober
fläche gewonnen werden kann, die mittlere Beleuchtungsstärke eines Elementes der Objektoberfläche
und auch gegebenenfalls dessen Farbe, durch den Einsatz farbsensitiver Elemente des Empfänger-
Arrays aus dem detektierten Signalverlauf bestimmt werden. Dies ist für das hier beschriebene Korrelati
onsverfahren jedoch nicht ohne weiteres möglich, da ein verschobenes Element des Empfänger-Arrays
nicht an einen ortsfesten Abbildungsstrahl gebunden ist, sondern an einen Abbildungsstrahl, der über die
Objektoberfläche "wandert", beziehungsweise an unterschiedliche Abbildungsstrahlen von verschiedenen
Elementen der Objektoberfläche oder der Szene.
Deshalb werden zusätzlich für das Korrelationsverfahren zur Bestimmung der mittleren Beleuchtungsstär
ke von Elementen der Objektoberfläche vorzugsweise genau die Elemente des Empfänger-Arrays im
Verschiebungsvorgang der Empfänger-Arrays ausgelesen, die zumindest näherungsweise je auf einer
Strecke im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist,
wobei ein ortsfester Abbildungsstrahl im Objektraum durch ein feststehendes Element der Objektoberflä
che oder der Szene und das Pupillenzentrum des zugehörigen Abbildungsobjektivs vorbestimmt ist. Das
heißt, bereits vor und nach dem Durchgang der Schärfevolumens durch die Elemente der Objektoberflä
che wird von einem Element derselben mindestens ein Signalwert gewonnen. So kann der Einfluß des
strukturierten Lichtes in den Elementen der Objektoberfläche durch dessen unscharfe Abbildung für die
Bestimmung der mittleren Beleuchtungsstärke eliminiert werden und so auch die Farbe, beziehungsweise
die spektrale Zusammensetzung des reflektierten Lichtes von einem Element der Objektoberfläche be
stimmt werden. So kann auch von einer Freiraumszene mit einem Vordergrund die 3D-Punktwolke be
stimmt werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise die Gerade gA1P in einem Punkt PA in der Hauptebene des Abbildungsobjektivs und im
Durchstoßpunkt der Symmetrielinie SL im Array-Raum und die Gerade gA2P im gleichen Punkt PA zum
Schnitt gebracht werden, wobei die optischen Achsen der beiden Abbildungsstrahlengänge parallel ange
ordnet sind, und die Gerade gA1P zusätzlich den Brennpunkt FA1 des ersten Abbildungsobjektivs und die
Gerade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum enthalten.
Bei dieser parallelen Anordnung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der
Punkt PA2 im Punkt PA zusammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen
der Empfänger-Arrays übereinstimmen sowie die Abbildungsobjektive zumindest näherungsweise bau
gleich sind und die Empfänger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befin
den, bilden alle Elemente der beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Ver
schiebungen der beiden Empfänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bil
der ASO1 und ASO2 im Objektraum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y-
Verfahren gesprochen werden kann.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise die Empfängerelemente im Aufnahmevorgang Licht von den Elementen der strukturiert
beleuchteten Objektoberflächen im Objektraum detektieren und beim Aufnahmevorgang die zwei Emp
fänger-Arrays gleichzeitig und parallel zu jeweiligen optischen Achsen der parallelen Abbildungsobjektive,
deren Hauptebenen zusammenfallen, verschoben werden. Dabei sind für die 3D-Aufnahme des Hinter
grundes der Szene mindestens zwei parallele, zumindest näherungsweise baugleiche Abbildungsstrah
lengänge für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbil
dungsstrahlengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet
und die Abbildungsobjektive weisen räumlich getrennten Öffnungsblenden auf. Jedem Abbildungsobjektiv
ist mindestens je ein Empfänger-Array mit Elementen oder ein Bildes desselben zugeordnet und das Si
gnal S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung
des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß es dem bei einer realen
Verschiebung parallel zu einer Geraden gA1P entstehenden Signal S1 zumindest annähernd entspricht,
und das Signal S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der
Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß dieses
Signal S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zu
mindest annähernd entspricht. Die Gerade gA1P wird in einem Punkt PA in der Hauptebene des ersten
Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird im gleichen Punkt PA in der Hauptebene
des zweiten Abbildungsobjektivs, die mit der Hauptebene des ersten Abbildungsobjektivs zumindest nä
herungsweise zusammen fällt, zum Schnitt gebracht und zusätzlich enthält die Gerade gA1P den Brenn
punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P enthält den Brennpunkt FA2 des Abbil
dungsobjektivs im Array-Raum, wobei Verschiebungen der leuchtenden Flächenelemente FEL durchge
führt werden und die zugehörigen Verschiebungsstrecken VSBAj parallel zur Symmetrielinie SL der beiden
optischen Achsen ausgerichtet sind und der Punkt PA im Durchstoßpunkt der Symmetrielinie SL durch die
zusammenfallenden Hauptebenen der beiden Abbildungsobjektive liegt. Aus den Bildern der Verschie
bungsstrecken VSBAj wird ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 auf der Symmetrielinie
SL gebildet, der mit dem Konvergenzpunkt K0 zusammenfällt.
Der Vordergrund der Szene wird strukturiert beleuchtet. Der entfernte Hintergrund der Szene wird nicht
mehr von der strukturiert leuchtenden Flächenelementen ausgeleuchtet. Hier wird anstelle der Bestim
mung absoluten Phase ϕabs dann das Korrelationsprinzip zur Bestimmung der zO-Positionen der Elemente
der Objektoberlläche angewendet. Von Vorteil ist, daß keine laterale Bewegung der leuchtenden Flä
chenelemente notwendig ist. Dieses Verfahren ist auch für eine Freiraumszene geeignet.
Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebe
ne des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So können der Punkt PA1 in
der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in
der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden
Punkte PA1 und PA2 zur Koinzidenz gebracht werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL
relativ zum Beleuchtungsobjektiv verschoben werden und dabei zumindest zu einem Zeitpunkt ti innerhalb
des Zeitintervalls Δti stets auf einer B-Strecke BSAj positioniert werden, wobei die B-Strecken die Sollorte
für die leuchtenden Flächenelemente FEL zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti
darstellen und die B-Strecken die Achse des Beleuchtungsobjektivs stets unter einem rechten Winkel
schneiden. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden
Flächenelemente werden jeweils genau ein Bild von einem feststehenden Element eines feststehenden
Empfängers und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu
mindest zu einem einzigen Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä
herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird zumindest zu diesem
Zeitpunkt ti aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelemen
tes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet. Der Zeitpunkt ti für mindestens ein
Element eines Empfänger-Arrays wird aus dem Durchgang mindestens eines leuchtenden Flächenele
mentes durch einen vorbestimmten Referenzort abgeleitet. Die Elemente des Empfänger-Arrays detektie
ren im Zeitintervall Δti der Koinzidenz einen periodischen Signalverlauf und die Phase diese Signalverlau
fes wird in Bezug zur Phase am Referenzort ausgewertet.
Dies ist ein Ansatz, bei dem nur der vorhandene Schärfentiefebereich im Abbildungsstrahlengang ausge
nutzt wird. Es erfolgt keine Verschiebung der leuchtenden Flächenelemente FEL und der Elemente des
Empfänger-Arrays in zA-Richtung im Array-Raum. Dieses Verfahren ermöglicht die Detektierung einer sich
schnell ändernden Form einer Objektoberfläche oder deren Verformung, beziehungsweise die Detektion
von Schwingungen der Elemente einer Oberfläche.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise mit einer von einer Strahlungsquelle beleuchteten Objektoberflächen mit einem ersten
und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse eines ersten Abbildungsobjek
tivs für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungsobjektivs für die
Abbildung der Objektoberflächen ausgerichtet ist, und so zwischen den beiden Achsen der beiden Abbil
dungsobjektive eine Symmetrielinie SL gebildet ist. Jedem Abbildungsstrahlengang ist mindestens ein zu
geordneten Empfänger-Array zugeordnet und die beiden Empfänger-Arrays weisen jeweils Empfängere
lemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Ob
jektoberflächen im Objektraum detektieren und
die beiden Abbildungsobjektive weisen mindestens einen Abstand d von einem Achtel der Ausdehnung der Öffnungsblende des ersten Abbildungsobjektivs auf und die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine Verschiebung an einen anderen Ort. So werden auch die einzelnen Empfängerelemente verschoben und so detektieren die Empfängerelemente dabei an unter schiedlichen Orten elektromagnetische Strahlung. Zumindest näherungsweise erfolgt gleichzeitig die De tektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays und die Elemente des Empfänger-Arrays werden anschließend ausgele sen, wobei jeweils Signalwerte gewonnen werden.
die beiden Abbildungsobjektive weisen mindestens einen Abstand d von einem Achtel der Ausdehnung der Öffnungsblende des ersten Abbildungsobjektivs auf und die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine Verschiebung an einen anderen Ort. So werden auch die einzelnen Empfängerelemente verschoben und so detektieren die Empfängerelemente dabei an unter schiedlichen Orten elektromagnetische Strahlung. Zumindest näherungsweise erfolgt gleichzeitig die De tektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays und die Elemente des Empfänger-Arrays werden anschließend ausgele sen, wobei jeweils Signalwerte gewonnen werden.
Die optischen Achsen der beiden Abbildungsstrahlengänge sind vorzugsweise parallel angeordnet. Es ist
vorzugsweise eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und gege
benenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei
raumszene, gegeben.
Beim Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen op
tischen Achsen der Abbildungsstrahlengänge, deren Brennebenen im Objektraum zusammenfallen, auf
Verschiebungsstrecken ASA1 und ASA2 verschoben. Die Bilder der Verschiebungsstrecken ASA1 und ASA2,
die Strecken ASO1 und ASO2, werden im Objektraum zumindest annähernd auf der Symmetrielinie zwi
schen den beiden Achsen der Objektive positioniert.
Aus dem Streckenbüschel SB21 der Bilder der Verschiebungsstrecken ASA1j der einzelnen Elementes des
ersten Empfänger-Arrays, die Strecken ASO1j wird ein Konvergenzpunkt K21 gebildet und aus dem Strec
kenbüschel SB22 der Bilder der Verschiebungsstrecken AS2j der einzelnen Elementes des zweiten Emp
fänger-Arrays, die Strecken ASO2j, wird ein Konvergenzpunkt K22 gebildet und der Konvergenzpunkt K22
und der Konvergenzpunkt K22 werden auf der Symmetrielinie SL zur Koinzidenz gebracht und bilden auf
der Symmetrielinie SL den Konvergenzpunkt K0 und die beiden Empfänger-Arrays werden so verschoben,
daß deren Bilder zumindest teilweise im Objektraum zusammenfallen, so daß die Bilder der Elemente des
ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfänger-Arrays im Objektraum
paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemen
te der beiden Empfänger-Arrays jeweils korrespondierende Elemente darstellen. So wird vorzugsweise
jeweils ein aktueller Koinzidenzpunkt aus diesen zwei Bildern von Elementen gebildet, der durch den Ob
jektraum verschoben wird. Dies erfolgt vozugsweise mit allen Elementen der Empfänger-Arrays. Es wer
den vorzugsweise Signalverläufe S1 des ersten Empfänger-Arrays durch Auslesen der Elemente während
der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und es wird
die Verschiebung des ersten Empfänger-Arrays parallel zu einer Geraden gA1P durchgeführt und so wer
den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf
Verschiebungsstrecken ASA1j verschoben.
Weiterhin werden Signalverläufe S2 des zweiten Empfänger-Arrays durch Auslesen der Elemente wäh
rend der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke ASA2j gebildet und
die Verschiebung des zweiten Empfänger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so
werden die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA2P
auf Verschiebungsstrecken ASA2j verschoben, wobei die Verschiebung des zweiten Empfänger-Arrays
zumindest näherungsweise gleichzeitig mit der des ersten Empfänger-Arrays erfolgt. Die Gerade gA1P wird
in einem Punkt PA1 auf der Symmetrielinie SL und in der Hauptebene des ersten Abbildungsobjektivs im
Array-Raum und die Gerade gA2P wird in einem Punkt PA2 auf der Symmetrielinie SL und in der Hauptebe
ne des zweiten Abbildungsobjektivs zum Schnitt gebracht, wobei die Gerade gA1P zusätzlich den Brenn
punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjek
tivs im Array-Raum enthält.
Aus den beiden Signalverläufen S1j, S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger-
Arrays wird durch das vordem bereits beschriebene Korrelationsverfahren mit zwei gefensterten Signal
verläufen und einem dabei invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der
Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung be
rechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von Objektober
flächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Ver
schiebungen der Empfänger-Arrays vorbestimmt sind.
Bei der Verschiebung der Empfänger-Arrays kann es sich um eine elektronisch gesteuerte, mechanische
Bewegung handeln. Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array-
Raum und die Hauptebene des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So ist
gegeben, daß der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symme
trielinie SL liegt und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrie
linie SL liegt und so die beiden Punkte PA1 und PA2 in einem Punkt PA zur Koinzidenz gebracht werden.
Hierbei handelt es sich um das 3D-Y-Verfahren mit einer realen Verschiebung der beiden Empfänger-
Arrays auf ASA1- und ASA2-Strecken, also auf den beiden oberen Y-Ästen. So kann von Freiraumszenen
bei Tageslicht - einschließlich direktem Sonnenlicht - von Objektoberflächen auch im Hintergrund der
Szene die 3D-Punktwolke gewonnen werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise beleuchtete Objektoberflächen mit einem ersten und mindestens einem zweiten Abbil
dungsstrahlengang abgebildet werden. Dabei ist die Achse eines ersten Abbildungsobjektivs im Abbil
dungsstrahlengang für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungs
objektivs im Abbildungsstrahlengang für die Abbildung der Objektoberflächen ausgerichtet. So ist zwi
schen den beiden Achsen der beiden Abbildungsobjektive eine Symmetrielinie SL gebildet.
Jedem Abbildungsstrahlengang ist mindestens je ein Empfänger-Array zugeordnet und die beiden Emp
fänger-Arrays weisen jeweils Elemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den
Elementen der beleuchteten Objektoberflächen im Objektraum detektieren, und die beiden Abbildungsob
jektive weisen einen Abstand d des Pupillenzentrums PZOB des ersten Abbildungsobjektivs vom Pupillen
zentrum PZOA des zweiten Abbildungsobjektivs im Objektraum von mindestens einem Achtel der Ausdeh
nung der Öffnungsblende des ersten Abbildungsobjektiv auf.
Die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine elektronisch ge
steuerte, mechanische Verschiebung im array-Raum und so werden auch die einzelnen Empfängerele
mente verschoben und so detektieren dabei die Empfängerelemente an unterschiedlichen Orten elektro
magnetische Strahlung.
Die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti
durch die Elemente des Empfänger-Arrays erfolgt zumindest näherungsweise gleichzeitig. Die Elemente
des Empfänger-Arrays werden anschließend ausgelesen, und es werden jeweils Signalwerte gewonnen
und im Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen
optischen Achsen der parallelen, zumindest näherungsweise baugleichen Abbildungsstrahlengänge, de
ren Hauptebenen zusammenfallen, verschoben, wobei die Objektoberflächen in der Szene beleuchtet
sind.
Der Signalverlauf S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen des ersten
Empfänger-Arrays während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen
Achsen so gebildet, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung benutzt
werden, die auf Strecken ASA1 liegen, die parallel zu einer Geraden gA1P ausgerichtet sind und die den
Punkt PA1 in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet. So entspricht der gebilde
te Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden gA1P entstehenden Signal
verlauf S1 zumindest annähernd und der Signalverlauf S2z wird durch Auslesen von lateral nebeneinander
liegenden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger-
Arrays in Richtung der optischen Achsen so gebildet, daß jeweils genau die Elemente des Empfänger-
Arrays zur Signalbildung benutzt werden, die auf Strecken ASA2 liegen, die parallel zu einer Geraden gA2P
ausgerichtet sind und die den Punkt PA2 in der gemeinsamen Hauptebene der Abbildungsobjektive
schneidet.
So entspricht der gebildete Signalverlauf S2z dem bei einer realen Verschiebung parallel zu einer Geraden
gA2P entstehenden Signal S2 zumindest annähernd. So wird zumindestens jeweils zu einem Zeitpunkt ti in
einem Zeitintervall Δti ein aktueller Koinzidenzpunkt von Elementen der beiden Empfänger-Arrays gebil
det, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektrau
mes gebildet wird.
Die Gerade gA1P wird in einem Punkt PA1 im Durchstoßpunkt der Symmetrielinie SL durch die Hauptebene
des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 im Durch
stoßpunkt der Symmetrielinie SL durch die Hauptebene des zweiten Abbildungsobjektivs zum Schnitt ge
bracht und zusätzlich enthält die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs und die
Gerade gA2P enthält den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum.
Aus den beiden Signalverläufen S1j, S2j von zwei zumindestens jeweils zu einem Zeitpunkt korrespondie
renden Elementen der Empfänger-Arrays wird durch das vordem bereits beschriebene Korrelationsverfah
ren mit zwei gefensterten Signalverläufen und einem dabei invertierten Signalverlauf zur Bestimmung der
zO-Position eines Elementes der Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objek
toberfläche berechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von
Objektoberflächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt
und die Verschiebungen der Empfänger-Arrays vorbestimmt sind.
Die optischen Achsen der beiden Abbildungsstrahlengänge sind auch in diesem Fall vorzugsweise paral
lel angeordnet. Es ist eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und
gegebenenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei
raumszene, gegeben.
Die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebene des Abbildungsobjektivs
können in einer gemeinsamen Ebene zusammenfallen. So kann der Punkt PA1 in der Hauptebene des
Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in der Hauptebene des
Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden Punkte PA1 und PA2 in ei
nem Punkt PA zur Koinzidenz gebracht werden. Auch kann es sich bei der Verschiebung der Empfänger-
Arrays um eine elektronisch gesteuerte, mechanische Bewegung handeln.
Es erfolgt keine reale Verschiebung der beiden Empfänger-Arrays auf den oberen Y-Ästen, sondern eine
Verschiebung parallel zu den optischen Achsen der beiden Abbildungsobjektive. So wird durch das Aus
leseverfahren der Elemente der Fall des Bewegens auf den oberen Y-Ästen nachgebildet.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdich
te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä
chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem
dreifachen Streifenabstand der einzelnen verschiedenfarbigen Flächenelemente entspricht.
Nach einem Zeitbereich, der zumindest näherungsweise dem Zeitbereich ΔtB entspricht, wird das struktu
riert farbig leuchtende Array um den 1,5fachen Abstand der einzelnen farbigen Flächenelemente, dies
entspricht der halben Wiederholungsperiode WP lateral weiterverschoben, wobei Elemente des Empfän
ger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL
abgestimmt sind.
Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö
sung, da durch die in der Regel höhere Anzahl von lichtempfindlichen Elementen bei farbsensitiven Emp
fänger-Arrays, eine grundsätzlich höhere Streifendichte verwendet werden kann, wenn jedes leuchtende
Flächenelement FELj in einer Richtung als Farbstreifen einzeln gezählt wird. Es werden die Signale in
den einzelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektier
tes Element einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielswei
se in der Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf.
Die zu diesem rotempfindlichen Element unmittelbar benachbarten Elemente mit einer nicht rotempfindli
chen Charakteristik registrieren dann nur ein sehr schwaches oder gar kein Signal.
Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den vorzugsweise
1,5fachen Abstand der einzelnen farbigen Flächenelemente wird erreicht, das die zuvor nicht vom einer
vorbestimmten Farbe ausgeleuchteten Elemente der Objektoberfläche nun ausgeleuchtet werden. Dabei
wird davon ausgegangen, daß durch die Abbildung der farbig leuchtenden Flächenelemente FEL eine
Verbreiterung auf der Objektoberfläche stattfindet, so daß keine Lücken zwischen den Farbstreifen. Mit
diesem Verfahren können auch verschiedenfarbige Elemente in der Objektoberfläche erfaßt werden.
Es ist aber auch grundsätzlich möglich, die Signalauswertung mit dem bereits beschriebenen phasenaus
wertenden Verfahren, beispielsweise im Nahbereich der Szene, durchzuführen. In diesem Fall werden die
farbig leuchtenden Flächenelemente FEL auf den bereits beschriebenen Verschiebungsstrecken VBSAj
bewegt und die Auswertung für die farbsensitiven Elemente des Empfänger-Arrays durchgeführt. Aus der
Verrechnung der Signalintensitäten in den drei Farben oder Wellenlängenspektren kann in der aus der
Farbfernsehtechnik bekannten Art und Weise das Farb- und das Helligkeitssignal für jedes erfaßte Ele
ment der Objektoberfläche gewonnen werden. So kann für jedes Element der Objektoberfläche die Infor
mation über die mittlere Helligkeit, beziehungsweise Beleuchtungsstärke oder Leuchtdichte, und die zu
mindest näherungsweise spektrale Zusammensetzung, also die Farbe, und der zO-Wert gewonnen wer
den. Aus der bekannten, vorbestimmten Lage der Elemente der mindestens zwei Empfänger-Arrays und
der bekannten Geometrie der 3D-Aufnahmeanordnung können so auch die zO-, die xO- und die yO-
Raumkoordinaten für die Gesamtheit der detektierten Elemente der Oberflächen in einer Szenen eindeu
tig bestimmt werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei
dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY J unterschiedlicher Leuchtdich
te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä
chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem
dreifachen Streifenabstand der einzelnen, farbig leuchtenden Flächenelemente FEL entspricht.
Nach einem Zeitbereich ΔtB, wird das strukturiert farbig leuchtende Array um den einfachen Abstand der
einzelnen, farbig leuchtenden Flächenelemente FEL, welcher einem Drittel der Wiederholungsperiode
WP entspricht, lateral weiterverschoben, wobei die Elemente des Empfänger-Arrays farbsensitiv sind und
auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.
Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö
sung, da durch die höhere Anzahl von Elementen bei farbempfindlichen Empfänger-Arrays, eine grund
sätzlich höhere Streifendichte verwendet werden kann. Es werden vorzugsweise die Signale in den ein
zelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektiertes Ele
ment einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielsweise in der
Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf.
Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den einfachen Ab
stand der einzelnen farbigen Flächenelemente wird erreicht, daß die zuvor nicht von einer vorbestimmten
Farbe ausgeleuchteten Elemente der Objektoberfläche nun vollständig ausgeleuchtet werden. Dies ist
vorteilhaft, wenn als Beleuchtungsobjektiv ein Präzisionsobjektive mit einer sehr guten Modulationsüber
tragung verwendet wird. Dadurch ergibt sich im Aufnahmevorgang eine gleichmäßige Ausleuchtung der
Objektoberfläche, und es können so auch Elemente in verschiedenen Farben der Objektoberfläche erfaßt
werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene mit mindestens ei
ner Strahlungsquelle vorgeschlagen, die als ein strukturiert leuchtendes Array mit Bereichen unterschied
licher Leuchtdichte ausgebildet ist. Weiterhin ist vorzugsweise mindestens eine elektromagnetische
Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit
leuchtenden Flächenelementen FEL ausgebildet.
Dabei kann vorzugsweise auch ein strukturiertes Array in der Art eines Liniengitters mit einer vorgeordne
ten Strahlungsquelle zur Anwendung kommen. Weiterhin kann im Array-Raum ein strukturiert leuchtendes
Array angeordnet sein, welches als ein von der Strahlungsquelle beleuchtetes klassisches Liniengitter, als
strukturiertes Array, aber auch als elektronisch steuerbares Liniengitter ausgeführt sein kann. Das Lini
engitter kann dabei ein symmetrisches Transparenzprofil mit einer cos2-Verteilung oder auch ein stark un
symmetrisches Transparenzprofil mit einem Rechteckprofil aufweisen, wobei letzteres vergleichsweise
nur wenige Linien oder nur eine einzelne Linie besitzt. Der letztgenannte Fall sichert bei einem einfachen
Auswertealgorithmus die Eindeutigkeit der Gewinnung von Meßpunkten. Die Strahlungsquelle und das
strukturierte Array bilden gemeinsam das strukturiert leuchtende Array. Die Orte bestimmter relativer
Leuchtdichte des strukturiert leuchtenden Arrays und auch die der lokalen Extrema der Leuchtdichte die
ses strukturiert leuchtenden Arrays können elektronisch verschiebbar gemacht sein. Die leuchtenden Flä
chenelemente FEL können sich dabei an den Orten der Phase ϕ = 0, als Ort der maximalen Transparenz
befinden.
Die Strahlungsquelle kann für elektromagnetische Strahlung im sichtbaren und im unsichtbaren Spektral
bereich ausgelegt sein, beispielsweise im Spektralbereich von 750 nm bis 900 nm. Auch elektromagneti
sche Strahlung im infraroten Spektralbereich mit Wellenlängen größer als 900 nm kann zur Anwendung
kommen.
Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an
geordnet. Dem Beleuchtungsobjektiv ist das strukturiert leuchtende Array zugeordnet. Es kann aber auch
ein Bild des strukturiert leuchtenden Arrays dem Beleuchtungsobjektiv zur Abbildung zugeordnet sein.
Dabei weist das Beleuchtungsobjektiv eine effektive Öffnungsblende mit einer Ausdehnung DB und einem
Blendenzentrum BZB auf. Das strukturiert leuchtende Array und das Beleuchtungsobjektiv dienen zur
strukturierten Beleuchtung der Objektoberflächen in der Szene.
Weiterhin ist mindestens ein Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die Abbil
dung der Elemente der Objektoberflächen in der Szene angeordnet. Diesem Abbildungsobjektiv ist min
destens ein Empfänger-Array zugeordnet. Das Abbildungsobjektiv weist zur Abbildung der Elemente der
Objektoberflächen eine effektive Öffnungsblende mit einem Blendenzentrum BZA auf. Diesem Abbil
dungsobjektiv ist mindestens ein Empfänger-Array mit Elementen, die im Aufnahmevorgang Licht von den
Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren, zugeordnet. Dabei
beträgt der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzen
trums BZB im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzen
trums BZA im Objektraum, mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuch
tungsobjektivs.
Dabei wird aus einem leuchtenden Flächenelement in einer Leuchtdichteverteilung mit einer vorzugsweise
zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbe
stimmten Wellenlängenspektrum, wobei diese im weiteren als leuchtende Flächenelemente FEL bezeich
net werden, durch Abbildung mit dem Beleuchtungsobjektiv ein Bild eines leuchtenden Flächenelementes
FEL im Objektraum gebildet.
Speziell bei kleinen Objekten können der Beleuchtungs- und der Abbildungsstrahlengang ein gemeinsa
mes Frontobjektiv besitzen.
Weiterhin ist ein Bewegungssystem mit vorzugsweise mindestens einer beweglichen Komponente ange
ordnet, welches dem strukturiert leuchtenden Array dieses Bewegungssystem zugeordnet ist. Die Ver
schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL im Array-Raum und sind vorzugsweise
aus der mechanischen Bewegung des strukturiert leuchtenden Arrays gebildet. Es ist aber auch möglich,
daß zeitgleich eine elektronische Verschiebung der leuchtenden Flächenelemente FEL, beispielsweise in
lateraler Richtung stattfindet und das Bewegungssystem mit mindestens einer beweglichen Komponente
eine Bewegung des strukturiert leuchtenden Arrays parallel zur optischen Achse des Beleuchtungsobjek
tivs realisiert.
Nach Abbildung dieser Verschiebungsstrecken VSBAj durch das Beleuchtungsobjektiv in den Objektraum,
ist deren Bild zumindest näherungsweise als mindestens ein Streckenbüschel SB1 mit einem Konver
genzpunkt K1 gebildet. Der Konvergenzpunkt K1 weist dabei vorzugsweise einen minimalen Abstand dK1 min
von der Achse des Beleuchtungsobjektivs vom 16ten Teil und einen maximalen Abstand dK1 max vom
16fachen des Abstandes d auf.
Die Pupillen des Beleuchtungs- und des Abbildungsstrahlenganges sind stets räumlich getrennt. Jedoch
fallen die Schärfebereiche des Beleuchtungsstrahlenganges im Objektraum mit Schärfebereichen des
Abbildungsstrahlenganges zumindest teilweise zusammen. Die Beleuchtungsstrahlen und die Abbil
dungsstrahlen schließen im Objektraum miteinander einen Winkel, den Triangulationswinkel, ein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit der Kon
vergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs im Objektraum
und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver
schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel ange
ordnet sein und so der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungs
objektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Konver
genzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungsobjektivs und im Brennpunkt des
Abbildungsobjektivs im Objektraum positioniert sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der das
leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Linien und
der Linienbreite ausgebildet sein. Dabei können die Linien senkrecht zum Hauptschnitt angeordnet sein
und die Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL und so auch der leuchten
den Flächenelemente FEL mit lokalen Extrema der Leuchtdichte im Array-Raum - als Resultat der me
chanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des struktu
riert leuchtenden Arrays im Array-Raum gebildet sein. Aus diesen Verschiebungsstrecken VSBAj kann im
Array-Raum im Hauptschnitt und in jeder zum Hauptschnitt parallelen Schnittebene zumindest nähe
rungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt K1 gebildet sein und dabei der
Konvergenzpunkt K1 einen minimalen Abstand dK1 min von der Achse des Beleuchtungsobjektivs vom
16ten Teil des Abstandes d aufweisen. Der Konvergenzpunkt K1 kann dabei einen maximalen Abstand dK1 max
von der Achse des Beleuchtungsobjektivs vom 16fachen des Abstandes d aufweisen und zwischen
Pupillenebene und Brennebenen des Beleuchtungsobjektivs im Objektraum angeordnet sein. Weiterhin
kann der Konvergenzpunkt K1 des Streckenbüschels im Hauptschnitt im Pupillenzentrum PZAA des Abbil
dungsobjektivs im Array-Raum angeordnet sein und die Konvergenzpunkte in den zum Hauptschnitt paral
lelen Schnitten gemeinsam mit dem Konvergenzpunkt K1 des Hauptschnittes auf einer Geraden senkrecht
zum Hauptschnitt angeordnet sein. Das Pupillenzentrum PZOA des Abbildungsobjektivs und das Pupillen
zentrum PZ0B des Beleuchtungsobjektivs im Objektraum können gemeinsam auf einer Geraden angeord
net sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist.
Bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsob
jektivs werden vorzugsweise nur Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet
und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt, deren Orte beim Verschieben
des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke ASAj im Array-
Raum angeordnet sind, deren Verlängerungsgerade jeweils mit einer Geraden senkrecht zum Haupt
schnitt, die das Zentrum der Austrittspupille des Abbildungsobjektivs enthält, zum Schnitt gebracht ist,
wobei bei der Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren Bil
dern im Objektraum im Hauptschnitt zumindest annähernd mindestens ein Streckenbündel mit einem
Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das leuch
tende Array als elektronisch steuerbares Gitter ausgebildet sein und vorzugsweise die Verschiebungs
strecken der Orte konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche und so auch
der Orte lokaler Extrema der Leuchtdichte im Array-Raum als Resultat der mechanischen Bewegung des
strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden Arrays im
Array-Raum ausgerichtet sein und aus diesen Verschiebungsstrecken im Array-Raum kann zumindest
näherungsweise mindestens ein Streckenbündel mit einem Konvergenzpunkt KA1 gebildet sein. Der Kon
vergenzpunkt KA1 des Streckenbündels kann im Pupillenzentrum PZAA, des Abbildungsobjektivs im Array-
Raum angeordnet sein und so kann der Konvergenzpunkt K1 im Objektraum im Pupillenzentrum PZ0A des
Abbildungsobjektivs angeordnet sein. Das Pupillenzentrum PZ0A des Abbildungsobjektivs und das Pupil
lenzentrum PZ0B des Beleuchtungsobjektivs können im Objektraum gemeinsam auf einer Geraden ange
ordnet sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist. Bei einer geradlinige
Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs können nur
die Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet und zur Bildung eines ein
zelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger-
Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke im Array-Raum angeordnet
sind, deren Verlängerungsgerade jeweils das Zentrum der Austrittspupille des Abbildungsobjektivs
schneidet, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren
Bildern im Objektraum zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt
K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver
schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel zu einer
definierten Geraden gAP angeordnet sein. Dabei weisen die leuchtenden Flächenelemente FEL in einer
Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende
relative Leuchtdichte auf. Die Gerade gAP schneidet den Brennpunkt FAB des Beleuchtungsobjektivs im Ar
ray-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums
PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und
Brennweite fB des Beleuchtungsobjektivs auf, wobei dieser Anstieg der Geraden gAP auf die Achse des
Beleuchtungsobjektivs bezogen ist.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, dem eine
Komponente des Bewegungssystems dem Empfänger-Array zugeordnet ist, und so bei der mechani
schen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke A5 dessen Elemente Verschie
bungsstrecken ASAj auf parallelen Geraden zugeordnet sein, wobei vorzugsweise aus den Bildern ASOj
dieser Strecken ASAj bei Abbildung durch das Abbildungsobjektiv zumindest näherungsweise mindestens
ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet sein kann. Dabei kann
der Konvergenzpunkt K1 und der Konvergenzpunkt K2 mit dem Brennpunkt FOA und dem Pupillenzentrum
PZOA der Pupille des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht
sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Achse
des Beleuchtungsobjektivs und die Achse des Abbildungsobjektivs parallel zueinander angeordnet sind
und das Abbildungsobjektiv auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine Kom
ponente des Bewegungssystems dem Empfänger-Array zugeordnet sein und so bei der mechanischen
Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke AS dessen Elemente Verschiebungs
strecken ASAj auf parallelen Geraden zugeordnet sein, wobei aus den Bildern dieser Strecken bei Abbil
dung durch das Abbildungsobjektiv zumindest näherungsweise mindestens ein Streckenbüschel SB2 mit
einem Konvergenzpunkt K2 im Objektraum gebildet ist. Der Konvergenzpunkt K1 und der Konvergenz
punkt K2 können mit dem Brennpunkt FOA und dem Pupillenzentrum PZOA der Pupille des Abbildungsob
jektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein und das Beleuchtungsobjektiv
und das Abbildungsobjektiv jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein. So
können die Achsen des Beleuchtungsobjektivs und des Abbildungsobjektivs parallel zueinander angeord
net sein und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der die
Komponenten des Bewegungssystem so angeordnet sein, daß im Array-Raum mit dem Brennpunkt FAB
des Beleuchtungsobjektivs als Bezugspunkt für das leuchtende Array eine Gesamtbewegungsrichtung
zumindest annähernd parallel zu einer Geraden gA im Array-Raum realisiert ist, so daß die Elemente des
strukturiert leuchtenden Arrays sich auf parallelen Geraden zur Gerade gA bewegen und diese Gerade gA
mit dem Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum zum Schnitt gebracht ist und den
Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Abstand d des
Brennpunktes FAA des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs auf
weist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch
tungsobjektivs bezogen ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe
gungssystem aus zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung dem Emp
fänger-Array zugeordnet sein und die Bewegungsrichtung dieser Linearführung zumindest annähernd
parallel zur optischen Achse des Abbildungsobjektivs justiert sein und die zweite Linearführung der ersten
Linearführung und dem strukturiert leuchtenden Array zugeordnet sein und die Bewegungsrichtung der
zweiten Linearführung zumindest annähernd senkrecht zur optischen Achse des Beleuchtungsobjektivs
justiert sein, so daß als Resultat der linearer Einzelbewegungen der beiden Linearführungen das struktu
riert leuchtende Array zumindest annähernd parallel zur Geraden gA bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe
gungssystem, bestehend aus einer einzigen Linearführung mit einem Schlitten und einer Basis, im Raum
des strukturiert leuchtenden Arrays und Empfänger-Array angeordnet sein und die Linearführung wenig
stens dem strukturiert leuchtenden Array fest zugeordnet sein und die Bewegungsrichtung für das struk
turiert leuchtende Array zumindest annähernd parallel zur Geraden gA im Array-Raum ausgerichtet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe
gungssystem aus mindestens zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung
beweglichen Komponenten des Beleuchtungsobjektivs zur Innenfokussierung und beweglichen Kompo
nenten des Abbildungssobjektivs zur Innenfokussierung fest zugeordnet sein und die zweite Linearfüh
rung dem strukturiert leuchtenden Array zur Bewegung senkrecht zur optischen Achse des Beleuchtungs
objektivs fest zugeordnet sein. Bei der Verwendung von präzisen Linearführungen kann so eine hochdy
namische 3D-Aufnahme-Anordnung realisiert werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe
gungssystem aus einer Linearführung aufgebaut und diese dem Empfänger-Array zugeordnet sein und
die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Ab
bildungsobjektivs angeordnet sein und ein rotatorischer Antrieb der Linearführung zuordnet sein und das
strukturiert leuchtende Array wiederum dem rotatorischen Antrieb zugeordnet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu
riert leuchtende Array als Gitter mit einer spiralförmigen Figur als Archimedische Spirale mit mindestens
einem Gang ausgebildet und drehbar angeordnet sein und mindestens ein Ausschnitt des Gitters mit der
spiralförmigen Figur als strukturiertes Array benutzt werden, wobei vorzugsweise in Verbindung mit der
Strahlungsquelle das strukturiert leuchtende Array gebildet ist, und die Drehachse des Gitters mit der spi
ralförmigen Figur parallel zur Achse des Beleuchtungsobjektivs angeordnet und außerdem ein rotatori
scher Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet ist.
Um eine kontinuierliche Aufnahme von bewegten Objekten mit einer hohen Geschwindigkeit erreichen zu
können und dabei gleichzeitig die störende Wirkung von impulsförmigen Reaktionskräften auf die 3D-
Aufnahme-Anordnung zu vermeiden, kann ein Gitter mit einer spiralförmigen Figur als Archimedische Spi
rale mit mindestens einem Gang ausgebildet und drehbar angeordnet sein. Das Gitter mit der spiralförmi
gen Figur ist dabei bezüglich seiner Drehachse sorgfältig ausgewuchtet. Es wird eine Präzisionslagerung
verwendet. Ein Ausschnitt des rotierenden Gitters mit der spiralförmigen Figur dient als strukturiert leuch
tendes Array. Die Drehachse des Gitters mit der spiralförmigen Figur ist dabei vorzugsweise parallel zur
Achse des Beleuchtungsobjektivs angeordnet. Es wird für die Erzeugung der Drehbewegung ein rechner
gesteuerter rotatorischer Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet. Die Phase
des Gitters mit der spiralförmigen Figur kann mit einer radial angeordneten, schnell auslesbaren Foto-
Diodenzeile bestimmt werden. Es kann auch eine CCD-Zeile mit einer Bildauslesefrequenz im 10 KHz-
Bereich eingesetzt werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Abbil
dungsobjektiv gemeinsam mit dem Empfänger-Array und den zugeordneten Komponenten des Bewe
gungssystems um eine Achse, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs
durchstößt, im Objektraum drehbar angeordnet sein. So können die Objektflächen in einer Szene aus
unterschiedlichen Richtungen beobachtet werden, ohne daß die durch die Beleuchtung vorgegebene ab
solute Phase verändert wird.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Be
leuchtungsobjektiv gemeinsam mit dem strukturiert leuchtenden Array und den zugeordneten Komponen
ten des Bewegungssystems und der Strahlungsquelle um eine Achse, welche das Pupillenzentrum PZOA
der Pupille des Abbildungsobjektivs durchstößt, im Objektraum drehbar angeordnet sein. So können die
Objektflächen in einer Szene aus unterschiedlichen Richtungen beleuchtet werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu
riert leuchtende Array eine gerasterte Struktur mit äquidistanten Abständen aufweisen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem Lini
engitter ein Gegengitter mit der gleichen Gitterkonstante und ein Nullpunktgeber zugeordnet sein. Da
durch ist eine besonders präzise Gewinnung der absoluten IstphaseGitter möglich. So kann die für das
Auswerteverfahren benötigte Information über die absolute, lateral invariante Objektphase durch optische
Bestimmung der absoluten IstphaseGitter direkt aus der Bewegung des beleuchteten Liniengitters durch
optische Kopplung des Liniengitters mit einem Gegengitter und einem Nullpunktgeber unter Verwendung
eines elektronischen Auswerte-Moduls mit einem Rechnerinterface für die Berechnung der absoluten, la
teral invarianten Objektphase abgeleitet werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine trans
parente optische Platte der 3D-Aufnahme-Anordnung als permanent verbleibende Referenzplatte in der
Nahdistanz zugeordnet sein, wobei vorzugsweise auf mindestens einer der beiden Flächen der optischen
Platte eine schwach lichtstreuende Mikrostruktur aufgebracht ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Beleuch
tungsstrahlengang mit einem afokalen System mit einem inneren Brennpunkt FBi aufgebaut sein und der
Abbildungsstrahlengang mit einem inneren Brennpunkt FAi und im Objektraum der Brennpunkt des afoka
len Beleuchtungsstrahlenganges und der Brennpunkt des afokalen Abbildungsstrahlenganges zumindest
näherungsweise zusammenfallen und der Konvergenzpunkt K1 in einem Abstand dK1 von der optischen
Achse des Beleuchtungsobjektivs angeordnet sein, wobei der Abstand dK1 dem halben Abstand vom inne
ren Brennpunkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlen
ganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht, wobei das Beleuch
tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil
dungsstufen zumindest näherungsweise telezentrisch ausgeführt sind.
Das Bewegungssystem kann mit mindestens einer beweglichen Komponente so angeordnet sein, daß
dessen Bewegungsrichtung zumindest annähernd parallel zu einer Geraden gA justiert ist und so leuch
tende Flächenelemente FEL auf Verschiebungsstrecken VSBAj verschoben werden und die Gerade gA
kann den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum durchstoßen und für die Gerade gA
kann der Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Ab
stand dK1 realisiert sein, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs bezogen ist, und
eine zur optischen Achse des Abbildungsobjektivs zumindest annähernd parallele Verschiebung des
Empfänger-Arrays besteht.
Weiterhin kann mindestens ein feststehender Umlenkspiegel dem Abbildungsobjektiv zugeordnet sein und
so strukturiert leuchtendes Array und Empfänger-Array in zueinander parallelen Ebenen liegen und so nur
ein einziger z-Schlitten für das leuchtende Array und das Empfänger-Array angeordnet ist.
Diese Anordnung ist für 3D-Aufnahmen im Makro-Raum sehr geeignet. Dabei können die beiden Objekti
ve im afokalen System auch sehr unterschiedliche Brennweiten aufweisen. Von Vorteil ist weiterhin, daß
die effektive Wellenlänge im gesamten Objektraum konstant ist. Die leuchtenden Flächenelemente FEL
befinden sich ständig auf den B-Strecken BSAj.
Der Abstand dK1 entspricht vorzugsweise dem halben Abstand vom inneren Brennpunkt FBi der afokalen
Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brenne
bene Fi des Beleuchtungsstrahlenganges. Dies bedeutet, daß der Konvergenzpunkt K1 im Durchstoß
punkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbildungsstrahlen
ganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt. Grundsätzlich ist der Winkel
für die Beobachtungssachse und die Abbildungsachse wählbar, so daß sowohl eine senkrechte Beobach
tung und Schrägbeleuchtung als auch eine senkrechte Beobachtung und Schrägbeobachtung möglich
sind.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver
schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange
ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf der Verschiebungstrecke ASA1 und
die Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungstrecke ASA2 stattfindet. Die Ver
schiebungsstrecken ASA1 und die Verschiebungstrecke ASA2 können sich in einem Punkt PA in der zu
sammenfallenden array-seitigen Hauptebene schneiden, wobei sich die Elemente des ersten Empfänger-
Arrays auf den Verschiebungsstrecken ASA1j und sich die Elemente des zweiten Empfänger-Arrays auf
den Verschiebungsstrecken ASA2j bewegen.
Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken ASA1j, die Strecken ASO1j, des ersten
Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder der Verschiebungsstrecken ASA2j, die
Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuchtungsstrahlenganges können im Koinzi
denzpunkt KO zusammenfallen. Zu den beiden parallelen Abbildungsstrahlengängen kann mittig und
symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf der Verschiebungsstrecke VSAP ver
schiebbaren strukturiert leuchtenden Array mit linienhaften Elementen in der Ebene der beiden Empfän
ger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig und symmetrisch angeordnet sein,
also mit einer zu den beiden Abbildungsstrahlengängen parallelen optische Achse, und dessen array
seitiger Hauptpunkt HAB kann mit dem Punkt PA zusammenfallen. Der objektseitige Brennpunkt FOB des
Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen, und es kann ein be
leuchtetes Liniengitter als strukturiert leuchtendes Array angeordnet sein.
Die Empfänger-Arrays bewegen sich hierbei vorzugsweise real auf den Verschiebungsstrecken ASA1 und
ASA2 und die Elemente der Empfänger-Arrays auf den Verschiebungsstrecken ASA1j und ASA2j.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver
schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange
ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf einer Verschiebungstrecke parallel
zur optischen Achse und die Verschiebung des zweiten Empfänger-Arrays auf einer Verschiebungstrecke
parallel zur optischen Achse stattfindet. Die Elemente der beiden Empfänger-Arrays können so ausgele
sen werden und Signale gebildet werden, als ob sich die Empfänger-Arrays auf Verschiebungsstrecken
ASA1 befinden würden und die Verschiebungstrecke ASA2 sich in einem Punkt PA in der zusammenfallen
den array-seitigen Hauptebene schneiden. Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken
ASA1j, die Strecken ASO1j, des ersten Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder
der Verschiebungsstrecken ASA2j, die Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuch
tungsstrahlenganges können im Koinzidenzpunkt KO zusammenfallen. Zu den beiden parallelen Abbil
dungsstrahlengängen kann mittig und symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf
der Verschiebungsstrecke VSAP verschiebbaren strukturiert leuchtenden Array mit linienhaften Elementen
in der Ebene der beiden Empfänger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig
und symmetrisch angeordnet sein, also mit einer zu den beiden Abbildungsstrahlengängen parallelen op
tische Achse, und dessen arrayseitiger Hauptpunkt HAB mit dem Punkt PA zusammenfällt. Der objektseiti
ge Brennpunkt des Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen und
es kann ein strukturiert leuchtendes Array angeordnet sein.
Die Empfänger-Arrays bewegen sich vorzugsweise nicht real auf den Verschiebungsstrecken ASA1 und
ASA2, sondern es werden die Elemente der Empfänger-Arrays ausgelesen, die in Zusammenwirken mit
der Parallelverschiebung den Effekt ergeben, als ob diese sich auf den Verschiebungsstrecken ASA1j und
ASA2j bewegen würden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil
dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise
baugleich sein und deren Brennebenen können im Objektraum koinzidieren. Das leuchtende Array kann
mit leuchtenden Farbstreifen gebildet sein, die zumindest näherungsweise lückenlos aneinandergereiht
sind, wobei das leuchtende Array aus transmittierenden Mikroelementen und aus reflektierenden Mikro
elementen aufgebaut ist, und dem strukturierten Array kann eine Rotlichtquelle, eine Grünlichtquelle und
eine Blaulichtquelle zugeordnet sein, wobei das Licht mindestens einer Lichtquelle das strukturierte Array
in einer fokussierenden Struktur durchsetzt und das Licht von mindestens zwei Lichtquellen auf Mikro
spiegelelemente trifft.
Die beiden Empfänger-Arrays und das strukturierten Array können mit einem Bewegungssystem zur prä
zisen, synchronen Bewegung verbunden sein, wobei die optisch aktiven Ebenen der beiden verschiebba
ren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen
Ebene gehalten werden können, wodurch die optisch konjugierten Ebenen im Objektraum stets koinzidie
ren.
Dadurch wird erreicht, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung ver
lustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Die Strah
lungsquellen können dabei als Laserlichtquellen, farbige Lichtquellen oder als konventionelle weiße Licht
quellen mit Farbfiltern gebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein farbig
leuchtendes Array als Gitter mit einem asymmetrischen Furchenprofil gebildet sein. Dieses besteht aus
Dreieckprofilen, die Makro-Profilflächen aufweisen, und besitzt eine auf dem gesamten Gitter zumindest
näherungsweise gleichbleibenden Gitterkonstante zwischen 0,01 mm und 2 mm, die als Makro-
Gitterkonstante bezeichnet wird. Dem Gitter ist mindestens eine Strahlungsquelle zur Beleuchtung zuge
ordnet.
Auf der Oberfläche des Gitters können zumindest näherungsweise Dreieckprofile gebildet sein und auf
den Makro-Profilflächen derselben jeweils zusätzlich ein Mikrofurchenprofil mit einer innerhalb einer Ma
kro-Profilfläche veränderlichen Gitterkonstante des Mikrofurchenprofils und einer mittleren Mikro-
Gitterkonstante desselben zwischen 0,0005 mm und 0,01 mm ausgebildet sein. So besteht für das einfal
lende Licht eine fokussierende Wirkung verbunden mit einer Farbaufspaltung zumindest in die drei Farb
bereiche blau grün rot. Hierbei kann auch ein diffraktives Reflexionsgitter eingesetzt werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Mi
krofurchenprofil auf den Makro-Flächen als ein asymmetrischen Mikro-Dreieckprofil ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter
als Transmissionsgitters mit einem asymmetrischen Furchenprofil mit Makro-Dreieckprismen ausgebildet
sein, Dabei ist vorzugsweise das Mikroprofil auf den Hauptflächen der Makro-Dreieckprismen als ein
asymmetrischen Mikro-Dreieckprofil mit Mikroprismen ausgebildet.
Dabei können je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, re
flektierende Elemente zugeordnet sein. Dem Transmissionsgitters können eine Rotlichtquelle, eine Grün
lichtquelle und eine Blaulichtquelle zugeordnet sein, wobei vorzugsweise das Licht einer Lichtquelle das
leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von mindestens zwei separa
ten Lichtquellen auf die reflektierenden Elemente trifft.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil
dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise
baugleich sein und deren Brennebenen im Objektraum koinzidieren. Das strukturiert leuchtende Array ist
dabei aus transmittierenden und gleichzeitig fokussierenden Mikroelementen und aus reflektierenden Mi
kroelementen gebildet, wobei je einem transmittierenden und gleichzeitig fokussierenden Element zwei
flankierende, reflektierende Elemente zugeordnet sind. Dem strukturiert leuchtende Array ist eine Rot
lichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet, wobei vorzugsweise das Licht einer
Lichtquelle das leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von minde
stens zwei separaten Lichtquellen unter einem Einfallswinkel von mindestens 10° auf die reflektierenden
Elemente trifft. So kann mit drei einzelnen Lichtquellen mit vergleichsweise wenig Lichtverlusten ein farbig
leuchtendes Array realisiert werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die beiden
Empfänger-Arrays und das leuchtende Array mit einem Bewegungssystem zur präzisen, synchronen Be
wegung verbunden sein, wobei vorzugsweise die optisch aktiven Ebenen der beiden verschiebbaren
Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebe
ne gehalten sind, wodurch die optisch konjugierten Ebenen im Objektraum permanent zur Koinzidenz ge
bracht sind.
So ist gegeben, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung besonders
verlustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Ein gro
ßer Anteil des transmittierten Anteils kann das leuchtende Array passieren und trägt so zur Ausleuchtung
der Objektoberfläche bei. Weiterhin wird dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti
in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumindest nähe
rungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem struk
turierten Array ein steuerbarer Stellmechanismus zur lateralen Bewegung zugeordnet sein.
Dieser Stellmechanismus am strukturierten Array dient vorzugsweise der vergleichsweise langsamen late
ralen Bewegung, um im Aufnahmevorhang nach und nach jedes Element einer Objektoberfläche mit den
Farben rot, grün und blau beleuchten zu können. Dieser Stellmechanismus zur lateralen Bewegung kann
sich dabei schrittweise vorwärts und rückwärts bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberllächen in einer Szene das struktu
riert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdichte und mit leuchtenden Flä
chenelemente FEL mit Mikro-Farbteilern ausgebildet sein, so daß vorzugsweise eine nahezu planare
Struktur gebildet ist. Dies führt zu einem sehr guten Lichtwirkungsgrad.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu
riert leuchtende Array mit Bereichen LBARRAY j mit zumindest näherungsweise gleichem Abstand der
leuchtenden Flächenelemente FEL in einer Ebene in den Farben rot, grün und blau gebildet sein, wobei
vorzugsweise die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen verschieden
farbigen Flächenelemente entspricht und vorzugsweise Elemente des Empfänger-Arrays farbsensitiv und
auf das Wellenlängenspektrum der leuchtenden Flächenelemente abgestimmt FEL sind.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu
rierte Array zumindest auf einem Teilbereich einer Scheibe ausgebildet sein, der vorzugsweise eine rota
torische Präzisionslagerung mit einer Welle mit einem rotatorischen Präzisionsmotor zugeordnet ist, so
daß eine rotierende Scheibe gebildet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu
riert leuchtende Array auf einer rotierenden Scheibe als ein rotationssymmetrisches Transmissions-Gitter
ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene an einem
äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes
Meßsystem zur Erfassung der axialen Ablage eines Teilbereiches der rotierenden Scheibe von einer
axialen Sollposition angeordnet sein.
Dabei ist das Meßsystem in seiner messenden Funktion vorzugsweise einem kreisringförmigen Bereich
der rotierenden Scheibe zugeordnet, so daß jeweils die axiale Ablage in einem kreisringförmigen Bereich
derselben, verursacht durch Axialschlag und Taumelschlag der rotierenden Scheibe hochgenau und
hochdynamisch gemessen werden kann.
Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Das Meß
systems befindet sich in unmittelbarer Nähe des jeweils abgebildeten Ausschnittes des strukturierten Ar
rays auf der Kreisscheibe. Für die optische Messung befindet sich auf der Scheibe dazu vorzugsweise auf
einer stetigen Planfläche ein zumindest teilweise reflektierender Bereich. Das Meßsystem befindet sich
vorzugsweise in einem Rachen des hochstabilen Gestells aus einem Werkstoff mit einem vorzugsweise
geringen Temperaturausdehnungskoeffizienten wie beispielsweise Keramik oder eine Eisen-Nickel-
Legierung.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren
Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be
einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord
net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises der rotierenden Scheibe zuge
ordnet ist, so daß die axiale Ablage eines Sektors, verursacht durch Axialschlag und Taumelschlag bei
der Rotation der Kreisscheibe, hochdynamisch ausgeregelt und so vorzugsweise jeweils ein Teilbereich
der rotierenden Scheibe und so auch die axiale Lage zumindest eines Teilbereiches des strukturiert
leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann als Piezo-
Steller als Komponente eines Lage-Regelkreises ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren
Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be
einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord
net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises ausgebildet und der rotieren
den Welle zugeordnet ist, so daß vorzugsweise die axiale Ablage eines Teilbereiches der rotierenden
Scheibe, verursacht durch Taumelschlag bei der Rotation derselben, hochdynamisch ausgeregelt und so
jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage des strukturiert leuchtenden
Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann auch Komponenten des
Beleuchtungsobjektivs zugeordnet sein, so daß im Objektraum das Bild des strukturiert leuchtenden Ar
rays sich stets in der gleichen Position befindet.
Das Stellsystem kann als Piezo-Steller als Komponente eines Lage-Regelkreises ausgebildet sein. Im
Effekt werden sowohl der Axialschlag als auch ein gegebenenfalls vorhandener Taumelschlag der rotie
renden Scheibe ausgeregelt. Es ist auch möglich, daß die rotierende Scheibe keine sehr hohe Steifigkeit
aufweist und das Stellsystem durch eine elastische Deformation die axiale Sollposition realisiert, bei
spielsweise durch die Wirkung magnetischer Kräfte.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren
Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsy
stem zur Erfassung der radialen Ablage von einer Sollposition eines Teilbereiches der rotierenden Schei
be angeordnet sein, welches vorzugsweise der rotierenden Scheibe zugeordnet ist, so daß in einem
Kreisring der rotierenden Scheibe jeweils die radiale Ablage derselben, verursacht durch Radialschlag bei
der Rotation der Kreisscheibe, hochdynamisch und hochgenau gemessen werden kann.
Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Im Fall der
Anwendung eines optischen Meßverfahrens kann sich eine Referenzspur in Form eines konzentrischen
Kreises in unmittelbarer Nachbarschaft, beispielsweise in einem mittleren Abstand maximal 10 mm, zum
strukturiert leuchtenden Array auf der rotierenden Scheibe befinden. Diese Referenzspur kann mit einer
Genauigkeit von 0,1 µm zu einer Referenz- oder Symmetrielinie des strukturiert leuchtenden Arrays posi
tioniert sein. Es kann auch ein präziser Ringspalt als Referenzspur gebildet sein, so daß das transmittierte
Licht für die Bestimmung der radialen Ablage ausgewertet wird.
Als Basiswerkstoff kann aus Gründen der Invarianz gegenüber Temperaturänderungen Quarzglas für die
rotierenden Scheibe eingesetzt werden. Für nichttransparente Bereiche der Scheibe kann auch ein faser
verstärkter Werkstoff eingesetzt werden. Der abgebildete Ausschnitt des strukturierten Arrays befindet
sich vorzugsweise in unmittelbarer Nähe des Meßsystems.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren
Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Steilsystem zur Be
einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange
ordnet sein. Dieses Steilsystem ist vorzugsweise als Komponente eines Lage-Regelkreises der rotieren
den Welle der rotierenden Scheibe zugeordnet, so daß die radiale Ablage eines Teilbereiches, verursacht
durch Radialschlag bei der Rotation der rotierenden Scheibe, hochdynamisch ausgeregelt und so jeweils
ein Teilbereich der rotierenden Scheibe mit dem strukturiert leuchtenden Array in der radialen Sollposition
gehalten und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant
gehalten werden kann. So kann vorzugsweise auch der laterale Abstand der Lage eines vorbestimmten
Elementes des Empfänger-Arrays und eines vorbestimmten leuchtenden Flächenelementes FELj des
strukturiert leuchtenden Arrays im Array-Raum konstant gehalten werden kann.
Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum
jeweils unabhängig vom Radialschlag konstant gehalten und die genaue laterale Zuordnung zwischen ei
nem vorbestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flä
chenelementes FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich ΔtB erhalten. Dies ist für die
Genauigkeit bei phasenauswertenden Verfahren wichtig.
Das Stellsystem kann als Piezo-Steller als Komponente eines Lage Regelkreises ausgebildet sein, der
gemeinsam mit dem Meßsystem eine Komponente eines Lage-Regelkreises darstellt. Als Kriterium für die
Lageregelung gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenelementes FELj und eines
vorbestimmten Element des Empfänger-Arrays während der Rotation der rotierenden Scheibe konstant
gehalten werden soll, so daß gegebenenfalls auftretender Radialschlag gemessen und durch das Stellsy
stem ausgeregelt werden kann.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren
Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be
einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange
ordnet sein. Das Stellsystem ist vorzugsweise als Komponente eines Lage-Regelkreises dem Empfänger-
Array im Abbildungsstrahlengang zugeordnet, so daß die laterale Lage des Empfänger-Arrays hochdy
namisch geregelt und so und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden
Array konstant gehalten und so der laterale Abstand der Lage eines vorbestimmten Elementes des Emp
fänger-Arrays und eines vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchten
den Arrays im Array-Raum konstant gehalten werden kann.
Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum
jeweils unabhängig vom Radialschlag gehalten und die genaue laterale Zuordnung zwischen einem vor
bestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flächenelementes
FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich tB erhalten. Das Stellsystem kann als Pie
zo-Steller ausgebildet sein, der gemeinsam mit dem Meßsystem eine Komponente eines Lage-
Regelkreises darstellt. Als Kriterium gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenele
mentes FELj des strukturiert leuchtenden Arrays von einem vorbestimmten Element des Empfänger-
Arrays während der Rotation der Scheibe konstant gehalten werden soll, so daß eine gegebenenfalls auf
tretende Abweichung vom Sollabstand des Empfänger-Arrays vom strukturiert leuchtenden Array gemes
sen und durch das Stellsystem, welches die laterale Position des Empfänger-Arrays bestimmt, ausgere
gelt werden kann.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren
de Scheibe mit mindestens zwei Sektoren ausgebildet sein und die Sektorenflächen die Stufenflächen ei
ner Wendeltreppe darstellen.
So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge
bracht werden, wobei sich deren geometrisch-optische Weglänge zum Beleuchtungsobjektiv definiert än
dert, und so deren Bild in unterschiedliche Tiefen des Objektraumes abgebildet wird.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto
renflächen jeweils die Begrenzungsflächen einer transparenten Platte darstellen, wobei diese so gestalte
te rotierenden Scheibe im weiteren als Wendeltreppenscheibe bezeichnet wird.
So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge
bracht werden, wobei sich die axiale Gegenstandsweite der unterschiedlichen Bereiche des strukturierten
Arrays im Beleuchtungsstrahlengang durch die Dicke der Platte ändert, und so deren Bilder in unter
schiedliche Tiefen des Objektraumes abgebildet werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel
treppenscheibe mit zumindest näherungsweise regelmäßigen, gleichflächigen Stufenflächen als vollflächi
ge Wendeltreppenscheibe mit Stufenabsätzen mit Stufenhöhen Δhj gebildet sein und auf die gleichflächi
gen Stufenflächen der Sektoren der transparenten Platte je ein strukturiertes Array aufgebracht sein und
vorzugsweise das Licht der Strahlungsquelle erst nach dem Passieren der Fläche des strukturierten Ar
rays die Platte passiert. Weiterhin können die Stufenflächen zumindest näherungsweise senkrecht zur
Drehachse ausgerichtet sein und vorzugsweise mindestens ein einziger Absatz auf der Wendeltreppen
scheibe mit mindestens der zweifachen Stufenhöhe ausgebildet sein. Die Wendeltreppenscheibe kann
dabei eine zumindest näherungsweise mittlere Steigung pro Umdrehung von maximal einem Zwanzigstel
des Radius' der Wendeltreppenscheibe aufweisen.
Vorzugsweise kommt auf der Wendeltreppenscheibe nur die Fläche einer Stufe, beziehungsweise eines
Sektors in den optischen Strahlengang zu einem Zeitpunkt zur Wirkung. Es ist aber auch möglich, daß
mehrere Sektorenflächen, wenn diese sehr schmal ausgeführt sind, im optischen Strahlengang zur Wir
kung kommen. In diesem Fall detektieren die Bereiche eines Empfänger-Arrays zu unterschiedlichen
Zeiten Signalwerte von verschiedenen Sektorenflächen.
So kann der mittlere geometrisch-optische Abstand eines strukturierten Array, die Gegenstandsweite,
dem jeweils eine Strahlungsquelle zugeordnet ist, vom zugeordneten Beleuchtungsobjektiv bei der Rotati
on der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt durch die geometrisch-optische
Weglängenänderung durch die Stufenwirkung verändert werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel
treppenscheibe als ein in sich hochstabiler Körper aus gebildet sein und die Sektorenflächen der transpa
renten Platten auf einer Seite der Wendeltreppenscheibe können in einer gemeinsamen Ebene liegen und
so eine Fläche bilden. So kann die geometrisch-optische Weglänge der transparenten Platten den Stufe
zu Stufe vorbestimmt verändert werden, indem vorzugsweise verschieden dicke, transparente Platten
gebildet sind.
So kann der mittlere geometrisch-optische Abstand, die Gegenstandsweite, eines strukturierten Array
dem jeweils eine Strahlungsquelle und das Beleuchtungsobjektiv zugeordnet ist, vom zugeordneten Be
leuchtungsobjektiv bei der Rotation der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt
durch die geometrisch-optische Weglängenänderung durch die verschieden dicken transparenten Platten
verändert werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in den Stu
fenflächen der vollflächigen Wendeltreppenscheibe je ein weiterer transparenter und unstrukturierter
Sektorenbereich für den Abbildungsstrahlengang angeordnet sein.
So kann für den Abbildungsstrahlengang ebenfalls sehr schnell und auch synchron sowie hochgenau und
vorbestimmt eine geometrisch-optische Weglängenänderung im Zeitbereich ΔtB realisiert werden und so
können bei zumindest näherungsweise baugleicher Ausführung, paralleler Achslage und entsprechender
Justierung sowohl der Beleuchtungsstrahlengang als auch der Abbildungsstrahlengang auf die jeweils
gleiche Schärfeebene fokussiert sein. Die Rotationsbewegung der Wendeltreppenscheibe wird so mit dem
Auslesen der Elemente des Empfänger-Array synchronisiert, daß in der Integrationszeit beispielsweise
einer Matrixkamera eine bewegte Segmentfläche die Fläche der Matrixkamera vollständig überdeckt, wo
bei die Segmentfläche größer als die Fläche der Matrixkamera ist. Es ist jedoch auch eine gesteuerte teil
weise Überdeckung möglich. In diesem Fall können die Elemente der Matrixkamera zeilenweise oder in
Gruppen von Zeilen ausgelesen werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk
turierten Arrays auf den Stufenflächen der zugehörigen Platten in der Art eines als Tangentialgitters auf
gebracht sein. So kann über der Rotation der Scheibe eine nur vergleichsweise geringe oder gar keine
Phasenänderung in einem Feld eines strukturiert leuchtenden Arrays erzeugt werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk
turierten Arrays auf den Stufenflächen der zugehörigen Platten der Wendeltreppenscheibe in der Art eines
Gitters mit äquidistanten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen
Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet
sein. So kann die Phase von einem Signal, welches aus einem Feld eines strukturiert leuchtenden Arrays
bei der Rotation innerhalb eines Zeitintervalls gewonnen wird, beispielsweise des Zeitintervalls der Inte
gration zumindest eines Bereiches des Empfänger-Arrays, beispielsweise einer Zeile, konstant gehalten
werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter
mit äquidistanten konzentrischen Kreisen von Stufenflächen zu Stufenflächen der Wendeltreppenscheibe
einen Sprung in der Struktur dieses Gitter in radialer Richtung in der Art eines Phasensprunges aufwei
sen. So besteht die Möglichkeit, die Phasenlage bei der Rotation der Wendeltreppenscheibe im Beleuch
tungsstrahlengang in definierten Schritten zu verändern.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung
in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem ganzzahligen Vielfachen
eines Viertels der mittleren Gitterkonstanten des Gitters betragen. So können bekannte Phasen-
Auswerte-Algorithmen eingesetzt werden, die vorzugsweise mit einem ganzzahligen Vielfachen von 90°
arbeiten, wobei der Wert von 90° eingeschlossen ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung
in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem Dreiviertel der mittleren
Gitterkonstanten des Gitters betragen. So können bekannte Sub-Nyquist-Phasen-Auswerte-Algorithmen
eingesetzt werden, die insgesamt weniger Stützstellen benötigen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den
Stufenflächen der Wendeltreppenscheibe zumindest in Teilbereichen auf der planen Fläche der Wendel
treppenscheibe ein Referenzgitter aufgebracht sein. So kann die Rotation und die aktuelle Winkellage der
Wendeltreppenscheibe gemessen werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe
renzgitter auf der planen Fläche der Wendeltreppenscheibe zumindest näherungsweise eine Radialstruk
tur aufweisen. So kann die Rotation und die aktuelle Winkellage der Wendeltreppenscheibe hochgenau
gemessen werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe
renzgitter zumindest näherungsweise eine Radialstruktur mit einer cos2-Transparenz-Verteilung und eine
Ortsfrequenz aufweisen, die vorzugsweise der Ortsfrequenz entspricht, die aus der mittleren Phasenän
derung des strukturierten Arrays auf einer konzentrischen Bahn der Wendeltreppenscheibe über dem
Vollkreis resultiert. So kann mittels geeignetem optoelektronischem Zubehör und Auswerte-Modulen ein
cos2-ähnliches Signal als Referenzsignal gewonnen werden, in welches der detektierte Signalverlauf, der
zumindest näherungsweise ein cos2-Signal darstellen kann, phasenmäßig eingepaßt werden kann.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, daß an der
vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Beispielsweise
kann die Referenzmarke am Ort des maximalen geometrisch-optischen Abstandes der leuchtenden Flä
chenelemente FEL von der zugeordneten Brennebene des Beleuchtungsobjektivs aufgebracht sein, bei
spielsweise auch am Umfang oder auf der planen Fläche. Dann beginnt an der Referenzmarke das Ein
zählen von Impulsen in einen Zähler und gleichzeitig detektieren die Elemente des Empfänger-Arrays vor
zugsweise periodische Signale mit einer Modulation und ein Signal mit einem Maximum, wenn sich ein
Oberflächenelement im Schärfevolumen des Bildes eines leuchtenden Flächenelementes FELj und
gleichzeitig im Schärfevolumen des Bildes eines Elementes des Empfänger-Arrays befindet. Der Impuls,
der dem Ort des absoluten Signalmaximums entspricht, wird zur Berechnung der zO-Position benutzt.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den
gleichflächigen Stufenflächen der Platten je ein weiterer lichtdurchlässiger Teilbereich für den Abbil
dungsstrahlengang mit einem Farbfilter angeordnet sein. Dieser lichtdurchlässige Teilbereich kann als
Farbfilter und vorzugsweise auch einen Farbteiler aufweisen, wobei vorzugsweise die Anteile der ge
wünschten Farbe transmittieren. So kann ein Filterrad gebildet sein und eine Farbfilterung des Lichtes von
den Elementen der Objektoberflächen in einer Szene realisiert und so die Farbinformation gewonnen
werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in jedem
Sektor der vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Da
durch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich
ΔtB die leuchtenden Flächen 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880elemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer
Geraden gAP bewegen.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto
ren eine geringere Ausdehnung in tangentialer Verschiebungsrichtung aufweisen als die Ausdehnung des
Empfänger-Arrays und so vorzugsweise das Empfänger-Array streifenweise ausgelesen wird. Die strei
fenweise Auslesung, im speziellen sogar die zeilenweise Auslesung, ermöglicht eine hohe Anzahl von
Segmenten. Dadurch ist gegebenenfalls eine Verringerung der Umfangsgeschwindigkeit der Wendeltrep
penscheibe möglich. So wird für die Wendeltreppenscheibe der stetige Fall angenähert. Durch das An
wenden von Auftragetechniken für die Segmente der Wendeltreppenscheibe können Dickenzuwächsen
z. B in 5 µm-Schritten von Segment zu Segment einer Platte realisiert werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene gleichflä
chige Stufenflächen mit der Anzahl 2 Exponent n auf der vollflächigen Wendeltreppenscheibe angeordnet
sein. Dies ist für die schnelle numerische Auswertung oft von Vorteil.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren
de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome
trisch-optischer Dicke ausgebildet sein. Durch eine Ausführung der Scheibe in Kunststoff ist so eine Low
cost-Realisierung möglich. Ein auftretender Axialschlag kann gegebenenfalls im Elastizitätsbereich der
Scheibe ausgeregelt werden. Es können dazu magnetische, elektrostatische, elektromagnetische Kraft
wirkungen zur Anwendung kommen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren
de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome
trisch-optischer Dicke ausgebildet sein. Die Platten können dabei Planparallelplatten darstellen. Es kann
die geometrische Dicke von Flügel zu Flügel verändert sein. Möglich ist auch der Einsatz unterschiedli
cher Brechungsindizes für den Optikwerkstoff. So kann eine geometrisch-optischen Weglängenänderung
im Beleuchtungsstrahlengang und für die leuchtenden Flächenelemente eine axiale Gegenstandsver
schiebung erreicht werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren
de Scheibe als Keilscheibe ausgebildet sein. So kann ebenfalls eine geometrisch-optische Weglängenän
derung im Beleuchtungsstrahlengang und für das auf die Taumelscheibe aufgebrachte strukturierte Array
eine axiale Gegenstandsverschiebung erreicht werden. Im Abbildungsstrahlengang kann so eine axiale
Bildverschiebung für die abgebildeten Elemente der mindestens einen Objektoberfläche realisiert werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu
rierte Array auf der Oberfläche einer Keilscheibe mit einer planen Unterfläche ausgebildet sein, wobei vor
zugsweise jedoch nur ein Teilbereich der Keilscheibe als strukturiertes Array zur Anwendung kommt und
der Keilscheibe eine rotatorische Präzisionslagerung mit einer Drehachse mit einem rotatorischen Präzisi
onsmotor zugeordnet ist. So kann das strukturiertes Array auf einer Planfläche aufgebracht sein. Dies ist
für dessen Herstellung vorteilhaft.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil
scheibe als transparenter Körper ausgebildet ist und eine Fläche der Keilscheibe senkrecht zur Drehach
se ausgebildet sein. Dies ist für die Justierung der 3D-Aufnahme-Anordnung und zur Vermeidung eines
variablen lateralen Versatzes bei der Rotation der Scheibe von Vorteil.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil
scheibe eine Dickenänderung von maximal einem Zwanzigstel des Radius' der Keilscheibe aufweisen,
wobei jedoch vorzugsweise nur ein Ausschnitt der Keilscheibe als strukturiertes Array zur Anwendung
kommt.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein Refe
renzgitter auf der vollflächigen Keilscheibe zumindest näherungsweise eine Radialstruktur aufweisen.
Diese kann optisch hochgenau erfaßt werden und zur Bestimmung eines Referenzwertes, beispielsweise
als Referenzphase verwendet werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll
flächigen Keilscheibe mindestens eine Referenzmarke aufgebracht sein. Diese kann optisch hochgenau
erfaßt werden und zur Bestimmung eines absoluten Wertes der Referenzphase verwendet werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Keil
scheibe mehrere strukturierte Arrays in einzelnen Sektoren aufgebracht sind. Diese strukturierte Arrays
werden beleuchtet bei der Rotation der Scheibe nacheinander vom Beleuchtungsobjektiv in den Objek
traum abgebildet.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk
turierten Arrays in der Art eines Tangentialgitters aufgebracht sein. Diese strukturierte Arrays in der Art
eines Tangentialgitters ermöglichen auch bei einer vergleichsweise hohen Drehgeschwindigkeit eine ver
gleichsweise geringe Veränderung der Phase.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die einzel
nen Tangentialgitter von Sektor zu Sektor einen Sprung in der Gitterstruktur in radialer Richtung in der Art
eines Phasensprunges aufweisen. So kann die für die Auswertung benötigte Veränderung der Phase im
Signalverlauf realisiert werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung
in der Phase von Sektor zu Sektor ein Viertel der Periode des Tangentialgitters betragen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren
de Scheibe als Taumelscheibe ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu
rierte Array auf der Oberfläche eines Teilbereiches einer Taumelscheibe mit einem Taumelschlag und mit
einer planen Unterfläche ausgebildet sein. Auch ein Taumelschlag erzeugt bei der Rotation einer Scheibe
eine geometrisch-optische Weglängenänderung für das auf die Taumelscheibe aufgebrachte strukturierte
Array somit eine axiale Gegenstandsverschiebung bei der Abbildung desselben.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Taumel
scheibe als vollflächige Scheibe und als transparenter Körper ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Axial
schlag der Taumelscheibe maximal ein Zwanzigstel des Radius der Taumelscheibe aufweisen, wobei vor
zugsweise jedoch nur ein Ausschnitt der Taumelscheibe als strukturiertes Array zur Anwendung kommt.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zumindest
auf einem Teilbereich der Taumelscheibe ein strukturiertes Array aufgebracht sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu
rierte Array als Gitter in der Art einer Archimedischen Spirale mit mindestens einem Gang aufgebracht
sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der
Taumelscheibe zumindest in Teilbereichen ein Referenzgitter aufgebracht sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe
renzgitter auf der Taumelscheibe zumindest näherungsweise eine Radialstruktur aufweisen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll
flächigen Taumelscheibe mindestens eine Referenzmarke aufgebracht sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der
Taumelscheibe mehrere strukturierte Array in einzelnen Segmenten aufgebracht sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk
turierten Arrays in der Art eines Tangentialgitters aufgebracht sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Tan
gentialgitter von Sektor zu Sektor einen Sprung in der Struktur in der Art eines Phasensprunges aufwei
sen.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der
Sprung in der Phase mindestens einen ganzzahligen Teil von einem Viertel der Periode des Tangentialgit
ters betragen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der
Taumelscheibe mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistanten
konzentrischen Kreisen aufgebracht sein, wobei vorzugsweise der Mittelpunkt der konzentrischen Kreise
zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet ist und
vorzugsweise die Gitterstruktur von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines
Phasensprunges aufweist und der Sprung in der Phase von Sektor zu Sektor ein ganzzahliges Vielfaches
eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. Dadurch wird erreicht, daß sich zumin
dest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenele
mente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren
de Scheibe als Schraubenfläche ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das rotati
onssymmetrisches Transmissionsgitter auf einer Schraubenfläche einer beleuchteten, rotierenden Schei
be mit maximal einem Gang, also mit einem Kreisausschnitt von maximal 360° ausgebildet sein, und so
mindestens einen Absatz aufweisen, und das rotatorische Transmissionsgitter kann als Schraubenfläche
eine Steigung pro Umdrehung von maximal einem Zehntel des Durchmessers der beleuchteten, rotieren
den Scheibe aufweisen, wobei vorzugsweise jedoch nur ein Ausschnitt des Transmissionsgitters als
strukturiertes Array im Beleuchtungsstrahlengang zur Anwendung kommen. Dabei kann der Absatz vor
zugsweise einen zumindest näherungsweise radialen Verlauf aufweisen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Steigung
der Schraubenfläche und die Anzahl der Gänge der Spirale in der Schraubenfläche so gewählt werden,
daß bei der Drehung der schraubenförmigen Gitterfläche die leuchtenden Flächenelementen FEL sich auf
Verschiebungsstrecken VSAj befinden, die vorzugsweise zumindest näherungsweise parallel zu einer Ge
raden gA angeordnet sind.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem rotati
onssymmetrischen Transmissionsgitter auf einer Schraubenfläche zur Bestimmung der Referenzphase
eine Baugruppe mit einem Laser und einem Kollimator zugeordnet sein und mindestens eine feine Markie
rung als Referenzmarke auf der Schraubenfläche aufgebracht sein, wobei der Baugruppe vorzugsweise
ein Gitter mit einer Teilungskonstanten, welche beispielsweise dem mittleren Abstand der leuchtenden
Flächenelemente FEL entsprechen kann, nachgeordnet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der
Schraubenfläche mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistan
ten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen Kreise zumindest
näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet sein die Gitterstruktur
von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweisen und
der Sprung in der Phase von Sektor zu Sektor vorzugsweise ein ganzzahliges Vielfaches eines Viertels
der mittleren Gitterkonstanten des Gitters beträgt. Um bei Rotation der Schraubenfläche die Referenzpha
se hochgenau zu bestimmen und die dabei auftretenden unterschiedlichen Abstände auszugleichen zu
können, wird mittels einem Laser und einem nachgeordnetem Kollimator eine Planwelle erzeugt. Diese
trifft entweder auf ein ebenfalls miniaturisiertes Interferometer oder ein Gitter mit einer Teilungskonstan
ten, welche beispielsweise dem mittleren Abstand der leuchtenden Flächenelemente FEL entspricht. So
kann in der Gitterebene des rotationssymmetrischen Transmissionsgitters als Schraubenfläche eine
strukturierte Beleuchtung mit einer bei der Drehung dieses Transmissionsgitters in der Tiefe nicht ver
schwindender Struktur erzeugt werden. Die aktuelle relative Referenzphase kann dabei durch die Auswer
tung von Licht in Transmission bestimmt werden. Dadurch wird erreicht, daß sich zumindest zu einem
Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumin
dest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene im Beleuch
tungsstrahlengang dem Beleuchtungsobjektiv ein bewegliches Keilprisma aus einem transparenten opti
schen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensationsprisma aus einem transpa
renten optischen Werkstoff zugeordnet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem
Keilprisma ein strukturiertes Array aufgebracht sein und dem Keilprisma eine Linearführung mit einem Li
nearmotor zugeordnet sein, wobei und auch im Abbildungsstrahlengang ein bewegliches Keilprisma aus
einem transparenten optischen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensati
onsprisma dem Abbildungsobjektiv zugeordnet sein kann. Dadurch wird erreicht, daß sich zumindest zu
einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL
zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem
beweglichem Keilprisma ein Referenzgitter mit einer Referenzmarke aufgebracht sein und eine Lichtquelle
und ein opto-elektronisches Auswertemodul dem Referenzgitter zugeordnet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für ein be
wegtes Keilprisma im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays
durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise jeweils entsprechend der
folgenden Bedingung
|(Δϕ.p)/(2π.zAG)| = |d/fB|
zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken
BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.
Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf
die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach
se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele
mentes FELj des strukturiert leuchtenden Arrays bei der Bewegung des Keilprismas und p die Gitterkon
stante des strukturiert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den
Abstand des Pupillenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Ab
bildungsobjektivs im Objektraum. Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Ar
rays auf dem Keilprisma kann sowohl durch eine Dickenänderung des Keilprismas, aber auch durch eine
Änderung des Brechungsindexes, aber auch durch deren Kombination verursacht sein.
Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbe
reich ΔtB die leuchtenden Flächenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu
einer Geraden gAP bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für eine ro
tierende Scheibe oder Teile derselben im Beleuchtungsstrahlengang bei der Abbildung des strukturiert
leuchtenden Arrays durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise je
weils entsprechend der folgenden Bedingung
|(Δϕ.p)/(2π.zAG)| = |d/fB|
zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken
BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.
Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf
die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach
se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele
mentes FELj des strukturiert leuchtenden Arrays bei der Rotation und p die Gitterkonstante des struktu
riert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den Abstand des Pupil
lenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Abbildungsobjektivs im
Objektraum.
Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Arrays auf der rotierenden Scheibe
kann sowohl durch eine Dickenänderung der rotierenden Scheibe, aber auch durch eine Änderung des
Brechungsindexes, aber auch durch deren Kombination verursacht sein. Diese Beziehung gilt grundsätz
lich sowohl für stetige als auch für segmentierte rotierende Scheiben. Dadurch wird erreicht, daß sich
zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flä
chenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei
Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil
dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die
Hauptebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind und jedem derselben je ein
Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Emp
fänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist,
dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein. Die
resultierende Bewegungsrichtung des ersten Empfänger-Array kann dabei auf einer Strecke ASA1 auf dem
ersten oberen Ast eines Buchstabens Y erfolgen und die Strecke ASA1 kann parallel zu einer Geraden
gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneidet und
andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der
beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet so daß sich die detek
tierenden Elemente des erstes Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der
Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Die resultierende Bewegungsrichtung des
zweiten Empfänger-Array kann auf einer Strecke ASA2 auf dem zweiten oberen Ast des Buchstabens Y
erfolgen, und die Strecke ASA1 kann parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt
des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der
Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die
zusammenfallenden Hauptebenen schneidet. So können sich die detektierenden Elemente des zweites
Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der Symmetrielinie SL den unteren Teil
des Buchstabens Y bildet. Die Szene kann eine Freiraumszene sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei
Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil
dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die
Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein
Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit
Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist dem ersten und
dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein und die resultieren
de Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke ASA1 parallel zur optischen Achse
des ersten Abbildungsobjektivs erfolgen, und genau die Elemente des ersten Empfänger-Arrays ausgele
sen werden und aus diesen ein Signalverlauf gebildet werden, welche sich auf Strecken ASA1j befinden,
die parallel zu einer Geraden gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs
im Array-Raum schneiden und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen
den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe
nen schneiden. So entsprechen die zur Signalbildung verwendeten Elemente des erstes Empfänger-Array
denen, welche sich auf Strecken ASA1j befinden, wobei ein Teil der Symmetrielinie SL den unteren Teil
des Buchstabens Y bildet und die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann
auf einer Strecke ASA2 parallel zur optischen Achse des zweiten Abbildungsobjektivs erfolgen, wobei ge
nau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf
gebildet wird, welche sich auf Strecken ASA2j befinden, die parallel zu einer Geraden gA2P liegen, die zum
einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den
Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbil
dungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So entsprechen die zur Signalbil
dung verwendeten Elemente des zweiten Empfänger-Array denen, welche sich auf Strecken ASA2j befin
den, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Auch hier kann die
Szene eine Freiraumszene sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei
Abbildungsstrahlengängen jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transpa
renten Platte, die vorzugsweise planparallel ausgeführt ist, mit einer vorbestimmten geometrisch
optischen Dicke zugeordnet sein und auf der rotierenden Scheibe Referenzmarken aufgebracht sein, wo
bei die optische Dicke der transparenten Platte stetig veränderlich sein kann. In den Referenzmarken ist
die Information über die optische Dicke der transparenten Platte, welche gerade im Strahlengang vor ei
nem Empfänger-Arrays angeordnet ist, enthalten.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit jedem
Empfänger-Array eine rotierende Scheibe mit mindestens einer transparenten Platte, die vorzugsweise
planparallel ausgeführt ist, und jeder transparenten Platte eine vorbestimmten ortsabhängigen geome
trisch-optischen Dicke zugeordnet sein und auf der rotierenden Scheibe mindestens eine Referenzmarke
aufgebracht sein und so kann so die optische Dicke sich von transparenter Platte zu transparenter Platte
vorherbestimmt verändert werden. In den Referenzmarken ist die Information über die optische Dicke der
transparenten Platte, welche gerade im Strahlengang vor einem Empfänger-Arrays angeordnet ist, enthal
ten. Dabei kann das Empfänger-Array mit einer Steuerung Länge und des Beginns der Integrationszeit in
Teilbereichen ausgelesen werden, so daß Bereiche gleicher Dicke ohne Sprungstelle in der Platte ausge
lesen werden können. So kann jeweils eine Stelle gleicher optische Dicke fast in der gesamten Verweilzeit
vor einem zugeordneten Element des Empfänger-Arrays detektiert werden. Weiterhin ist es möglich, daß
sich vor einem elektronisch steuerbaren Array eine rotierende Scheibe mit mehreren transparenten Platte
mit einer vorbestimmten optischen Dicke befinden, die eine vorbestimmte optische Dicke aufweisen und
sich die optische Dicke von Platte zu Platte ändert, wobei Referenzmarken angeordnet sind, welche die
Information über aktuelle optische Dicke der jeweils optisch wirksamen transparenten Platte enthalten und
die transparenten Platten zumindest näherungsweise als planparallele Platten ausgeführt sind.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei
Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil
dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die
Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein
Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit
Elementen angeordnet sind, für fotografische 3D-Farb-Aufnahmen für die Gewinnung der 3D-Punktwolke
zwischen jedem Abbildungsobjektiv und jedem Empfänger-Array je mindestens zwei gleichwinklige Pris
men aus einem Optikwerkstoff mit vorzugsweise je einem gleichen Brechungsindex und vorzugsweise
gleicher Dispersion angeordnet sein, die als Keilprismen bezeichnet werden, wobei je zwei Keilprismen
ein Parallelstück mit einem parallelen Zwischenraum konstanter Dicke bilden. Die Strahlachse steht auf
den äußeren Flächen des Parallelstückes jeweils senkrecht.
Dieser Zwischenraum konstanter Dicke wird vorzugsweise von den einander zugekehrten Innenflächen
der beiden Keilprismen begrenzt. Der Zwischenraum ist vorzugsweise mit Luft ausgefüllt, kann aber auch
mit einem transparenten Optikwerkstoff ausgefüllt sein, der vorzugsweise einen geringeren Brechungsin
dex als die beiden gleichwinkligen Keilprismen aufweist. Durch die Dispersion können lateral verschobene
Bilder in der Bildebene erzeugt werden. Durch Zuordnung einer Empfänger-Arrays mit zeilenweise aufge
brachten Farbfiltern in den Farbbereichen rot grün blau kann der Farbwert eines jeden Objektpunktes
zumindest näherungsweise vom gleichen Element der Objektoberfläche gewonnen werden. Dabei kann
das feststehende Prisma als Fenster des Empfänger-Arrays angeordnet sein.
Weiterhin kann mindestens ein Keilprisma zumindest näherungsweise geradlinig verschoben werden, wo
bei die Verschiebungsrichtung parallel zur inneren Fläche des verschobenen Keilprismas liegt und in je
dem Fall eine Querkomponente zur Lichtausbreitungsrichtung enthält. Durch die Verschiebung des
Keilprismas wird in jedem der beiden Abbildungsstrahlengänge die gleiche axiale Bildverschiebung in zA-
Richtung erzeugt, so daß die korrespondierenden Pixel Informationen aus unterschiedlichen Tiefen des
Objektraumes detektieren können. Beispielsweise können so 16 Bilder aus unterschiedlichen Tiefen des
Objektraumes aufgenommen werden. Bei Aufnahmen von Objektoberflächen in der Szene mit der Einstel
lung auf den Nahbereich kann synchron zur Aufnahme von Bildern eine Blitzlichtquelle die Objektoberflä
chen in der Szene ausleuchten. So kann eine Bildfolge mit 16 Bildern mit 16 Einzelblitzen in 0,2 s aufge
nommen werden. Eine höhere Blitzfrequenz ist grundsätzlich möglich. Dabei sendet die Blitzlichtquelle
vorzugsweise kein strukturiertes Licht aus. Jedoch ist mit einer spezielle Blitzlichtquelle auch eine struktu
rierte Beleuchtung möglich, jedoch sollte dann eine laterale Verschiebung der strukturierten Beleuchtung
stattfinden, um zumindest näherungsweise die Elemente der Objektoberfläche gleichmäßig ausleuchten
zu können.
Weiterhin kann zur Kompensation des anamorphotischen Effektes bei Keilprismen mit einem Winkel
oberhalb von 5° ein zweites baugleiches Parallelstück mit einem gleichgestalteten Zwischenraum ange
ordnet werden, welches um die Strahlachse um 90° gedreht wurde. Von den vier einzelnen Keilprismen
können dabei die beiden inneren zu einen Monolithen vereinigt sein.
Weiterhin sind die Projektionen der Verschiebungsrichtungen der beiden äußeren Keilprismen auf die Au
ßenfläche eines Parallelstückes vorzugsweise senkrecht zueinander ausgerichtet, wobei dei beiden äuße
ren Keilprismen je eine oszillierende Bewegung mit einer 90°-Phasenverschiebung der Bewegung zuein
ander ausführen können.
Die Auswertung der beispielsweise 16 Bilder erfolgt mittels des bereits genannten Korrelationsverfahren
über die korrespondierenden Pixel durch die Bestimmung eines Korrelationsmaximums Mj. So kann von
einer Standard-Szene die 3D-Punktwolke der Elemente der Objektoberflächen in der Szene, einschließ
lich der Farbinformation durch die Auswertung der Farbwerte in den Bildern der Elemente der Objektober
flächen, errechnet werden. Die Wiedergabe als 3D-Bild erfolgt nach einer automatischen oder einer inter
aktiven Weiterverarbeitung der 3D-Punktwolke zu einem 3D-Flächen-Modell. Die Betrachtung der farbigen
3D-Flächen-Modell kann beispielsweise mittels eines digitalen 3D-Monitors erfolgen.
Weiterhin kann bei der Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer min
destens einer Szene das Empfänger-Array eine Farbkamera darstellen.
Weiterhin ist in einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens
einer Szene mit mindestens einer elektromagnetischen Strahlungsquelle und die Strahlungsquelle mittels
mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenele
menten FEL ausgebildet.
Es ist mindestens ein Beleuchtungsstrahlengang mit mindestens Beleuchtungsobjektiv, welches eine ef
fektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB aufweist, zur struktu
rierten Beleuchtung der Objektoberflächen im Objektraum angeordnet. Der Objektraum, entspricht dem
Szenenraum. Das Beleuchtungsobjektiv ist einem dem strukturiert leuchtenden Array, einschließlich ei
nem Bild desselben, zugeordnet.
Außerdem ist dem mindestens einen Beleuchtungsstrahlengang ein Abbildungsstrahlengang zugeordnet,
der mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberflächen mit mindestens ei
nem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv zur Abbildung
der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blendenzentrum
BZA aufweist. Mittels Elementen des mindestens einem Empfänger-Arrays wird im Aufnahmevorgang
elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum
detektiert.
Der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzentrums BZB
im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzentrums BZA im
Objektraum, beträgt mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuchtungsob
jektivs. Die leuchtenden Flächenelemente FEL weisen in einer Leuchtdichteverteilung eine zumindest nä
herungsweise vorherbestimmten Leuchtdichteauf, so daß durch die Abbildung mit dem Beleuchtungsob
jektiv mindestens ein Bild eines leuchtenden Flächenelementes FELj im Objektraum gebildet ist.
So ist erfindungsgemäß im Objektraum das Schärfevolumen mindestens eines Bildes eines leuchtenden
Flächenelementes FELj in einem strukturiert leuchtenden Array
- durch die vorbestimmte Zuordnung des leuchtenden Flächenelementes FELj zum Beleuchtungsobjektiv
und die Zuordnung der Elemente des Empfänger-Arrays zum Abbildungsobjektiv und die Zuordnung von
Beleuchtungsobjektiv zum Abbildungsobjektiv in der 3D-Aufnahme-Anordnung unter Anwendung der
Newtonschen Abbildungsgleichung -
permanent in das Schärfevolumen eingepaßt, welches durch die Gesamtheit der Bilder der Elemente des
Empfänger-Arrays im Objektraum dargestellt ist. Dabei weist das Schärfevolumen, welches durch die Ge
samtheit der Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, min
destens eine so große Tiefenausdehnung wie das Schärfevolumen eines einzelnen Bildes eines leuch
tenden Flächenelementes FELj auf, so daß für alle Bilder eines leuchtenden Flächenelementes FELj ein
diese umschließendes Schärfevolumen von Bildern der Elemente des Empfänger-Arrays gegeben ist
und im Objektraum jeweils ein Bild eines leuchtenden Flächenelementes FELj eines strukturierten Arrays
mindestens einem Bild eines Elementes des Empfänger-Arrays fest zugeordnet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer in
einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sind, wobei mindestens eine
Sub-Matrix angeordnet ist und mindestens in einer strukturierten Sub-Matrix wiederum strukturierte Zellen
angeordnet sind, wobei wiederum in jeder strukturierten Zelle durch eine Maskierung in der Fläche der
strukturierten Zelle mindestens eine Fensterfläche angeordnet ist und diese mindestens eine Fensterflä
che eine mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv aufweist, die unterschiedlich zur
Fensterfläche der Nachbarzelle im Hauptschnitt gemacht ist und in einer Fensterfläche in einer strukturier
ten Zelle jeweils im Zusammenwirken mit der Strahlungsquelle mindestens ein leuchtendes Flächenele
ment FELj dargestellt ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer
Szene in einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sein. Dabei sind in der
strukturierten Sub-Matrix wiederum strukturierte Zellen angeordnet, wobei wiederum in jeder strukturierten
Zelle durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche ange
ordnet ist. Diese mindestens eine Fensterfläche weist eine mittlere optische Gegenstandsweite zum Be
leuchtungsobjektiv auf, die unterschiedlich zur Fensterfläche der Nachbarzelle im Hauptschnitt gemacht
ist. So entsteht das Bild der Maskierung in einer anderen Tiefe des Objektraumes, wodurch in verschie
denen Tiefen des Objektraumes Bilder der Maskierung erzeugt werden können. Außerdem ist in einer
Fensterfläche in einer strukturierten Zelle jeweils mindestens ein selbstleuchtendes Flächenelement FELj
angeordnet. Dieses wird in den Objektraum abgebildet.
Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze
ne die Fensterfläche vorzugsweise zumindest näherungsweise in einer Ebene senkrecht zur optischen
Achse des Beleuchtungsobjektivs angeordnet.
Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze
ne vorzugsweise mindestens eine strukturierte Sub-Matrix als eine Transmissionsanordnung mit einem
optischen Werkstoff ausgebildet.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer
Szene mindestens die optisch aktive Oberfläche der strukturierten Zellen jeweils einen räumlich struktu
rierten Bereich aufweisen, wobei in diesem räumlichen strukturierten Bereich die Fensterfläche als plane
Fläche ausgebildet sein. In der planen Fläche des Fensterelementes ist vorzugsweise eine Maske ange
ordnet und in einem Teilbereich der räumlich strukturierten Zelle ist neben der Maske auf der planen Flä
che des Fensterelementes eine Mikrolinse mit einer fokussierenden Wirkung angeordnet ist, wobei deren
Fokus zumindest näherungsweise in der Fläche des Fensterelementes positioniert ist. Dabei weist die
Maske ein Binär-Code-Transparenzprofil zur Codierung einer maschinenlesbaren Zahl als Positionsnum
mer. So sind die Masken innerhalb einer Zelle jeweils eindeutig maschinenlesbar und voneinander unter
scheidbar. Damit ist zumindestens innerhalb einer Zelle die Mikrolinse ist neben der Maske auf der planen
Fläche des Fensterelementes eindeutig zu identifizieren, so daß aus der lateralen Lage des Fokuspunktes
im aufgenommenen Bild die zO-Koordinate sowie die xO- und die yO-Koordinate des zugehörigen Objekt
punktes bestimmt werden kann.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Mikro
linse in einem Teilbereich der räumlich strukturierten Zelle neben der Maske auf der Fensterfläche jeweils
als eine Zylinderlinse ausgebildet sein. Dadurch gibt es jeweils eine Lichtspur auf der Objektoberfläche mit
einer vergleichsweise hohen Beleuchtungsstärke über die Länge der Zylinderlinse. So ist diese Lichtspur
unabhängig von lateralen Verschiebungen problemlos detektierbar und somit ist eine hohe Detektionssi
cherheit gegeben.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer die Mikrolinse so angeordnet
sein, daß deren Fokuspunkt zumindest näherungsweise in der Ebene der Maske positioniert ist. Dadurch
ist eine besonders feine Lichtspur realisierbar.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk
turierte Array als opakes Reliefstück mit mehreren, mindestens jedoch zwei, feinen Durchbrüchen, die
gegenüber dem Beleuchtungsobjektiv angeordnet sind, ausgebildet sein. Beim Einsatz des Reliefstückes
in die 3D-Aufnahme-Anordnung befinden sich die feinen Durchbrüchen in unterschiedlichen Tiefen des
Array-Raumes, so daß deren Bilder sich an unterschiedlich tiefen Punktes des Objektraumes befinden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk
turierte Array als ein nichttransparentes Reliefstück mit Durchbrüchen versehen sein. Die Oberfläche des
Reliefstückes weist zum Beleuchtungsobjektiv und ist vorzugsweise so gefertigt, daß diese zumindestens
näherungsweise die optisch konjugierte Fläche eines zu prüfenden Sollstückes darstellt und die Durch
brüche auf der Oberfläche des Reliefstückes zumindestens näherungsweise die optisch konjugierten Orte
der Sollfläche eines Prüflings darstellen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk
turierte Array als ein transparentes Mikrolinsen-Array ausgebildet ist und die Brennweite und die axiale
Lage der Mikrolinsen so gestaltet sein, daß deren Foki in einer 3D-Fläche angeordnet sind, die zuminde
stens näherungsweise eine zur Sollfläche optisch konjugierte Fläche darstellt. Die Foki der Mikrolinsen
stellen zumindestens näherungsweise einige optisch konjugierten Orte der Sollfläche eines Prüflings dar.
So kann durch die Bestimmung der Fokuslage im Bild die Abweichung von einer Sollage bestimmt wer
den.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche auf dem
strukturierten Array mindestens ein Relief mit einer räumlichen Struktur mit mindestens einer Periode in
Form von mindestens einer Rampe mit mindestens einer in der Ausgleichsfläche schrägen Rampenfläche
gebildet sein. Dabei ist vorzugsweise mindestens eine Rampenfläche jeweils zum Beleuchtungsobjektiv
ausgerichtet. Auf der schrägen Rampenfläche sind vorzugsweise leuchtende Flächenelemente FEL an
geordnet. Diese leuchtende Flächenelemente FEL werden durch Fensterflächen gebildet, die von der
Strahlungsquelle beleuchtet werden.
Die Rampenflächen sind vorzugsweise so geneigt, daß die Ausgleichsgerade AGAj durch die schräge
Rampenfläche im Hauptschnitt nach Abbildung durch das Beleuchtungsobjektivs im Objektraum als Bild
eine Gerade AGOj liefert, die zumindestens näherungsweise auf das Pupillenzentrum PZOA des Abbil
dungsobjektivs zielt. In der Regel sind mehrere Rampen vorhanden, so daß die verschiedenen Aus
gleichsgeraden AGOj von mehreren verschiedenen Rampen nach deren Abbildung durch das Beleuch
tungsobjektivs aus deren Bildern ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist. Das
Beleuchtungsobjektiv ist dabei vorzugsweise hoch geöffnet. Der Konvergenzpunkt K1 ist dabei zuminde
stens näherungsweise im Pupillenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht. So ist
gegeben, daß sich bei der Aufnahme von Bildern der Objektoberfläche in allen Tiefen eindeutig eine
Rampe verfolgt werden kann, ohne daß es Probleme mit lateralen Fehllagen gibt, da der verfolgende
Abbildungsstrahl stets aus dem Pupillenzentrum des Abbildungsobjektivs kommt. Das Abbildungsobjektiv
kann vergleichsweise kurzbrennweitig sein, kürzer als das Beleuchtungsobjektiv, und ist dabei so weit ab
geblendet, beispielsweise auf die Blende 11, daß ein großer Tiefenschärfebereich gegeben ist. Damit
bestimmt der Tiefenschärfebereich des Abbildungsobjektivs hier den Tiefenbereich für die 3D-
Aufnahmeanordnung. Dabei kann im Objektraum das Bild einer Rampe mit der Achse des Abbildungsob
jektivs zusammenfallen. Die anderen Bilder der Rampen bilden im Hauptschnitt ein Büschel mit dem Ur
sprungspunkt im Pupillenzentrum. So wird die zu detektierend Objektoberfläche von den Rampenbildern
durchschnitten. Im Schnittpunkt eines Rampenbildes mit der Objektoberfläche entsteht ein jeweils ein
scharfes Bild von der Maske auf der Rampenfläche.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf der
Rampenfläche, die eine mittlere Länge WP aufweist, jeweils mindestens eine Maske mit einem Binär-
Code-Transparenzprofil mit der Sequenzlänge bz auf einem stetigen Flächenbereich derselben gebildet
sein. Die in der Maske mit einem Binär-Code-Profil verwendete minimale Strukturbreite p ist vorzugsweise
mindestens so groß gemacht, daß diese vom Beleuchtungsobjektiv noch ohne merklichen Kontrastverlust
scharf abgebildet werden kann. Die Länge WP ist dabei vorzugsweise größer als bz.d/DB gemacht und
die auf einer Rampenfläche aufgebrachten Masken sind mit einem Binär-Code-Transparenzprofil jeweils
eindeutig und maschinenlesbar voneinander unterscheidbar. So kann auch bei einem lateralen Auswan
dern aufgrund des Triangulationseffektes die Masken sicher identifiziert werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mehrere
Rampenflächen hintereinander in zum Hauptschnitt parallelen Zeilen in einer Sub-Matrix angeordnet sein,
und deren mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv von Zeile zu Zeile, also in y-
Richtung jeweils unterschiedlich gemacht ist, beispielsweise stets ansteigend. So entstehen ein mittlerer
Anstieg in einer zweiten Richtung, der y-Richtung, und so können besonders viele unterscheidbare Hö
henstufen realisiert werden. wodurch sich ein besonders großer Tiefenerfassungsbereich für die 3D-
Aufnahme-Anordnung ergibt. Dem Abbildungsobjektiv kann, um bei einem sehr großen Tiefenerfassungs
bereich nicht zu stark abblenden zu müssen, eine transparente Platte mit Keilprismen zugeordnet sein,
die eine Platte mit Rampen darstellt, wobei die Rampenanzahl der Anzahl der Sub-Matrizen entspricht
und der Keilwinkel dieser Platte sich aus dem Abbildungsmaßstab ergibt. Dabei steigen die Prismenkeile
auf diese Platte in diesem Beispiel ebenfalls in y-Richtung an, so daß vom Abbildungsobjektiv scharte Bil
der von Ebenen gesehen werden können, die nicht senkrecht zur optische Achse desselben angeordnet
sind.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche inner
halb der Rampenflächen mehrere Stufen ausgebildet sein, wobei sich auf einer Fläche einer Stufe je min
destens eine Maske mit einem Binär-Code-Transparenzprofil mit mindestens einem transparenten Feld
aufgebracht ist. Dabei müssen die Stufen nicht unbedingt stetig steigend oder fallend sein. So können
auch Stufen vertauscht werden. Die Ausgleichsgerade bezieht sich auf den Fall, ohne das Vertauschen
von Stufen. Die Ausgleichsgerade AGAj schneidet die nicht vertauschten Stufen jeweils etwa in der Mitte
der Stufenflächen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Binär-
Code-Profil als Balken-Code-Profil Transparenzprofil mit mindestens einem transparenten Balken aus
gebildet sein. Ein Balken-Code-Profil Transparenzprofil kann so zeilenweise und damit besonders schnell
gelesen werden. Die Balken sind vorzugsweise parallel zum Hauptschnitt angeordnet und so erfolgt die
Detektierung des Balken-Code-Transparenzprofils senkrecht zum Hauptschnitt. Die Balken überdecken
jeweils vorzugsweise mehrere Spalten bei einer Abbildung auf eine Empfängerfläche, beispielsweise min
destens zwei Spalten. Dabei kann vorzugsweise das Tastverhältnis der Balken-Codierung bei einer kon
stanten Periodenlänge des Balken-Codes ausgewertet werden. So ist beim Detektieren eine hohe Erken
nungssicherheit unabhängig von der Position gegeben. Andererseits können die nebeneinander liegenden
Balken als Balken gleicher Breite in nebeneinander liegenden Zellen auf Lücke gesetzt sein, so daß durch
eine laterale Verschiebung infolge eines Höhenversatzes auf der Objektoberfläche keine Fehlinformation
bei der Bildaufnahme entstehen kann. Weiterhin kann sich in einem äquidistanten Raster jeweils ein Dun
kel-Hell-Übergang am gleichen Ort der Zellen befinden. Vorzugsweise kann es auch ein quadratisches
Raster sein. Dies ist sehr vorteilhaft, da sich zumindestens bei einer zumindest näherungsweisen ebenen
Fläche ein äquidistantes Raster von Meßpunkten gebildet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf
den Rampenflächen mit der Länge WP eine Gitterstruktur mit einem cos2-Transparenzprofil mit minde
stens einer Periodenlänge bz aufgebracht sein. Die Periodenlänge bz ist vorzugsweise mindestens so
groß gemacht, daß diese vom Beleuchtungsobjektiv mit einer hohen relativen Lichtstärke noch ohne
merklichen Kontrastverlust abgebildet werden kann. Die Länge WP der Rampenfläche ist jeweils größer
als bz.d/DB gemacht ist, wobei die Länge der Rampenfläche mindestens gleich der Periodenlänge bz
gemacht.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche leuchtende
Flächenelemente FEL als von der Strahlungsquelle beleuchtete, transparente Fensterflächen, einschließ
lich Bilder von diesen, im Array-Raum positioniert sein. Die dem Beleuchtungsobjektiv zugewandte Seite
des strukturierten transparenten Arrays ist mindestens als ein einziges Relief mit einer räumlichen Struk
tur mit mindestens einer Periode in Form von mindestens einer Rampe gebildet, die jeweils ein transpa
rentes Keilprisma darstellt.
Die Keilprismen weisen vorzugsweise einen Keilwinkel auf, der so gewählt ist, daß durch dessen abbil
dende Wirkung die Bilder der leuchtende Flächenelemente FEL zumindestens näherungsweise auf einer
Ausgleichsgerade AGAj im Hauptschnitt liegen. Die Ausgleichsgerade AGAj liefert vorzugsweise nach Ab
bildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AGOj, die auf das Pupillen
zentrum PZOA des Abbildungsobjektivs zielt. Dabei ist vorzugsweise für mehrere Ausgleichsgeraden AGOj
von mehreren Rampen nach deren Abbildung durch das Beleuchtungsobjektivs aus deren Bildern ein Ge
radenbündel mit einen Konvergenzpunkt K1 gebildet, der zumindestens näherungsweise mit dem Pupil
lenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht ist. So kann vermieden werden, daß
auf den schrägen Flächen einer Rampe eine Maskierung aufgebracht werden muß. Die Maskierung be
findet sich auf der Vorderseite des vorzugsweise zur Strahlungsquelle planen Reliefs.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die trans
parenten Keilprismen jeweils so gefertigt sein, daß diese im Mittel zumindestens näherungsweise den
Keilwinkel im Bogenmaß mit dem Betrag fB.n/[d.(n-1)] aufweisen. Bei diesem Winkel ergibt sich eine
Drehung der leuchtenden Flächenelemente, die auf einer planen Fläche, senkrecht zur Achse des Be
leuchtungsobjektivs, angeordnet sind.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei
nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die
zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise gleichwinklig ausgebildet sein. So
stellen vorzugsweise, wenn nicht die Rampenflächen selbst, aufgrund einer räumlichen Strukturierung
derselben, wenigstens die Ausgleichsgeraden AGAj durch die schrägen Rampenflächen im Hauptschnitt
der 3D-Aufnahme-Anordnung zueinander parallele Geraden dar.
Die Rampenflächen sind so gestaltet, daß nach Abbildung durch das Beleuchtungsobjektivs aus den Bil
dern der parallelen Ausgleichsgeraden ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist,
der zumindestens näherungsweise mit dem Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum
zur Koinzidenz gebracht ist. Die Herstellung von derartigen Rampen ist vergleichsweise einfach.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei
nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die
zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise mit der gleichen Länge ausgebildet
sein. Die Herstellung von derartigen Rampen ist vergleichsweise einfach.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil
dungsobjektiv eine transparente Platte mit Keilprismen nachgeordnet sein, die eine Platte mit Rampen
darstellt, wobei die Anzahl der Rampen der Anzahl der Sub-Matrizen auf dem strukturierten Array ent
spricht. Weiterhin können die Rampen Mikro-Stufen aufweisen, die senkrecht zur Achse des Abbildungs
objektivs ausgerichtet sein. So kann die brechende Wirkung eines Prismas vermieden werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche im Abbil
dungsstrahlengang mindestens ein Mikrolinsen-Array angeordnet sein, beispielsweise in einer Zwischen
abbildungsstufe, die dem Objektiv vor dem Empfänger-Array vorgeordnet ist, wobei die Mikrolinsen inner
halb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine
Ebene senkrecht zur optischen Achse des Abbildungsstrahlenganges aufweisen. So können mit einer
planen Empfängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte scharf abgebildet
werden. Es können zwei ein Mikrolinsen-Arrays mit jeweils koaxialen Mikrolinsen angeordnet sein, die ein
Mikro-Teleskop bilden, wobei ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite gefertigt
ist, dem ein Mikrolinsen-Array mit Mikrolinsen gleicher Brennweite zugeordnet ist, so daß ein Array aus
Mikro-Teleskopen gebildet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil
dungsobjektiv mindestens ein Mikrolinsen-Array vorgeordnet ist, wobei die Mikrolinsen innerhalb eines
Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senk
recht zur optischen Achse des Abbildungsobjektivs aufweisen. Auch hier können mit einer planen Emp
fängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte gleichzeitig scharf abgebildet
werden, ohne daß eine Zwischenabbildungsstufe benötigt wird. So ist vorzugsweise ein Mikrolinsen-Array
mit Mikrolinsen unterschiedlicher Brennweite angeordnet.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte
der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf einem räumlichen Profil angeordnet sind. Dieses
kann ein Sinusprofil sein, welches sich optimal herstellen läßt.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte
der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf Rampenflächen angeordnet sein. So können mit ei
ner planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebildet
werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil
dungsobjektiv mindestens ein Lichtwellenleiter-Array, welches aus Mikrofasern gefertigt ist, vorgeordnet
sein, wobei die Mikrofasern zumindest näherungsweise parallel zur optischen Achse des Abbildungsob
jektiv angeordnet sind. Dabei liegen die Mikrofaserenden vorzugsweise auf der einen Seite des Lichtwel
lenleiter-Arrays in einer gemeinsamen Ebene und sind den Elementen des Empfänger-Arrays unmittelbar
zugeordnet. Auf der anderen Seite des Lichtwellenleiter-Arrays sind die Faserenden dem Abbildungsob
jektiv zugeordnet. Hier sind die Faserenden auf einem räumlichen Profil angeordnet. So kann Licht aus
unterschiedlichen Ebenen des Array-Raumes detektiert werden. Die Punkte der Detektion entsprechen
unterschiedlich weit entfernten Punkten im Objektraum, so daß Elemente einer Objektoberfläche aus un
terschiedlichen Tiefen des Objektraumes gleichzeitig aufgenommen werden können. Das räumlichen
Profil kann ein Stufenflächenprofil mit Rampenflächen darstellen. Die Ausbildung kann auch als Sinusprofil
erfolgen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das räum
liche Profil der Faserenden zumindestens näherungsweise mit Rampenflächen ausgebildet ist. So können
mit einer planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebil
det werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp
fänger-Array mit mindestens acht Elementen ausgebildet sein. Es gibt vorzugsweise mindestens zwei Be
reiche mit mindestens je vier Elementen, wobei die vier Elemente dann genau zwei Zellen darstellen, mit
einer unterschiedlichen mittleren Höhe der Elemente in einer Fläche gebildet sein, die als Sub-Fläche be
zeichnet wird. So sind auf dem Empfänger-Array Bereiche gebildet, die zu einer Sub-Fläche mit einer
mittleren Höhe gehören, und auf dem Empfänger-Array mindestens Elemente in vier unterscheidbaren
Höhenstufen angeordnet. Damit kann ein größerer Tiefenbereich im Objektraum zumindest näherungs
weise scharf auf die einzelnen Elemente des Empfänger-Arrays abgebildet werden, ohne daß eine Fo
kussierung durch eine mechanische Verschiebung erforderlich ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Aus
gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche eine Rampenfläche mit einer
gleichen Höhe darstellen, so daß mindestens zwei Rampenflächen auf dem Empfänger-Arrays gebildet
sind, die zumindest näherungsweise gleich gemacht sind und auch die Form der Rampenfläche zumin
dest näherungsweise gleich gemacht ist. So kann in mindestens zwei Bereichen der abgebildeten Objek
toberfläche der volle Tiefenerfassungsbereich realisiert werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die An
zahl der Bereiche, die zu einer Sub-Fläche gehören, mit der Anzahl der Sub-Matrizen im strukturierten Ar
ray übereinstimmen und ein Bereich, der zu einer Sub-Fläche gehört, sich über mindestens zwei linienhaf
te Bereiche des Empfänger-Arrays, die getrennt elektromagnetische Strahlung detektieren können, er
strecken. So können die von leuchtenden Flächenelementen FEL, die durch beleuchtete Fensterflächen in
unterschiedlicher Höhe auf einer Sub-Matrix des strukturierten Arrays gebildet sind, im Objektraum ent
stehenden Bilder auf der Objektoberfläche auf Elemente der Empfänger-Arrays zumindestens nähe
rungsweise scharf abgebildet werden. Die laterale Anordnung der Bereiche, die zu einer Sub-Fläche ge
hören, auf der Oberfläche des Empfänger-Arrays ist mit der lateralen Anordnung der Sub-Matrizen auf
dem strukturierten Array zumindest näherungsweise geometrisch ähnlich gemacht. Dabei stellt eine Aus
gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche jeweils eine Rampenfläche dar.
Es können mindestens zwei Sub-Flächen auf dem Empfänger-Arrays gebildet sein. In der Regel können
bis zu 128 bei einer 256 × 256 Pixel CCD-Matrix oder gar 512 Sub-Flächen bei einer 1024 × 1024 Pixel
CCD-Matrix gebildet sein, um von möglichst vielen Bereichen der Objektoberfläche scharfe Bildpunkte
über einen vergleichsweise großen Tiefenbereich detektieren zu können, ohne dabei das Abbildungsob
jektiv sehr stark abblenden zu müssen. Jeweils zwei Zeilen bilden im Minimum eine Sub-Fläche. Grund
sätzlich ist auch die Bildung von Sub-Flächen über mindestens zwei Spalten des Empfänger-Arrays, also
einer CCD-Matrix, möglich.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp
fänger-Array als CCD-Matrix-Kamera ausgebildet sein. Damit ist eine optimale Bildaufnahme bei Standar
daufgaben mit einem guten Signal-Rausch-Verhältnis möglich.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp
fänger-Array als CMOS-Matrix-Kamera ausgebildet sein. Damit ist durch den wahlfreien Zugriff auf Pixel
eine Verfolgung von bewegten Elementen der Objektoberfläche im Raum möglich.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp
fänger-Array als CCD-Zeilen-Kamera ausgebildet sein. Dies ist zur Aufnahme von sehr schnell ablaufen
den Vorgängen in einem Schnitt von großem Vorteil.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei
Abbildungsstrahlengänge angeordnet sein und jedem Abbildungsstrahlengang kann jeweils zumindestens
eine kippbare Spiegelfläche vorgeordnet werden und die vorgeordneten, kippbaren Spiegelflächen kön
nen starr miteinander verbunden sein und diesen können rechnergesteuerte Komponenten zur Durchfüh
rung einer definierten Verkippung zugeordnet sein. Durch das Kippen der Spiegelflächen mittels eines
rechnergesteuerten Schwingspiegels können unterschiedliche Schnitte für die 3D-Aufnahme ausgewählt
werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei
Abbildungsstrahlengänge angeordnet sind und den beiden Abbildungsstrahlengängen gemeinsam ein
rechnergesteuertes, rotierendes Spiegelpolygon vorgeordnet sein. So kann eine schnelle Aufnahme von
Objektoberflächen im Objektraum erfolgen.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem
Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil
dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten
Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist.
Dabei kann das erste Abbildungsobjektiv als ein Referenzsystem arbeiten, um beispielsweise eine absolu
te Messung in der bereits beschriebenen Art durchführen zu können. Das zweite Abbildungsobjektiv ist im
Abstand k.d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet, wobei k ≧ 2 gemacht ist.
Beispielsweise kann das zweite Abbildungsobjektiv im vierfachen Abstand angeordnet sein und ein be
sonders großes oder ein asymmetrisches Objektfeld besitzen. So ergibt sich ein größerer Triangulations
winkel und damit eine höhere Tiefenauflösung, wobei die Informationen, die vom ersten Abbildungsobjek
tiv gewonnen werden dazu dienen, die Ergebnisse die mit dem zweiten Abbildungsobjektiv gewonnen
werden, bezüglich der gemessenen Phaseninformationen zu überprüfen und gegebenenfalls hinsichtlich
der Streifenordnung zu korrigieren.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei
Abbildungsstrahlengänge mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil
dungsobjektiven angeordnet sein. Dabei ist das erste Abbildungsobjektiv mit einer zumindest näherungs
weiser einseitiger Telezentrie im Array-Raum ausgeführt und das zweite Abbildungsobjektiv ebenfalls mit
zumindest näherungsweiser einseitiger Telezentrie im Array-Raum ausgeführt, wobei die beiden Haup
tebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind. Dabei ist das Pupillenzentrum
PZOA1 des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOA2 des zweiten Abbildungs
objektiv angeordnet. Jedem Abbildungsobjektivs ist je ein räumlich strukturiertes Empfänger-Array zuge
ordnet, so daß ein erstes und ein zweites Empfänger-Array angeordnet sind. Das erste und das zweite
räumlich strukturierte Empfänger-Array weisen je mindestens zwei Empfängerflächen auf räumlich ge
trennten Stufenflächen auf, die jeweils senkrecht zum Hauptschnitt liegen, wobei die Empfängerflächen
des ersten Empfänger-Arrays jeweils parallel zur Geraden gA1P angeordnet sind, die den Durchstoßpunkt
PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch
die zusammenfallenden Hauptebenen und den Brennpunkt FAA1 des ersten Abbildungsobjektivs enthält.
Die Empfängerflächen des zweiten Empfänger-Arrays sind vorzugsweise jeweils parallel zur Geraden gA2P
angeordnet, die den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen
der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen und den Brennpunkt FAA2
des zweiten Abbildungsobjektivs enthält, wobei sich je zwei durch die Empfängerflächen und sowie und
gehenden Ausgleichsgeraden in der Hauptebene schneiden und der mittlere Abstand dieser Empfänger
flächen sowie von der Hauptebene jeweils gleich gemacht ist.
Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch
selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen
Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be
sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je
weils zugehörigen Elementes der Objektoberfläche bestimmt werden.
Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der beiden Emp
fänger-Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines
Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende
Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt
koinzidieren. So bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in
einem gemeinsamen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender
Elemente.
Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde
stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei
ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und
S2j entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j
und S2j aus den Fenstern gebildet. Fenster, vorteilhaft sind Fensterlängen mit einer Länge von beispiels
weise 8 oder 16 Signalwerte, andere, auch größere Werte sind möglich.
Es erfolgt das in beiden Signalverläufen S1j und S2j synchrone Verschieben dieser Fensterfunktion, um
mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays entspricht,
über jeden dieser beiden Signalverläufe S1j und S2j und aus jedem aktuellen Fenster in der Position k, mit
1 ≦ k ≦ m, wird je ein Signalstück S1 teil Position k j und S2 teil Position k j gebildet.
Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je
dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der
beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be
gonnen wird.
Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und
S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke
invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal-
Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre
lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.
Die Invertierung ist notwendig, da die Abbildungsstrahlen der Elemente eines korrespondierenden Paares
sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der
Szene im Verschiebungsvorgang entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinan
der zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D-Aufnahmeanordnung.
Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er
folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke
das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis
die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom
men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m
bestimmt wird. Aus den von m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei
in dieser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt
wird und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und
damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete
Maximalwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann ei
ne Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von
der weiteren Verarbeitung ausgeschlossen werden. Das Maximum Mj Maximalwert-Kurve kann auch
über eine Schwerpunktbildung erfolgen. Dabei können lnterpolationsmethoden angewendet werden.
So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren
den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array-
Raum definiert.
Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der
Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch
die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D-
Aufnahmeanordnung bekannt ist. So können die Positionen von den Elementen einer Objektoberfläche,
von welchen Signalverläufe aufgenommen werden, berechnet werden, wobei die Geometrie der 3D-
Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschiebung,
der beiden Empfänger-Arrays vorbestimmt sind.
Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion
aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur
venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge
ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort
des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In
terpolationsmethoden angewendet werden.
Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei
stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objek
toberfläche bezeichnet werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit zwei
Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil
dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die
Hauptebenen der beiden Abbildungsobjektive zumindest näherungsweise zur Koinzidenz gebracht sind
und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein
erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, und das erste und das zweite
Empfänger-Array mindestens je eine Empfängerfläche aufweisen, die jeweils senkrecht zum Hauptschnitt
liegt. Dabei enthält die Empfängerfläche des ersten Empfänger-Arrays vorzugsweise die Strecke ASA1, die
auf einer Strecke auf dem ersten oberen Ast eines Buchstabens Y liegt. Weiterhin liegt vorzugsweise die
Strecke ASA1 parallel zu einer Geraden gA1P, die zum einen den Brennpunkt des ersten Abbildungsobjek
tivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen
den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe
nen schneidet, so daß die detektierenden Elemente des erstes Empfänger-Arrays im Hauptschnitt auf der
Strecke ASA1 angeordnet sind. Dabei bildet vorzugsweise ein Teil der Symmetrielinie SL den unteren Teil
des Buchstabens Y.
Mindestens eine Empfängerfläche des zweiten Empfänger-Array liegt vorzugsweise auf einer Strecke AS2
auf dem zweiten oberen Ast des Buchstabens Y und enthält die Strecke ASA2, die parallel zu einer Gera
den gA2P liegt, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet
und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen
der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet, so daß die detek
tierenden Elemente des zweites Empfänger-Arrays im Hauptschnitt auf der Strecke ASA1 angeordnet sind,
wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Diese Anordnung ermög
licht die Detektion von beleuchteten Elementen der Objektoberfläche im Objektraum auf einer Ebene
senkrecht zum Hauptschnitt.
Die Empfänger-Matrizen sind im Aufbau gleich und in einer zur Symmetrieilinie SL symmetrischen Positi
on und in gleicher Höhe angeordnet. Die Signale der beiden Empfängerflächen werden zeilenweise aus
gelesen, so daß die Empfängerfläche des ersten Empfänger-Arrays die Signalverläufe S1 und die Emp
fängerfläche des zweiten Empfänger-Arrays die Signalverläufe S2 liefert. Diese Signalverläufe werden
Zeile für Zeile ausgewertet, wobei die Zeilen in gleicher Entfernung vom Hauptschnitt die jeweils korre
spondierenden Elemente enthalten. Für das Auffinden des Ortes eines Elementes der Objektoberfläche
im Objektraum kommt die Auswertung entsprechend dem bereits beschriebenen Korrelationsverfahren
mit zwei gefensterten Signalverläufen zur Anwendung. Auch hier werden durch eine Fensterfunktion Si
gnalstücke erzeugt. Ein Signalstück wird dabei jeweils invertiert, indem die Signalwerte gespiegelt werden.
Es wird die Kreuzkorrelation jeweils von einem originalen Signalstück und jeweils von einem invertierten
Signalstück, wobei die Signalstücke jeweils symmetrisch angeordnete Zeilenausschnitte in der 3D-
Anordnung repräsentieren, durchgeführt und jeweils ein Korrelationskoeffizient gewonnen und abgespei
chert. Dabei wird das Fenster der Fensterfunktion, welches beispielsweise eine Länge von 64 Pixeln auf
weisen kann, beispielsweise in Schritten von einem Inkrement verschoben, das hier einem Pixel in der je
weils ausgewerteten Zeile entspricht. Für Überblicksmessungen kann auch ein größerer Verschiebung
schritt des Fensters als um ein Pixel erfolgen, beispielsweise um vier Pixel. Die Länge des Fensters wird
in Abhängigkeit von der relativen Öffnung und vom mittleren Abstand der Objektoberfläche gewählt. Dabei
kann die Fensterlänge auch variabel gestaltet werden, beispielsweise kann für die fokusnahen Bereiche
der Empfänger-Matrix eine geringere Fensterlänge gewählt werden. So erfolgt die Bestimmung der zO-
Position der Elemente der Objektoberfläche in einer zum Hauptschnitt senkrechten Ebene in der Symme
trielinie SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive.
Die Auswertung erfolgt mit dem Korrelationsverfahren mit zwei gefensterten Signalverläufen wie oben be
reits dargestellt.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem
Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil
dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten
Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist.
Jedem der beiden Abbildungsobjektiv ist je ein räumlich strukturiertes Empfänger-Array zugeordnet, so
daß ein erstes und ein zweites Empfänger-Array im Array-Raum angeordnet sind.
Dabei weisen das erste und das zweite räumlich strukturierte Empfänger-Array mindestens je zwei Emp
fängerflächen auf räumlich getrennten Flächen auf und die Empfängerflächen des ersten Empfänger-
Arrays sind jeweils so angeordnet und die Empfängerflächen des zweiten Empfänger-Arrays sind jeweils
so angeordnet, daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindestens von
Teilen von Empfängerflächen des ersten Empfänger-Arrays sowie von Teilen der Empfängerflächen des
zweiten Empfänger-Arrays im Objektraum gebildet sind. Auch hier erfolgt die Auswertung mit dem Korre
lationsverfahren mit zwei gefensterten Signalverläufen wie oben bereits dargestellt.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit min
destens zwei Abbildungsstrahlengängen mit mindestens je einem Abbildungsobjektiv in jedem Abbil
dungsstrahlengang. Dabei ist das Pupillenzentrum (PZOA1) eines Abbildungsobjektivs eines Abbildungs
strahlenganges mindestens im Abstand d vom Pupillenzentrum (PZOA2) eines anderen Abbildungsobjek
tivs eines anderen Abbildungsstrahlenganges angeordnet, wobei der Abstand d mindestens ein Achtel der
Ausdehnung der Öffnungsblende des Abbildungsobjektivs mit der größten Ausdehnung der Öffnungs
blende entspricht. Weiterhin ist jedem Abbildungsobjektiv mindesten je ein Empfänger-Array mit minde
stens zwei detektierenden Element zugeordnet.
Erfindungsgemäß ist dabei jedem Empfänger-Array mindestens jeweils ein mikrooptisches Array mit mi
krooptischen Elementen zur Beeinflussung der geometrisch-optischen Gegenstandsweite der detektie
renden Elemente zum zugehörigen Abbildungsobjektiv zugeordnet und im Objektraum ist mindestens ein
Paar von zumindest näherungsweise koinzidierenden Bildern von je einem Bild eines Elementes der
Empfängerflächen je eines Abbildungsstrahlenganges gebildet.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro
optische Array als ein Mikroprismen-Array ausgebildet sein. Dabei kann ein Mikropisma mehrere detektie
rende Elemente überdecken, so daß aufgrund der unterschiedlichen optischen Dicke des Mikroprismas
die mehrere detektierende Elemente eine jeweils andere optische Gegenstandsweite zum zugehörigen
Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im Objektraum einnehmen. So kann
aus den Bildern von mehreren detektierende Elementen eine Spur im Objektraum gebildet sein. Mittels
des bereits beschriebenen Kreuzkorrelationsverfahrens kann so mindestens der Ort eines Elementes ei
ner Oberfläche bestimmt werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro
optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher axialer Lage ausgebildet ist. So
kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere optische Ge
genstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im
Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein Bild der detek
tierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden Elementen eine
Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelationsverfahrens kann so
mindestens der Ort eines Elementes einer Oberfläche bestimmt werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro
optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite ausgebildet sein.
Auch hierbei kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere
optische Gegenstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine an
dere Lage im Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein
Bild der detektierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden
Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelations
verfahrens kann so mindestens der Ort eines Elementes einer Oberfläche bestimmt werden. Die Mikrolin
sen können dabei Bestandteil eines Mikro-Teleskopes sein.
In der Fig. 1 werden die Anordnung und das Verfahren dargestellt. Es wird zwischen dem
Array-Raum und dem Objektraum unterschieden. Es wird die folgende Notation verwendet, die von
der üblichen abweicht, sich aber bei dieser und den im weiteren dargestellten optischen Schaltungen
als vorteilhaft für die Beschreibung erwiesen hat: Die Größen und Punkte des Array-Raumes der
werden an erster Stelle mit dem Buchstaben A indiziert und die Größen und Punkte des Objektraumes
mit dem Buchstaben O. An zweiter Stelle im Index wird das zugehörige Objektiv gekennzeichnet und
zwar im Falle der Zugehörigkeit zum Beleuchtungsobjektiv 1 mit dem Buchstaben B und im Falle der
Zugehörigkeit zum Abbildungsobjektiv 2 mit dem Buchstaben A.
Im Array-Raum befinden sich ein Liniengitter 3 mit der Gitterkonstante p und eine vorgeordnete
Strahlungsquelle mit sichtbarem Licht, also eine Lichtquelle 4. Diese Lichtquelle 4 kann
rechnergesteuert sein, so daß die mittlere Beleuchtungsstärke der Entfernung des jeweiligen
Schärfebene nach dem photometrischen Gesetz angepaßt ist. Dies stellt eine gute Ausnutzung der
Lichtenergie dar.
Das Liniengitter 3 ist dem Beleuchtungsobjektiv 1 mit einem streng telezentrischen Strahlengang im
Array-Raum achssenkrecht und extrafokal zugeordnet. Das Beleuchtungsobjektiv 1 bildet das
Liniengitter 3 in den Objektraum ab, wodurch zumindest zu einem Zeitpunkt eine strukturierte
Beleuchtung der Objektoberfläche 5 entsteht. Zur Vereinfachung sind die beiden Hauptebenen des
Beleuchtunsobjektivs 1, HAB und HOB, in der Fig. 1 zusammengelegt. Bei realen Objektiven dieser
K1asse liegen die beiden Hauptebenen weit auseinander.
Im Array-Raum ist eine Empfänger-Matrix 6 dem Abbildungsobjektiv 2, welches einen ebenfalls
streng telezentrischen Strahlengang im Array-Raum aufweist, achssenkrecht und extrafokal
zugeordnet. Das Abbildungsobjektiv 2 bildet die Objektoberfläche 5 in den Array-Raum ab. Ein
einzelner Abbildungsstrahl AO1 ist dargestellt. Zur Vereinfachung sind die beiden Hauptebenen des
Abbildungsobjektivs 2, HAA und HOA, in der Fig. 1 ebenfalls zusammengelegt.
Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 sind mit ihren optischen Achsen zueinander
parallel mit dem Achsenabstand d angeordnet. Das Beleuchtungs- 1 und das Abbildungsobjektiv 2
weisen die array-seitigen Brennpunkte FAB und FAA und im Objektraum die Brennpunkte FOB und FOA
auf. Wegen der Telezentrie fallen im Objektraum die Brennpunkte FOB und FOA mit den Austrittspupillen
PZOB und PZOA zusammen. Es sind zwei Beleuchtungsstrahlen BSO1 und BSO2 und ein
Abbildungsstrahl ABSO dargestellt.
Die hier nicht dargestellte, erste Linearführung des Bewegungssystems ist mit der Empfänger-Matrix 6
starr verbunden und trägt eine zweite, hier ebenfalls nicht dargestellte, kleinere Linearführung, die
wiederum das Liniengitter 3 trägt. Dieses Liniengitter 3 ist deutlich länger ausgeführt als es dem vom
Beleuchtungsobjektiv 1 erfaßten Bildfeld entspricht, um im gesamten Bewegungsvorgang stets das
gesamte Bildfeld zu überdecken.
Die erste Linearführung ist mit einem hochgenauen Längen-Meßsystem verbunden, welches einen
hochstabilen Nullpunkt aufweist. Die Bewegungsachse der ersten Linearführung ist parallel zu den
Objektivachsen und die Meßachse des Längen-Meßsystems liegt dabei parallel zu den beiden
Objektivachsen. Die Bewegungsrichtung der zweiten Linearführung liegt senkrecht zu den
Objektivachsen. Dem Liniengitter 3 auf der zweiten Linearführung ist ein mit der ersten Linearführung
fest verbundenes Gegengitter mit einer kompletten Beleuchtungs- und Empfänger-Optik in der Art
eines inkrementalen Längenmeßsystems zugeordnet. Die vorhandene Auswerte-Elektronik weist eine
elektronische Schnittstelle zum Rechner auf, um die berechnete Verschiebung des Liniengitters 3 als
Phaseninformation echtzeitnah im Rechner zur Verfügung zu haben. Gleichzeitig ist auf dem
Liniengitter 3 im Teil außerhalb des genutzten Bildfeldes eine erste Referenzstruktur aufgebracht, die
von einer zweiten Referenzstruktur, die ebenfalls auf dem Gegengitter aufgebracht ist, optisch
abgetastet wird. Auch dabei ist eine Beleuchtungs- und Empfänger-Optik beigeordnet und eine
Auswerte-Elektronik vorhanden. Die zweite Auswerte-Elektronik weist ebenfalls eine elektronische
Schnittstelle zum Rechner auf, um das Durchfahren des Nullpunktes des Liniengitters in Echtzeit im
Rechner zur Verfügung zu haben.
Beide Linearführungen des Bewegungssystems starten aus der Nullposition heraus. Die
Bewegungsrichtung der ersten Linearführung ist parallel zur optischen Achse des Abbildungsobjektivs
ausgerichtet. Die Bewegung erfolgt zu den Brennpunkten hin. Der kleineren, zweiten Linearführung,
die das Liniengitter 3 trägt, ist ein Positions-Regelsystem zugeordnet, um eine Bewegung des
Liniengitters mit einer möglichst konstanten Geschwindigkeit und damit auch mit einer konstanten
Phasengeschwindigkeit realisieren zu können. Die Bewegungsrichtung der zweiten Linearführung ist
senkrecht zur optischen Achse des Beleuchtungsobjektiv 1 und erfolgt nach dem Start in Richtung des
Beleuchtungsobjektivs 1.
Aus der aktuellen, absoluten Istphase ϕGitter des Liniengitters 3, die von einem Nullpunkt abgeleitet
ist, werden die Sollwerte für die Position der ersten Linearführung errechnet. Dies erfolgt so, daß sich
die Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer
Geraden gA, beispielsweise parallel zur Geraden gA2, auf der B-Strecke BSA2 bewegen. Diese Gerade
gA ist so definiert, daß sie den Brennpunkt FAB des Beleuchtungsobjektivs 1 und außerdem den
Hauptpunkt HAA des Abbildungsobjektivs 2 schneidet.
Die leuchtenden Flächenelemente FEL bewegen sich im Array-Raum auf den Verschiebungsstrecken
VSAj, die hier durch die Sollstrecken, die B-Strecken BSAj, repräsentiert sind. Die Bilder dieser
B-Strecken BSAj, einschließlich der in der Fig. 1 dargestellten B-Strecken BSA1 und BSA2, werden in
den Objektraum abgebildet. Beispielsweise werden aus den B-Strecken BSA1 und BSA2 die Bilder BSA1
und BSA2. Die Bilder BSA1 und BSA2 bilden ein Streckenbüschel SB1 mit dem Konvergenzpunkt K1, der
mit den Brennpunkt FOA des Abbildungsobjektivs 2 zusammenfällt. Weiterhin werden die Elemente des
Empfänger-Arrays auf Strecken ASAj verschoben. Dargestellt sind die Strecken ASA1 und ASA2. Deren
Bilder stellen im Objektraum das Streckenbündel SB2 mit den Strecken ASO1 und ASO2 mit dem
Konvergenzpunkt K2 dar, der im Brennpunkt FOA des Abbildungsobjektivs 2 mit dem Konvergenzpunkt
K1 koinzidiert, wobei der Koinzidenzpunkt von Konvergenzpunkt K1 und von Konvergenzpunkt K2 im
allgemeinen stets der Koinzidenzpunkt K0 ist.
Durch dieses Bewegungsregime werden die achssenkrechten Ebenen des Objektraumes von der
Schärfefläche nacheinander "durchfahren", indem sich in jeder dieser Ebenen bei Vorhandensein
einer Objektoberfläche ein vom Beleuchtungsobjektiv 1 scharf abgebildetes Streifenmuster
beobachten läßt, welches durch das Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 abgebildet wird.
Durch das so realisierte Bewegen der Orte gleicher Phase oder gleicher relativer Leuchtdichte auf
dem Liniengitter 3 parallel zu einer Geraden gA wird das sogenannte "Mitführen der Phase in der
Schärfefläche erreicht. Dies führt dazu, daß jedes hinreichend kleine Objektdetail, im Objektraum,
wenn es von der Schärfefläche "erfaßt" wird, ein moduliertes periodisches Signal im zugehörigen Pixel
ij auf der Empfänger-Matrix 6 erzeugt, in welchem die Information über die absolute Phase des
Objektpunktes ϕObj_ij enthalten ist. Diese absolute Phase entspricht beispielsweise für den
Objektpunkt AO2 in Fig. 1 der gedachten Anzahl der Streifen n, einschließlich der Streifenbruchteile
Δn, zwischen den beiden Objektiv-Achsen, also n + Δn. Diese Streifen sind im Fall einer ebenen,
achssenkrecht angeordneten Platte direkt zu beobachten. Dennoch kann im allgemeinen die so zu
beobachtende absolute Objektphase aufgrund der nicht genau bekannten Zuordnung der beiden
optischen Achsen zu den Pixeln der Empfänger-Matrix 6 nicht bestimmt werden.
Anhand der Fig. 1 läßt sich zeigen, daß in der Position AO1BO1 die Anzahl der Streifen n + 1 + Δn, die
zwischen den beiden Objektivachsen zu beobachten ist, genau der Anzahl n + 1 + Δn der
Gitterperioden des Liniengitters 3 im Array-Raum entspricht, die sich beim Zählen von der Achse des
Beleuchtungsobjektivs 1 in xAB-Richtung ergibt. Weiterhin definiert der Punkt GAB genau den Ort auf
dem Gitterelement des Liniengitters 3, welcher beim Bewegen auf der Geraden gA im Teilbereich des
Gitterinkrements den Brennpunkt FAB des Beleuchtungsobjektivs 1 schneidet. Demzufolge entspricht,
die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene dem Abstand GQ.
Bei Kenntnis des zugehörigen Punktes GAB auf dem Liniengitter 3 und des Wertes xAB1 sowie der
Gitterkonstanten p läßt sich grundsätzlich die absolute, lateral invariante Objektphase ϕObj der
achssenkrechten Ebene im Objektraum mit
errechnen. Im Fall der Übereinstimmung der realen Lage der Objektivachse des Abbildungsobjektivs
mit der Geraden gO, die ja definitionsgemäß parallel zur Objektivachse des Beleuchtungsobjektivs 1
liegt, gelten die dargestellten Zusammenhänge nach Gleichung (7).
Bevor die Messung, d. h. die Gewinnung der Punktwolke einer unbekannten Objektoberfläche 5
erfolgen kann, muß das System mit Hilfe einer Referenzplatte in einer achssenkrechten Position
erfolgen. Dies erfolgt mit Vorteil in der Nahdistanz der 3D-Aufnahme-Anordnung, kann aber auch in
jeder anderen Entfernung im Aufnahmebereich der 3D-Aufnahme-Anordnung erfolgen. Die in den
Pixel der Empfänger-Matrix 6 sich dabei ergebenden Signalverläufe werden gespeichert. Aus diesen
Signalverläufen wird mit Hilfe eines phasenauswertenden Algorithmus' die relative Referenzphase
ϕRR_ij im Pixel ij des Empfänger-Arrays im Bereich des Modulationsmaximums berechnet, welches ein
Signal von der Referenzplatte erhält. Die so bestimmten relativen Referenzphasen mod 2π werden
der absoluten Phase ϕGitter des Liniengitters zugeordnet, siehe Fig. 2, und unter Beachtung des
jeweiligen Vorzeichens von dieser subtrahiert und in einem Feld als Phasenwerte ϕGitterR_ij - in der
Regel - längerfristig gespeichert. Die relativen Objektphasen der Objektpunkte ϕRObj_ij mod 2π
werden jeweils von der absoluten Phase 9 Gitter des Liniengitters 3 unter Beachtung des jeweiligen
Vorzeichens von dieser subtrahiert, wodurch die Phasenwerte ϕGitterObj_ij als Feld entstehen. Aus
diesen Feldern werden punktweise die Phasendifferenzen ΔϕGitter_ij gebildet.
Zuvor wurde aus der möglichst gut bekannten Entfernung zOR der Referenzplatte von der Brennebene
die absolute, lateral invariante Phase ϕR der Referenzfläche mit der hier noch einmal dargestellten
Gleichung (2)
bestimmt, wobei diese Bestimmung iterativ zur Annäherung an deren wahren Wert mehrfach erfolgen
kann. Es stellen d den Achsenabstand der beiden Objektive 1 und 2, fB die Brennweite des
Beleuchtungsobjektivs 1 und p die Gitterkonstante des Liniengitters 3 dar.
Mit der Beziehung entsprechend Gleichung (4), wobei ΔϕGitter_ij sich für den Objektpunkt ij aus der
Gleichung (3) ergibt,
(-)ϕObj_ij = (-)ϕR + ΔϕGitter_ij (8)
wird für den Objektpunkt ij die absolute Objektphase (-)ϕObj_ij aus Gleichung (8) gewonnen. Aus der
Beziehung
kann die zos-Koordinate des Objektpunktes zObj_ij im Objektraum berechnet werden, wobei der
Objektpunkt mit dem Pixel ij der Empfänger-Matrix 6 optisch konjugiert ist.
Durch achsparallele Verschiebungen ΔzOB von Planplatten, wobei die Verschiebungen mit einem
Präzisions-Längenmeßsystem gemessenen werden, können Fehler abgeschätzt werden, indem die
errechneten Verschiebungen mit den gemessenen verglichen werden. Die Nachjustierung der
3D-Aufnahme-Anordnung erfolgt iterativ. Die Restabweichungen werden in ein numerisches Modell
eingegeben, welches hier nicht dargestellt ist, und können zur Korrektur benutzt werden.
Aus der Einrechnung des zu jedem Objektpunkt mit der Koordinate zObj_ij gehörenden aktuellen
Abbildungsmaßstabes werden die kartesischen Koordinaten für jeden Objektpunkt ermittelt. Dabei
kann ein neues Koordinatensystem mit dem Brennpunkt des Abbildungsobjektivs 2 als Nullpunkt für
die lateralen Koordinaten in x- und y-Richtung verwendet werden. Damit stehen die 3D-Koordinaten
der Objektoberfläche in digitaler Form als Punktwolke zur Verfügung. Diese Punktwolke wird je nach
Aufgabenstellung für meßtechnische Applikationen oder Aufgaben mit einer 3D-Wiedergabe
verwendet.
Bei der Verschiebung eines Objektpunktes, der sich in der AO1BO1-Position in Fig. 1 befindet, in die
AO2BO2-Position entlang des gezeichneten Abbildungsstrahls ABSO erfährt das im Bildpunkt dieses
Objektpunktes detektierte Signal eine Änderung in der Phasenlage von 2π. Die Änderung in der
zOB-Koordinate entspricht dem Δz2 π-Wert, also der Tiefenänderung, die einer Phasenänderung von 2π
entspricht. Dieser Δz2 π-Wert wird als effektive Wellenlänge bezeichnet und ist tiefenabhängig.
Fig. 2 zeigt beispielsweise die Signalverläufe SO und SR in einem Bildpunkt der Empfänger-Matrix 6
in Bezug zum Signalverlauf SG, der am Liniengitter 3 mit Hilfe eines Gegengitters beim Bewegen des
Gitters 3 detektiert werden kann. Dargestellt werden der Signalverlauf im Bildpunkt SO eines
Objektpunktes und der Signalverlauf SR im Bildpunkt eines Referenzpunktes. Hierbei befindet sich die
Referenzplatte näher am Brennpunkt FOB als die Objektoberfläche. Am Abtastpunkt APR im Bereich
des Modulationsmaximums des Signals im Bildpunkt eines Referenzpunktes wird die relative Phase
ϕRR errechnet und am Abtastpunkt APO im Bereich des Modulationsmaximums des Signals im
Bildpunkt eines Objektpunktes die relative Phase ϕRObj. Mittels der Gleichung (3) wird die absolute
Phasendifferenz ΔϕGittzer errechnet und mit Gleichung (4) die absolute Objektphase ϕObj, aus der mit
der Gleichung (5) die zOB-Koordinate eines jeden Objektpunktes, nämlich zObj, bestimmt wird. Der
hochstabile Nullpunkt N dient als Startpunkt.
Fig. 3 zeigt eine vorteilhafte 3D-Aufnahme-Anordnung mit nur einer Linearführung 7, beispielsweise
für eine 3D-Aufnahme-Anordnung für Multimedia-Applikationen. Der Schlitten 8 der Linearführung 7
trägt ein Liniengitter 3 zur strukturierten Beleuchtung der Objektoberfläche 5. Die Beleuchtung erfolgt
mittels einer Lichtquelle 4 durch eine Öffnung in der Basis 9 der Linearführung 7. Weiterhin trägt der
Schlitten 8 die beweglichen Teile für ein Meßsystem 10 für den Verschiebeweg s, wobei auch ein
Nullpunktgeber 11 angeordnet ist. Außerdem ist eine Auswerteelektronik mit Schnittstelle zum hier
nicht dargestellten Auswerterechner vorhanden.
Der Schlitten 8 wird von einem Linear-Motor 12 angetrieben und die Führung 7 weist ein
miniaturisiertes Präzisionslager 13 auf. Als Empfänger-Matrix 6 kann auch eine farbtüchtige Kamera
eingesetzt werden, wobei die farbsensitiven Pixel jeweils auf einer Linie quer zu den Linien des
Liniengitters 3 angeordnet sein sollten.
Nach dem Start des Schlittens 8 in (-)s-Richtung wird der Nullpunkt durchfahren und das Liniengitter
3 durch das Beleuchtungsobjektiv 1 nacheinander in unterschiedliche Tiefen des Objektraumes scharf
abgebildet. Auf der Oberfläche der Objektoberfläche 5 entsteht beim Verschieben des Liniengitters 3
im Zeitbereich ΔtB zumindestens einmal im Verschiebevorgang das scharfe Bild desselben,
beispielsweise zum Zeitpunkt ti. Dieses scharfe Bild wird auch zum Zeitpunkt ti vom
Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 scharf abgebildet, da diese sich in der gleichen
Ebene wie das Liniengitter 3 befindet. Durch die Bewegung des Schlittens 8 der Führung 7 gibt es
eine laterale Bewegung der Empfänger-Matrix 6, wobei das Bild der Objektoberfläche 5 in Bezug auf
die Basis 9 feststeht. Um diese laterale Bewegung zu kompensieren, um eine feste Zuordnung der
Punkte der Objektoberfläche 5, also der Abbildungsstrahlen, zu den Pixeln der Empfänger-Matrix 6
beizubehalten, werden die gewonnenen Bildinformationen pixelweise im Bilddaten-Massiv
entsprechend der lateralen Bewegung der Empfänger-Matrix 6 verschoben. Damit wird erreicht, daß
ein realer Abbildungsstrahl jeweils einem lateral feststehenden Bildpunkt unabhängig von der lateralen
Bewegung der Empfänger-Matrix 6 fest zugeordnet bleibt.
Claims (183)
1. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele ment gebildet ist, wobei der Begriff Leuchten im Sinne des Aussendens von elektromagnetischer Strah lung verwendet wird,
wobei jedes leuchtende Flächenelement durch eine zumindest näherungsweise vorbestimmte Leuchtdich te und durch einen vorbestimmten Ort definiert ist, und dieses im weiteren als leuchtendes Flächenele ment FELj (3A) bezeichnet wird, und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuch tungsobjektiv (1), welches eine Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) realisiert und
mit mindestens einem Abbildungsstrahlengang für die Abbildung von Elementen der mindestens einen Objektoberfläche (5) und mindestens einem Empfänger-Array mit mindestens zwei Elementen und mit ei nem dem Empfänger-Array zugeordneten Abbildungsobjektiv (2, 33) und
daß Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elemente der mindestens einen beleuchteten Objektoberfläche (5) im Objektraum detektieren und von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv (2, 33) stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebildet werden,
und daß Elemente der mindestens einen Objektoberfläche (5) mit mindestens einem Abbildungsobjektiv (2, 33) abgebildet werden und
durch die Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) mit dem Beleuch tungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum mit einem geo metrisch-optischen Schärfevolumen gebildet wird,
gekennzeichnet dadurch, daß die Detektion von elektromagnetischer Strahlung von den Elementen der mindesten einen Objektoberfläche (5) durch die Elemente des Empfänger-Arrays mindestens in einem Zeitbereich (ΔtB) erfolgt, in welchem mit einem leuchtenden Flächenelement FELj (3A) des strukturiert leuchtenden Arrays eine vorbestimmte Verschiebung durchgeführt wird, einschließlich einer vorbestimm ten optischen Verschiebung als Ergebnis einer geometrisch-optischen Weglängenänderung, und so min destens ein leuchtendes Flächenelement FELj (3A) zu zwei unterschiedlichen Zeitpunkten an mindester zwei unterschiedlichen Orten elektromagnetische Strahlung aussendet und
das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten, leuchtenden Flä chenelementes FELj (3A) des mindestens einen strukturiert leuchtenden Arrays, wobei dieses Schärfevo lumen im Objektraum gebildet ist, und
das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten Elementes des Empfän ger-Arrays, wobei dieses Schärfevolumen im Objektraum gebildet ist, und
mindestens ein Element der mindestens einen Objektoberfläche (5)
zumindest näherungsweise einmal durch die Durchführung der vorbestimmten Verschiebung mindestens eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays mit zumindest einer Verschiebungskomponente in zA-Richtung im Array-Raum, also mit einer Verschiebungs komponente parallel zur optischen Achse des Beleuchtungsobjektiv (1),
zur Koinzidenz gebracht werden,
so daß im Objektraum zumindest einmal und zumindest näherungsweise die Koinzidenz des Schärfevo lumens eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays und des Schärfevolumens eines Bildes eines vorbestimmten Elementes des Empfän ger-Arrays und mindestens eines Elementes der mindestens einen Objektoberfläche (5) erzeugt wird und beim Auftreten der Koinzidenz zumindest das an dieser Koinzidenz beteiligte Element des Empfänger- Arrays zumindest einmal eine zeitlich veränderte Bestrahlung erfährt und so dieses Element des Empfän ger-Arrays zumindest einmal ein verändertes Signal detektiert
und so durch die Realisierung der Verschiebung im Zeitbereich ΔtB Elemente der mindestens einen Objekt oberfläche (5) gleichzeitig zur Koinzidenz mit dem Schärfevolumen eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays und dem Schärfevolumen eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays gebracht werden und jeweils beim Auftreten der Koinzidenz das an dieser Koinzidenz jeweils beteiligte Element des Empfänger-Arrays zu mindest einmal eine zeitlich veränderte Bestrahlung erfährt und so dieses Element des Empfänger-Arrays zumindest einmal ein verändertes Signal detektiert.
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele ment gebildet ist, wobei der Begriff Leuchten im Sinne des Aussendens von elektromagnetischer Strah lung verwendet wird,
wobei jedes leuchtende Flächenelement durch eine zumindest näherungsweise vorbestimmte Leuchtdich te und durch einen vorbestimmten Ort definiert ist, und dieses im weiteren als leuchtendes Flächenele ment FELj (3A) bezeichnet wird, und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuch tungsobjektiv (1), welches eine Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) realisiert und
mit mindestens einem Abbildungsstrahlengang für die Abbildung von Elementen der mindestens einen Objektoberfläche (5) und mindestens einem Empfänger-Array mit mindestens zwei Elementen und mit ei nem dem Empfänger-Array zugeordneten Abbildungsobjektiv (2, 33) und
daß Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elemente der mindestens einen beleuchteten Objektoberfläche (5) im Objektraum detektieren und von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv (2, 33) stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebildet werden,
und daß Elemente der mindestens einen Objektoberfläche (5) mit mindestens einem Abbildungsobjektiv (2, 33) abgebildet werden und
durch die Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) mit dem Beleuch tungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum mit einem geo metrisch-optischen Schärfevolumen gebildet wird,
gekennzeichnet dadurch, daß die Detektion von elektromagnetischer Strahlung von den Elementen der mindesten einen Objektoberfläche (5) durch die Elemente des Empfänger-Arrays mindestens in einem Zeitbereich (ΔtB) erfolgt, in welchem mit einem leuchtenden Flächenelement FELj (3A) des strukturiert leuchtenden Arrays eine vorbestimmte Verschiebung durchgeführt wird, einschließlich einer vorbestimm ten optischen Verschiebung als Ergebnis einer geometrisch-optischen Weglängenänderung, und so min destens ein leuchtendes Flächenelement FELj (3A) zu zwei unterschiedlichen Zeitpunkten an mindester zwei unterschiedlichen Orten elektromagnetische Strahlung aussendet und
das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten, leuchtenden Flä chenelementes FELj (3A) des mindestens einen strukturiert leuchtenden Arrays, wobei dieses Schärfevo lumen im Objektraum gebildet ist, und
das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten Elementes des Empfän ger-Arrays, wobei dieses Schärfevolumen im Objektraum gebildet ist, und
mindestens ein Element der mindestens einen Objektoberfläche (5)
zumindest näherungsweise einmal durch die Durchführung der vorbestimmten Verschiebung mindestens eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays mit zumindest einer Verschiebungskomponente in zA-Richtung im Array-Raum, also mit einer Verschiebungs komponente parallel zur optischen Achse des Beleuchtungsobjektiv (1),
zur Koinzidenz gebracht werden,
so daß im Objektraum zumindest einmal und zumindest näherungsweise die Koinzidenz des Schärfevo lumens eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays und des Schärfevolumens eines Bildes eines vorbestimmten Elementes des Empfän ger-Arrays und mindestens eines Elementes der mindestens einen Objektoberfläche (5) erzeugt wird und beim Auftreten der Koinzidenz zumindest das an dieser Koinzidenz beteiligte Element des Empfänger- Arrays zumindest einmal eine zeitlich veränderte Bestrahlung erfährt und so dieses Element des Empfän ger-Arrays zumindest einmal ein verändertes Signal detektiert
und so durch die Realisierung der Verschiebung im Zeitbereich ΔtB Elemente der mindestens einen Objekt oberfläche (5) gleichzeitig zur Koinzidenz mit dem Schärfevolumen eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays und dem Schärfevolumen eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays gebracht werden und jeweils beim Auftreten der Koinzidenz das an dieser Koinzidenz jeweils beteiligte Element des Empfänger-Arrays zu mindest einmal eine zeitlich veränderte Bestrahlung erfährt und so dieses Element des Empfänger-Arrays zumindest einmal ein verändertes Signal detektiert.
2. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß je ein leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung in einem Zeitbereich (ΔtB) zumindest näherungsweise auf je einer Verschiebungsstrecke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben wird und durch das Beleuchtungsobjektiv (1) abgebildet wird und dieses leuchtende Flächenelement FELj (3A) in einer Leuchtdichteverteilung mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt (t1) innerhalb des Zeitintervalls (Δti) stets auf
eine vorherbestimmte Strecke im Objektraum (BSOj) abgebildet wird und der Ort des Bildes des leuchtenden Flächenelementes FELj (3A) auf der Strecke (BSOj) nach und nach verändert wird und so das Bild des leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach durch den Objekt raum verschoben wird und
bei der Verschiebung je eines leuchtenden Flächenelementes FELj (3A) mehrfach nacheinander Signal werte aus Elementen des Empfänger-Arrays ausgelesen werden und so ein Signalverlauf gebildet wird und der Ort des jeweils ausgelesenen Elementes des Empfänger-Arrays verändert wird und
die Orte der ausgelesenen Elemente des Empfänger-Arrays auf einer Strecke (ASAj) liegen und das Bild dieser Strecke (ASAj), die Strecke (ASOj), mit der vorherbestimmten Strecke (BSOj) der Bilder der leuch tenden Flächenelemente FEL im Objektraum optisch konjugiert ist und so
je ein Bild eines Elementes des Empfänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenele mentes FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) im Zeitbereich (ΔtB) im Objektraum zur Koinzidenz gebracht ist und so je ein Paar mit wechselnden Bildern erzeugt wird, und dieses Paar nach und nach durch den Objektraum geschoben wird,
so daß je ein Schärfevolumen des Bildes eines leuchtenden Flächenelementes des strukturiert leuchten den Arrays und je ein Bild eines Elementes des Empfänger-Arrays mit je einem Flächenelement der Ob jektoberfläche (5) einmal im Verschiebungsvorgang innerhalb eines Zeitbereiches (ΔtB) zusammenfallen wenn sich ein Element der Objektoberfläche (5) auf dem Abbildungsstrahl zwischen den Bildern der bei den Flächen (Fmin) und (Fmax) im erfaßten Bereich des Objektraumes befindet,
und die ausgelesenen Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signal verlauf mit mindestens einem relativen Extremum der Signalgröße detektieren,
wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitinter vall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß je ein leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung in einem Zeitbereich (ΔtB) zumindest näherungsweise auf je einer Verschiebungsstrecke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben wird und durch das Beleuchtungsobjektiv (1) abgebildet wird und dieses leuchtende Flächenelement FELj (3A) in einer Leuchtdichteverteilung mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt (t1) innerhalb des Zeitintervalls (Δti) stets auf
eine vorherbestimmte Strecke im Objektraum (BSOj) abgebildet wird und der Ort des Bildes des leuchtenden Flächenelementes FELj (3A) auf der Strecke (BSOj) nach und nach verändert wird und so das Bild des leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach durch den Objekt raum verschoben wird und
bei der Verschiebung je eines leuchtenden Flächenelementes FELj (3A) mehrfach nacheinander Signal werte aus Elementen des Empfänger-Arrays ausgelesen werden und so ein Signalverlauf gebildet wird und der Ort des jeweils ausgelesenen Elementes des Empfänger-Arrays verändert wird und
die Orte der ausgelesenen Elemente des Empfänger-Arrays auf einer Strecke (ASAj) liegen und das Bild dieser Strecke (ASAj), die Strecke (ASOj), mit der vorherbestimmten Strecke (BSOj) der Bilder der leuch tenden Flächenelemente FEL im Objektraum optisch konjugiert ist und so
je ein Bild eines Elementes des Empfänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenele mentes FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) im Zeitbereich (ΔtB) im Objektraum zur Koinzidenz gebracht ist und so je ein Paar mit wechselnden Bildern erzeugt wird, und dieses Paar nach und nach durch den Objektraum geschoben wird,
so daß je ein Schärfevolumen des Bildes eines leuchtenden Flächenelementes des strukturiert leuchten den Arrays und je ein Bild eines Elementes des Empfänger-Arrays mit je einem Flächenelement der Ob jektoberfläche (5) einmal im Verschiebungsvorgang innerhalb eines Zeitbereiches (ΔtB) zusammenfallen wenn sich ein Element der Objektoberfläche (5) auf dem Abbildungsstrahl zwischen den Bildern der bei den Flächen (Fmin) und (Fmax) im erfaßten Bereich des Objektraumes befindet,
und die ausgelesenen Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signal verlauf mit mindestens einem relativen Extremum der Signalgröße detektieren,
wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitinter vall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird.
3. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß je ein leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der Detektion in einem Zeitbereich (ΔtB) zumindest näherungsweise auf je einer eigenen Verschiebungsstrec ke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben und durch das Beleuchtungsobjektiv (1) ab gebildet wird, wobei relativ bedeutet, daß auch die Position des leuchtenden Flächenelementes FELj (3A) ortsfest sein kann und sich in diesem Fall zumindest eine Komponente des Beleuchtungsobjektivs (1) be wegt, und dieses leuchtende Flächenelement FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) stets auf eine Strecke (BSOj) auf einen vorherbestimmten Abbildungsstrahl (ABSO), im Objektraum abgebildet wird und die Strecke (BSOj) dann auch das Bild der Verschiebungsstrecke (VSBAj) darstellt, und sich der Ort des Bildes des leuchtenden Flächenelementes FELj (3A) auf der Verschie bungsstrecke (VSBAj) zumindest näherungsweise kontinuierlich - innerhalb eines Zeitbereich (ΔtB) - än dert und so das Bild des leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach auf der Strecke (BSOj) durch der Objektraum verschoben wird und
und eine zumindest näherungsweise geradlinige, relative Verschiebung des Empfänger-Arrays zum Ab bildungsobjektiv (2) und parallel zur optischen Achse des Abbildungsobjektivs (2) durchgeführt wird, wobei relativ bedeutet, daß auch die Position des Empfänger-Arrays ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Abbildungsobjektivs (2) bewegen, und bei der Verschiebung mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels eines einzelnen Empfängerelementes gebildet wird und sich der Ort je eines Elemen tes des Empfänger-Arrays zumindest näherungsweise kontinuierlich ändert und die geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv (2) parallel zur optischen Achse des Abbil dungsobjektivs (2) so durchgeführt wird, daß je ein Bild eines Elementes des Empfänger-Arrays mit dem Bild eines leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) im Objektraum zur Koinzidenz gebracht ist und so ein Paar von Bildern erzeugt wird, welches und nach durch den Objektraum geschoben wird,
wobei Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flächenelementen der Objek toberfläche (5) mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls (ΔtB) zusam menfallen und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße detektieren, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß je ein leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der Detektion in einem Zeitbereich (ΔtB) zumindest näherungsweise auf je einer eigenen Verschiebungsstrec ke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben und durch das Beleuchtungsobjektiv (1) ab gebildet wird, wobei relativ bedeutet, daß auch die Position des leuchtenden Flächenelementes FELj (3A) ortsfest sein kann und sich in diesem Fall zumindest eine Komponente des Beleuchtungsobjektivs (1) be wegt, und dieses leuchtende Flächenelement FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) stets auf eine Strecke (BSOj) auf einen vorherbestimmten Abbildungsstrahl (ABSO), im Objektraum abgebildet wird und die Strecke (BSOj) dann auch das Bild der Verschiebungsstrecke (VSBAj) darstellt, und sich der Ort des Bildes des leuchtenden Flächenelementes FELj (3A) auf der Verschie bungsstrecke (VSBAj) zumindest näherungsweise kontinuierlich - innerhalb eines Zeitbereich (ΔtB) - än dert und so das Bild des leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach auf der Strecke (BSOj) durch der Objektraum verschoben wird und
und eine zumindest näherungsweise geradlinige, relative Verschiebung des Empfänger-Arrays zum Ab bildungsobjektiv (2) und parallel zur optischen Achse des Abbildungsobjektivs (2) durchgeführt wird, wobei relativ bedeutet, daß auch die Position des Empfänger-Arrays ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Abbildungsobjektivs (2) bewegen, und bei der Verschiebung mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels eines einzelnen Empfängerelementes gebildet wird und sich der Ort je eines Elemen tes des Empfänger-Arrays zumindest näherungsweise kontinuierlich ändert und die geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv (2) parallel zur optischen Achse des Abbil dungsobjektivs (2) so durchgeführt wird, daß je ein Bild eines Elementes des Empfänger-Arrays mit dem Bild eines leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) im Objektraum zur Koinzidenz gebracht ist und so ein Paar von Bildern erzeugt wird, welches und nach durch den Objektraum geschoben wird,
wobei Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flächenelementen der Objek toberfläche (5) mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls (ΔtB) zusam menfallen und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße detektieren, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird.
4. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele ment gebildet ist, wobei Leuchten im Sinne des Aussendens von elektromagnetischer Strahlung verwen det wird,
wobei jedes leuchtende Flächenelement durch eine zumindest näherungsweise vorbestimmte Leuchtdich te und durch einen vorbestimmten Ort definiert ist, und dieses im weiteren als leuchtendes Flächenele ment FELj (3A) bezeichnet wird, und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuch tungsobjektiv (1), welches eine Abbildung der leuchtenden Flächenelemente FEL realisiert und mit
mindestens einem Abbildungsstrahlengang für die Abbildung von Elementen der mindestens einen Objekt oberfläche (5) und mindestens einem Empfänger-Array mit mindestens zwei Elementen und einem dem Empfänger-Array zugeordneten Abbildungsobjektiv (2, 33) und
daß Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elementen der mindestens einen beleuchteten Objektoberfläche (5) im Objektraum detektieren und von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv (2, 33) stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebildet werden,
und daß Elemente der mindestens einen Objektoberfläche (5) mit mindestens einem Abbildungsobjektiv (2, 33) abgebildet werden und
durch die Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) mit dem Beleuch tungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum mit einem geo metrisch-optischen Schärfevolumen gebildet wird, gekennzeichnet dadurch, daß leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der De tektion von elektromagnetischer Strahlung in einem Zeitbereich (ΔtB) zumindest näherungsweise an je ei nem eigenen Ort (OABj) im strukturiert leuchtenden Array relativ zum Beleuchtungsobjektiv (1) angeordnet und durch Ansteuerung zum Leuchten gebracht werden und durch das Beleuchtungsobjektiv (1) abgebil det wird und dieses mindestens eine leuchtende Flächenelement FELj (3A) zumindest zu einem Zeit punkt (ti) innerhalb des Zeitintervalls (Δti) stets auf einen vorherbestimmten Ort im Objektraum (OOBj) ab gebildet wird
und dieser Bildort (OOBj) des mindestens einen leuchtenden Flächenelementes FELj (3A) im Objektraum durch eine Ansteuerung verändert wird, indem ein jeweils anderes, vorbestimmtes Flächenelement ange steuert und zum Leuchten gebracht wird,
so daß das Bild je eines leuchtenden Flächenelementes FELj (3A) auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsinkrementen (AIO) der Bilder der Abstände (AIA) der leuchtenden Flächenele mentes FELj (3A) im Array-Raum, durch den Objektraum geschoben wird - im Sinne des gesteuerten Einnehmens vorherbestimmter, unterschiedlicher Positionen - und
in jeder Position nach der Verschiebung um mindestens ein ganzzahliges Vielfaches n, einschließlich n = 1, des Abstandsinkrementes (AIO) mindestens ein Signalwert mit einem Empfängerelement detektiert wird und so aus mehreren Vorgängen des Detektierens und Auslesens von Elementen des Empfänger- Arrays ein Signalverlauf gebildet wird und der Ort des detektierten und ausgelesenen Elementes des Empfänger-Arrays kontinuierlich verändert und
die Orte der detektierten und ausgelesenen Elemente des Empfänger-Arrays an Orten (OAAj) im Empfän ger-Array liegen und das Bild dieses Ortes (OAAj), der Bildort (OOAj), mit dem vorherbestimmten Bildort (OOBj) des leuchtenden Flächenelementes FELj (3A) im Objektraum optisch konjugiert ist und so
je ein Bild eines detektierten und ausgelesenen Elementes des Empfänger-Arrays mit dem Bild jeweils ei nes leuchtenden Flächenelementes FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitinter valls (Δti) im Objektraum zur Koinzidenz gebracht ist und so je ein Paar von Bildern mit wechselnden Bil dern erzeugt werden, und diese Paare nach und nach verschiedene Positionen im Objektraum einnehmen und so durch derartige Paare nach und nach der Objektraum in der Tiefe durchsetzt wird,
wobei Schärfevolumina des Bildes je eines leuchtenden Flächenelementes FELj (3A) mit je einem Flä chenelement der Objektoberfläche (5) mindestens einmal im Zeitbereich (ΔtB) in einem Zeitintervall (ΔtB) zusammenfallen und die detektierten und ausgelesenen Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße auf weisen, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) in den Zeitbereich (ΔtB) zeitlich eingepaßt wird.
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele ment gebildet ist, wobei Leuchten im Sinne des Aussendens von elektromagnetischer Strahlung verwen det wird,
wobei jedes leuchtende Flächenelement durch eine zumindest näherungsweise vorbestimmte Leuchtdich te und durch einen vorbestimmten Ort definiert ist, und dieses im weiteren als leuchtendes Flächenele ment FELj (3A) bezeichnet wird, und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuch tungsobjektiv (1), welches eine Abbildung der leuchtenden Flächenelemente FEL realisiert und mit
mindestens einem Abbildungsstrahlengang für die Abbildung von Elementen der mindestens einen Objekt oberfläche (5) und mindestens einem Empfänger-Array mit mindestens zwei Elementen und einem dem Empfänger-Array zugeordneten Abbildungsobjektiv (2, 33) und
daß Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elementen der mindestens einen beleuchteten Objektoberfläche (5) im Objektraum detektieren und von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv (2, 33) stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebildet werden,
und daß Elemente der mindestens einen Objektoberfläche (5) mit mindestens einem Abbildungsobjektiv (2, 33) abgebildet werden und
durch die Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) mit dem Beleuch tungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum mit einem geo metrisch-optischen Schärfevolumen gebildet wird, gekennzeichnet dadurch, daß leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der De tektion von elektromagnetischer Strahlung in einem Zeitbereich (ΔtB) zumindest näherungsweise an je ei nem eigenen Ort (OABj) im strukturiert leuchtenden Array relativ zum Beleuchtungsobjektiv (1) angeordnet und durch Ansteuerung zum Leuchten gebracht werden und durch das Beleuchtungsobjektiv (1) abgebil det wird und dieses mindestens eine leuchtende Flächenelement FELj (3A) zumindest zu einem Zeit punkt (ti) innerhalb des Zeitintervalls (Δti) stets auf einen vorherbestimmten Ort im Objektraum (OOBj) ab gebildet wird
und dieser Bildort (OOBj) des mindestens einen leuchtenden Flächenelementes FELj (3A) im Objektraum durch eine Ansteuerung verändert wird, indem ein jeweils anderes, vorbestimmtes Flächenelement ange steuert und zum Leuchten gebracht wird,
so daß das Bild je eines leuchtenden Flächenelementes FELj (3A) auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsinkrementen (AIO) der Bilder der Abstände (AIA) der leuchtenden Flächenele mentes FELj (3A) im Array-Raum, durch den Objektraum geschoben wird - im Sinne des gesteuerten Einnehmens vorherbestimmter, unterschiedlicher Positionen - und
in jeder Position nach der Verschiebung um mindestens ein ganzzahliges Vielfaches n, einschließlich n = 1, des Abstandsinkrementes (AIO) mindestens ein Signalwert mit einem Empfängerelement detektiert wird und so aus mehreren Vorgängen des Detektierens und Auslesens von Elementen des Empfänger- Arrays ein Signalverlauf gebildet wird und der Ort des detektierten und ausgelesenen Elementes des Empfänger-Arrays kontinuierlich verändert und
die Orte der detektierten und ausgelesenen Elemente des Empfänger-Arrays an Orten (OAAj) im Empfän ger-Array liegen und das Bild dieses Ortes (OAAj), der Bildort (OOAj), mit dem vorherbestimmten Bildort (OOBj) des leuchtenden Flächenelementes FELj (3A) im Objektraum optisch konjugiert ist und so
je ein Bild eines detektierten und ausgelesenen Elementes des Empfänger-Arrays mit dem Bild jeweils ei nes leuchtenden Flächenelementes FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitinter valls (Δti) im Objektraum zur Koinzidenz gebracht ist und so je ein Paar von Bildern mit wechselnden Bil dern erzeugt werden, und diese Paare nach und nach verschiedene Positionen im Objektraum einnehmen und so durch derartige Paare nach und nach der Objektraum in der Tiefe durchsetzt wird,
wobei Schärfevolumina des Bildes je eines leuchtenden Flächenelementes FELj (3A) mit je einem Flä chenelement der Objektoberfläche (5) mindestens einmal im Zeitbereich (ΔtB) in einem Zeitintervall (ΔtB) zusammenfallen und die detektierten und ausgelesenen Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße auf weisen, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) in den Zeitbereich (ΔtB) zeitlich eingepaßt wird.
5. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung die leuchtenden Flächenelemente FEL auf je einer eigenen Verschiebungsstrecke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben werden
und die leuchtenden Flächenelemente FEL zumindest zu einem Zeitpunkt (ti) innerhalb eines Zeitintervalls (Δti) in einer Leuchtdichteverteilung jeweils eine zumindest näherungsweise vorherbestimmt gleichblei bende, relative Leuchtdichte aufweisen
und die leuchtenden Flächenelemente FEL dabei stets auf einer B-Strecke (BSAj) positioniert werden, wo bei die B-Strecke (BSAj) die Sollorte für die leuchtenden Flächenelemente FEL zumindest zu einem Zeit punkt (ti) innerhalb des Zeitintervalls (Δti) darstellen, und
die Bilder dieser B-Strecken (BSAj) im Objektraum durch Abbildung mit mindestens einem Beleuchtungs objektiv (1) stets zu mindestens einem Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) geformt sind, wobei der Konvergenzpunkt (K1), mindestens in einem Abstand (dK1 min) von der optischen Achse des Beleuchtungsobjektivs (1) vom 16ten Teil und maximal in einem Abstand (dK1 max) vom 16fachen des Abstandes (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1) vom Pupillenzentrum (PZOA) des am weitesten entfernten Abbildungsobjektivs (2) im Objektraum positioniert ist
und zumindest in einem Zeitbereich (ΔtB) während des Verschiebungsvorganges der leuchtenden Flä chenelemente FEL auf Verschiebungsstrecken (VSBAj) jeweils genau ein Bild von einem Empfängerele ment und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum
zumindest zu einem einzigen Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) der Detektion zumin dest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumin dest zu diesem Zeitpunkt (ti) aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare erzeugt werden und diese derartigen Paare durch den Objektraum gescho ben werden, und am Ort dieser Paare im Schwerpunkt des aktuellen Schnittvolumens des Schärfevolu mens der beiden Bilder so jeweils ein aktueller Koinzidenzpunkt Koj i gebildet ist, der durch den Objektraum geschoben wird,
wobei Schärfevolumina von Bildern der leuchtenden Flächenelemente FEL mit Flächenelementen der Objektoberfläche (5) mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls (ΔtB) zu sammenfallen und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signal verlauf mit mindestens einem relativen Extremum der Signalgröße detektieren, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird,
so daß die leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Elemente des Empfänger-Arrays jeweils zumindest zu einem Zeitpunkt (ti) innerhalb eines Zeitintervalls (Δti), also stets zur gleichen Zeit, im Objektraum aufeinander abgebildet werden
und bei der Verschiebung die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchten den Arrays und die Positionen der Elemente des Empfänger-Arrays stets nach der Newtonschen Abbil dungsgleichung aus der Lage des Beleuchtungsobjektivs (1) und der Lage des Abbildungsobjektivs (2, 33) in der 3D-Aufnahme-Anordnung und der Brennweite (fB) des Beleuchtungsobjektivs (1) und der Brennweite (fA) des Abbildungsobjektivs (2, 33) so bestimmt und realisiert werden,
daß im Objektraum sowohl die leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays als auch die Elemente des Empfänger-Arrays zumindest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet werden.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung die leuchtenden Flächenelemente FEL auf je einer eigenen Verschiebungsstrecke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben werden
und die leuchtenden Flächenelemente FEL zumindest zu einem Zeitpunkt (ti) innerhalb eines Zeitintervalls (Δti) in einer Leuchtdichteverteilung jeweils eine zumindest näherungsweise vorherbestimmt gleichblei bende, relative Leuchtdichte aufweisen
und die leuchtenden Flächenelemente FEL dabei stets auf einer B-Strecke (BSAj) positioniert werden, wo bei die B-Strecke (BSAj) die Sollorte für die leuchtenden Flächenelemente FEL zumindest zu einem Zeit punkt (ti) innerhalb des Zeitintervalls (Δti) darstellen, und
die Bilder dieser B-Strecken (BSAj) im Objektraum durch Abbildung mit mindestens einem Beleuchtungs objektiv (1) stets zu mindestens einem Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) geformt sind, wobei der Konvergenzpunkt (K1), mindestens in einem Abstand (dK1 min) von der optischen Achse des Beleuchtungsobjektivs (1) vom 16ten Teil und maximal in einem Abstand (dK1 max) vom 16fachen des Abstandes (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1) vom Pupillenzentrum (PZOA) des am weitesten entfernten Abbildungsobjektivs (2) im Objektraum positioniert ist
und zumindest in einem Zeitbereich (ΔtB) während des Verschiebungsvorganges der leuchtenden Flä chenelemente FEL auf Verschiebungsstrecken (VSBAj) jeweils genau ein Bild von einem Empfängerele ment und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum
zumindest zu einem einzigen Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) der Detektion zumin dest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumin dest zu diesem Zeitpunkt (ti) aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare erzeugt werden und diese derartigen Paare durch den Objektraum gescho ben werden, und am Ort dieser Paare im Schwerpunkt des aktuellen Schnittvolumens des Schärfevolu mens der beiden Bilder so jeweils ein aktueller Koinzidenzpunkt Koj i gebildet ist, der durch den Objektraum geschoben wird,
wobei Schärfevolumina von Bildern der leuchtenden Flächenelemente FEL mit Flächenelementen der Objektoberfläche (5) mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls (ΔtB) zu sammenfallen und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signal verlauf mit mindestens einem relativen Extremum der Signalgröße detektieren, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird,
so daß die leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Elemente des Empfänger-Arrays jeweils zumindest zu einem Zeitpunkt (ti) innerhalb eines Zeitintervalls (Δti), also stets zur gleichen Zeit, im Objektraum aufeinander abgebildet werden
und bei der Verschiebung die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchten den Arrays und die Positionen der Elemente des Empfänger-Arrays stets nach der Newtonschen Abbil dungsgleichung aus der Lage des Beleuchtungsobjektivs (1) und der Lage des Abbildungsobjektivs (2, 33) in der 3D-Aufnahme-Anordnung und der Brennweite (fB) des Beleuchtungsobjektivs (1) und der Brennweite (fA) des Abbildungsobjektivs (2, 33) so bestimmt und realisiert werden,
daß im Objektraum sowohl die leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays als auch die Elemente des Empfänger-Arrays zumindest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet werden.
6. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) auf je einer B-Strecke (BSAj) positioniert wird und
und die B-Strecken (BSAj) auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Array-Raum gerichtet werden, so daß der Konvergenzpunkt (K1) dabei zumindest annähernd im Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum positioniert wird,
und der Konvergenzpunkt (K1) auch in der Pupillenebene des Beleuchtungsobjektivs (1) positioniert wird und während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise ge meinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so aus dem Bild von einem Emp fängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt wer den und
während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum einmal zumindest näherungsweise zur Koinzidenz gebracht werden.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) auf je einer B-Strecke (BSAj) positioniert wird und
und die B-Strecken (BSAj) auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Array-Raum gerichtet werden, so daß der Konvergenzpunkt (K1) dabei zumindest annähernd im Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum positioniert wird,
und der Konvergenzpunkt (K1) auch in der Pupillenebene des Beleuchtungsobjektivs (1) positioniert wird und während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise ge meinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so aus dem Bild von einem Emp fängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt wer den und
während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum einmal zumindest näherungsweise zur Koinzidenz gebracht werden.
7. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb eines je den Zeitintervalls (Δti) der Detektion mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke (BSAj) positioniert wird,
wobei der Konvergenzpunkt (K1) zumindest annähernd in der Brennebene des Beleuchtungsobjektivs (1) im Objektraum und zusätzlich im Pupillenzentrum (PZOA) der Pupille eines Abbildungsobjektivs (2) im Objektraum positioniert wird und
während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem Zeitpunkt (ti) in nerhalb eines jeden Zeitintervalls (Δti) der Detektion zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumindest zu diesem Zeitpunkt (ti) aus dem Bild von ei nem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objek traum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare mit fester Zuord nung erzeugt werden und
während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum genau einmal zumindest näherungsweise zur Koinzidenz gebracht werden
und diese B-Strecken (BSAj) parallel einer zu Geraden (gAP) positioniert werden, wobei die Gerade (gAP) den Brennpunkt FAB des Beleuchtungsobjektivs (1) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und der Brennweite (fB) des Beleuchtungsob jektivs (1) aufweist, wobei dieser Anstieg der Geraden (gAP) auf die Achse des Beleuchtungsobjektivs (1) bezogen ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb eines je den Zeitintervalls (Δti) der Detektion mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke (BSAj) positioniert wird,
wobei der Konvergenzpunkt (K1) zumindest annähernd in der Brennebene des Beleuchtungsobjektivs (1) im Objektraum und zusätzlich im Pupillenzentrum (PZOA) der Pupille eines Abbildungsobjektivs (2) im Objektraum positioniert wird und
während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem Zeitpunkt (ti) in nerhalb eines jeden Zeitintervalls (Δti) der Detektion zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumindest zu diesem Zeitpunkt (ti) aus dem Bild von ei nem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objek traum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare mit fester Zuord nung erzeugt werden und
während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum genau einmal zumindest näherungsweise zur Koinzidenz gebracht werden
und diese B-Strecken (BSAj) parallel einer zu Geraden (gAP) positioniert werden, wobei die Gerade (gAP) den Brennpunkt FAB des Beleuchtungsobjektivs (1) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und der Brennweite (fB) des Beleuchtungsob jektivs (1) aufweist, wobei dieser Anstieg der Geraden (gAP) auf die Achse des Beleuchtungsobjektivs (1) bezogen ist.
8. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 5 und 7, gekennzeichnet dadurch, daß die Verschiebungsstrecken (VSBAj) und die B-Strecken (BSAj) im Ver schiebungsvorgang zumindest näherungsweise im Zeitintervall (Δtk) koinzidieren, wobei das Zeitintervall (Δtk) zumindest die Länge des Zeitintervalls (Δti) und maximal die Länge des Zeitbereiches (ΔtB) auf weist, und
während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zeitweilig und zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein permanentes Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt werden und
während des Verschiebungsvorganges im Zeitbereich (ΔtB) der leuchtenden Flächenelemente FEL je weils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise einmal zur Koinzidenz gebracht werden,
wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δtk) gemacht wird und das Zeitintervall (Δtk) in den Zeitbereich (ΔtB) eingepaßt ist
und die leuchtenden Flächenelemente in einer gerasterten Struktur mit äquidistanten Abständen verscho ben werden.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 5 und 7, gekennzeichnet dadurch, daß die Verschiebungsstrecken (VSBAj) und die B-Strecken (BSAj) im Ver schiebungsvorgang zumindest näherungsweise im Zeitintervall (Δtk) koinzidieren, wobei das Zeitintervall (Δtk) zumindest die Länge des Zeitintervalls (Δti) und maximal die Länge des Zeitbereiches (ΔtB) auf weist, und
während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zeitweilig und zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein permanentes Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt werden und
während des Verschiebungsvorganges im Zeitbereich (ΔtB) der leuchtenden Flächenelemente FEL je weils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise einmal zur Koinzidenz gebracht werden,
wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δtk) gemacht wird und das Zeitintervall (Δtk) in den Zeitbereich (ΔtB) eingepaßt ist
und die leuchtenden Flächenelemente in einer gerasterten Struktur mit äquidistanten Abständen verscho ben werden.
9. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer Szene nach dem Anspruch 1 und 5, gekennzeichnet dadurch, daß durch die Steuerung der Dauer eines jeden Zeitintervalls (Δti) und durch die Steuerung der relativen Einschaltzeiten in Bezug zur Dauer eines jeden Zeitintervalls (Δti) der einzelnen leuchtenden Flächenelemente (FELj), die über die Objektoberfläche (5) jeweils ein Empfängerelement beleuchten und durch die Steuerung der Leuchtdichte der leuchtenden Flächenelemente,
photometrisch der Fall der Verschiebung von leuchtenden Flächenelementen mit einer zumindest nähe rungsweise gleichbleibenden, relativen Leuchtdichte auf B-Strecken (BSAj) nachgebildet wird,
und so effektive, leuchtende Flächenelemente FEL mit ihrem jeweiligen effektiven Schwerpunkt auf B- Strecken (BSAj) verschoben werden,
wobei der Konvergenzpunkt (K1) zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs (1) und im Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum positioniert ist, und die B- Strecken (BSAj) auf das Pupillenzentrum PZOA des Abbildungsobjektivs (2) im Array-Raum gerichtet sind.
von mindestens einer Objektoberfläche (5) in einer Szene nach dem Anspruch 1 und 5, gekennzeichnet dadurch, daß durch die Steuerung der Dauer eines jeden Zeitintervalls (Δti) und durch die Steuerung der relativen Einschaltzeiten in Bezug zur Dauer eines jeden Zeitintervalls (Δti) der einzelnen leuchtenden Flächenelemente (FELj), die über die Objektoberfläche (5) jeweils ein Empfängerelement beleuchten und durch die Steuerung der Leuchtdichte der leuchtenden Flächenelemente,
photometrisch der Fall der Verschiebung von leuchtenden Flächenelementen mit einer zumindest nähe rungsweise gleichbleibenden, relativen Leuchtdichte auf B-Strecken (BSAj) nachgebildet wird,
und so effektive, leuchtende Flächenelemente FEL mit ihrem jeweiligen effektiven Schwerpunkt auf B- Strecken (BSAj) verschoben werden,
wobei der Konvergenzpunkt (K1) zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs (1) und im Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum positioniert ist, und die B- Strecken (BSAj) auf das Pupillenzentrum PZOA des Abbildungsobjektivs (2) im Array-Raum gerichtet sind.
10. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 3 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) eines strukturiert leuchtenden Arrays mit äquidistanten Abständen der leuchtenden Flächenelemente zumindest zu einem Zeitpunkt (ti) innerhalb eines jeden Zei tintervalls (Δti) mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke (BSAj) positioniert wird, wobei
der Konvergenzpunkt (K1) mit dem Brennpunkt (FOA) mindestens eines Abbildungsobjektivs (2) im Objek traum zumindest annähernd zur Koinzidenz gebracht wird
und zumindest annähernd eine geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungs objektiv (2) parallel zur optischen Achse des Abbildungsobjektivs (2) durchgeführt wird und bei der Ver schiebung mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels einem einzelnen Empfängerelement gebildet wird und bei Ab bildung von mehrfach so erzeugten Verschiebungsstrecken (ASAj) von Elementen des Empfänger-Arrays mit dem Abbildungsobjektiv (2) aus deren Bildern (ASOj) im Objektraum zumindest annähernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Brennpunkt (FOA) des Abbildungsobjektivs (2) gebildet wird
und die geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsob jektivs (2) so durchgeführt wird,
daß während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) zumindest näherungsweise gemeinsam auf dem Bild einer B- Strecke (BSAj) zur Koinzidenz gebracht und verschoben werden und so aus dem Bild von je einem Ele ment des Empfänger-Arrays und dem Bild je eines leuchtenden Flächenelementes FELj (3A) jeweils zu mindest zu diesem Zeitpunkt (ti) ein Paar mit fester Zuordnung gebildet wird und so im Objektraum Paare von Bildern erzeugt werden.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 3 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) eines strukturiert leuchtenden Arrays mit äquidistanten Abständen der leuchtenden Flächenelemente zumindest zu einem Zeitpunkt (ti) innerhalb eines jeden Zei tintervalls (Δti) mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke (BSAj) positioniert wird, wobei
der Konvergenzpunkt (K1) mit dem Brennpunkt (FOA) mindestens eines Abbildungsobjektivs (2) im Objek traum zumindest annähernd zur Koinzidenz gebracht wird
und zumindest annähernd eine geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungs objektiv (2) parallel zur optischen Achse des Abbildungsobjektivs (2) durchgeführt wird und bei der Ver schiebung mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels einem einzelnen Empfängerelement gebildet wird und bei Ab bildung von mehrfach so erzeugten Verschiebungsstrecken (ASAj) von Elementen des Empfänger-Arrays mit dem Abbildungsobjektiv (2) aus deren Bildern (ASOj) im Objektraum zumindest annähernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Brennpunkt (FOA) des Abbildungsobjektivs (2) gebildet wird
und die geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsob jektivs (2) so durchgeführt wird,
daß während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) zumindest näherungsweise gemeinsam auf dem Bild einer B- Strecke (BSAj) zur Koinzidenz gebracht und verschoben werden und so aus dem Bild von je einem Ele ment des Empfänger-Arrays und dem Bild je eines leuchtenden Flächenelementes FELj (3A) jeweils zu mindest zu diesem Zeitpunkt (ti) ein Paar mit fester Zuordnung gebildet wird und so im Objektraum Paare von Bildern erzeugt werden.
11. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 3 und 10, gekennzeichnet dadurch, daß während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Element eines Empfänger-Arrays und jeweils ein Bild von einem leuchten den Flächenelement FELj (3A) im Objektraum zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) permanent zur Koinzidenz gebracht und verschoben werden.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 3 und 10, gekennzeichnet dadurch, daß während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Element eines Empfänger-Arrays und jeweils ein Bild von einem leuchten den Flächenelement FELj (3A) im Objektraum zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) permanent zur Koinzidenz gebracht und verschoben werden.
12. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5 bis 11,
gekennzeichnet dadurch, daß der Konvergenzpunkt (K1) des Streckenbüschels (SB1) gemeinsam mit dem Konvergenzpunkt (K2) des Streckenbüschels (SB2) im Objektraum sowohl mit dem Brennpunkt (FOA) als auch mit dem Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) zumindest annähernd zur Koinzidenz gebracht werden, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils arrayseitig zumindest näherungsweise telezentrisch ausgeführt sind, und
leuchtende Flächenelemente FEL zumindest annähernd parallel zu einer Geraden (gA) auf Verschie bungsstrecken (VSBAj) verschoben werden und die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungs objektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs (1) und Abstand (d) des Brennpunktes (FAA) des Abbil dungsobjektivs (2) von der Achse des Beleuchtungsobjektivs (1) im Objektraum realisiert wird, wobei die ser Anstieg der Geraden (gA) auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs (1) bezogen ist und wegen der Telezentrie des Abbildungsobjektivs im Array-Raum in diesem Fall die Gerade (gA) mit der Geraden (gAP) koinzidiert.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5 bis 11,
gekennzeichnet dadurch, daß der Konvergenzpunkt (K1) des Streckenbüschels (SB1) gemeinsam mit dem Konvergenzpunkt (K2) des Streckenbüschels (SB2) im Objektraum sowohl mit dem Brennpunkt (FOA) als auch mit dem Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) zumindest annähernd zur Koinzidenz gebracht werden, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils arrayseitig zumindest näherungsweise telezentrisch ausgeführt sind, und
leuchtende Flächenelemente FEL zumindest annähernd parallel zu einer Geraden (gA) auf Verschie bungsstrecken (VSBAj) verschoben werden und die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungs objektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs (1) und Abstand (d) des Brennpunktes (FAA) des Abbil dungsobjektivs (2) von der Achse des Beleuchtungsobjektivs (1) im Objektraum realisiert wird, wobei die ser Anstieg der Geraden (gA) auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs (1) bezogen ist und wegen der Telezentrie des Abbildungsobjektivs im Array-Raum in diesem Fall die Gerade (gA) mit der Geraden (gAP) koinzidiert.
13. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 5 und 9, gekennzeichnet dadurch, daß zumindest näherungsweise eine geradlinige Verschiebung des Empfänger- Arrays durchgeführt wird und bei der Verschiebung nacheinander Signalwerte aus einzelnen, auch ne beneinander liegenden Elementen des Empfänger-Arrays ausgelesen werden und Signalverläufe auch durch gewichtete Summierung der Signale einzelner Elemente des Empfänger-Arrays,
so daß Signale von virtuellen Elementen gebildet werden, und zur Bildung eines einzelnen Signalverlaufes so Signalwerte von virtuellen Elementen des Empfänger-Arrays verwendet werden,
wobei diese virtuellen Elemente des Empfänger-Arrays beim Verschieben des Empfänger-Arrays zumin dest näherungsweise jeweils auf einer Verschiebungsstrecke (ASAj) im Array-Raum liegen, deren Verlän gerung das Zentrum der Austrittspupille des Abbildungsobjektivs (2) schneidet,
und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) gebildet wird
und während des Verschiebungsvorganges der Elemente des Empfänger-Arrays diese mehrfach nach einander ausgelesen werden und jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum innerhalb des Verschiebungs vorganges zumindest während eines Zeitintervalls (Δti) innerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz auf B-Strecken (BSAj) gebracht werden
und so aus dem Bild von einem Empfängerelement und dem Bild von einem leuchtenden Flächenelement FELj (3A) jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare er zeugt werden.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 5 und 9, gekennzeichnet dadurch, daß zumindest näherungsweise eine geradlinige Verschiebung des Empfänger- Arrays durchgeführt wird und bei der Verschiebung nacheinander Signalwerte aus einzelnen, auch ne beneinander liegenden Elementen des Empfänger-Arrays ausgelesen werden und Signalverläufe auch durch gewichtete Summierung der Signale einzelner Elemente des Empfänger-Arrays,
so daß Signale von virtuellen Elementen gebildet werden, und zur Bildung eines einzelnen Signalverlaufes so Signalwerte von virtuellen Elementen des Empfänger-Arrays verwendet werden,
wobei diese virtuellen Elemente des Empfänger-Arrays beim Verschieben des Empfänger-Arrays zumin dest näherungsweise jeweils auf einer Verschiebungsstrecke (ASAj) im Array-Raum liegen, deren Verlän gerung das Zentrum der Austrittspupille des Abbildungsobjektivs (2) schneidet,
und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) gebildet wird
und während des Verschiebungsvorganges der Elemente des Empfänger-Arrays diese mehrfach nach einander ausgelesen werden und jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum innerhalb des Verschiebungs vorganges zumindest während eines Zeitintervalls (Δti) innerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz auf B-Strecken (BSAj) gebracht werden
und so aus dem Bild von einem Empfängerelement und dem Bild von einem leuchtenden Flächenelement FELj (3A) jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare er zeugt werden.
14. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Ver schiebungsstrecken (VSBAj) durchgeführt werden und bei Abbildung der erzeugten, parallelen Verschie bungsstrecken (VSBAj) mit dem Beleuchtungsobjektiv (1) aus deren Bildern zumindest näherungsweise mindestens ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) im Objektraum im Brennpunkt (FOB) des Beleuchtungsobjektivs (1) gebildet wird und
zusätzlich eine geradlinige Verschiebung des Empfänger-Arrays, synchronisiert mit den Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschiebungsstrecken (VSBAj) durchgeführt wird und während der Verschiebung nacheinander Signalwerte aus einzelnen, nebeneinander liegenden Ele menten des Empfänger-Arrays ausgelesen werden und aus diesen Signalverläufe gebildet werden und zur Bildung eines einzelnen Signalverlaufes nebeneinander liegende Elemente des Empfänger-Arrays ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise je weils auf einer A-Strecke (ASAj) im Array-Raum liegen und die Verlängerung der A-Strecke (ASAj) jeweils auf das Pupillenzentrum (PZAB) des Beleuchtungsobjektivs (1) im Array-Raum zielt,
und bei Abbildung von mehrfach so erzeugten parallelen A-Strecken (ASAj) mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOB) der Pupille des Beleuchtungsobjektivs (1) gebildet wird und die A-Strecken (ASAj) parallel zu einer Geraden (gAA) ausgerichtet werden und
die Gerade (gAA) den Brennpunkt (FAA) des Abbildungsobjektivs (2) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums (PZOA) der Pupille des Abbil dungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und der Brennweite (fA) des Abbildungsobjektivs (2) aufweist, wobei dieser Anstieg der Geraden (gAA) auf die Achse des Beleuch tungsobjektivs (1) bezogen ist
und während des synchronisierten Verschiebungsvorganges der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays
die Elemente des Empfänger-Arrays mehrfach nacheinander ausgelesen werden und jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum innerhalb des Verschiebungsvorganges zumindest während eines Zeitintervalls (Δti) innerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz gebracht werden und so aus dem Bild von einem des Empfängerelement und dem Bildpunkt jeweils ein verschiebbares Paar mit fester Zuordnung gebildet wird und so im Objektraum verschiebbare Paare erzeugt werden.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Ver schiebungsstrecken (VSBAj) durchgeführt werden und bei Abbildung der erzeugten, parallelen Verschie bungsstrecken (VSBAj) mit dem Beleuchtungsobjektiv (1) aus deren Bildern zumindest näherungsweise mindestens ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) im Objektraum im Brennpunkt (FOB) des Beleuchtungsobjektivs (1) gebildet wird und
zusätzlich eine geradlinige Verschiebung des Empfänger-Arrays, synchronisiert mit den Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschiebungsstrecken (VSBAj) durchgeführt wird und während der Verschiebung nacheinander Signalwerte aus einzelnen, nebeneinander liegenden Ele menten des Empfänger-Arrays ausgelesen werden und aus diesen Signalverläufe gebildet werden und zur Bildung eines einzelnen Signalverlaufes nebeneinander liegende Elemente des Empfänger-Arrays ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise je weils auf einer A-Strecke (ASAj) im Array-Raum liegen und die Verlängerung der A-Strecke (ASAj) jeweils auf das Pupillenzentrum (PZAB) des Beleuchtungsobjektivs (1) im Array-Raum zielt,
und bei Abbildung von mehrfach so erzeugten parallelen A-Strecken (ASAj) mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOB) der Pupille des Beleuchtungsobjektivs (1) gebildet wird und die A-Strecken (ASAj) parallel zu einer Geraden (gAA) ausgerichtet werden und
die Gerade (gAA) den Brennpunkt (FAA) des Abbildungsobjektivs (2) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums (PZOA) der Pupille des Abbil dungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und der Brennweite (fA) des Abbildungsobjektivs (2) aufweist, wobei dieser Anstieg der Geraden (gAA) auf die Achse des Beleuch tungsobjektivs (1) bezogen ist
und während des synchronisierten Verschiebungsvorganges der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays
die Elemente des Empfänger-Arrays mehrfach nacheinander ausgelesen werden und jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum innerhalb des Verschiebungsvorganges zumindest während eines Zeitintervalls (Δti) innerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz gebracht werden und so aus dem Bild von einem des Empfängerelement und dem Bildpunkt jeweils ein verschiebbares Paar mit fester Zuordnung gebildet wird und so im Objektraum verschiebbare Paare erzeugt werden.
15. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 14,
gekennzeichnet dadurch, daß eine absolute Phasendifferenz (ΔϕGitter) in einem Bildpunkt, welcher zu ei
nem Objektpunkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objekt
punkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswer
tung der Modulation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz (ΔϕGitter)
jeweils vorzeichenrichtig zur absoluten Referenzphase (ϕR) addiert wird, die sich aus der mindestens ein
mal experimentell vorbestimmten Position der Referenzplatte (zOR) im Objektraum und bezogen auf das
Beleuchtungsobjektiv (1) und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im
Ergebnis dieser Rechenoperation eine absolute Objektphase (ϕObj) für jeden Objektpunkt ergibt, die auf
einen Referenzpunkt im Objektraum bezogen ist, wobei Informationen aus dem Signalverlauf des zuge
hörigen Referenzpunktes abgespeichert werden.
16. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 14, gekennzeichnet dadurch, daß eine absolute Phasendifferenz (ΔϕGitter) in einem Bildpunkt, welcher zu ei nem Objektpunkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objekt punkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswer tung der Modulation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz (ΔϕGitter) je weils vorzeichenrichtig zur absoluten Referenzphase (ϕR) addiert wird, die sich aus der mindestens einmal experimentell vorbestimmten Position der Referenzplatte (zOR) im Objektraum und bezogen auf das Be leuchtungsobjektiv (1) und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im Er gebnis dieser Rechenoperation eine absolute Objektphase (ϕObj) für jeden Objektpunkt ergibt, die auf ei nen Referenzpunkt im Objektraum bezogen ist,
und aus dem Signalverlauf des zugehörigen Referenzpunktes der absolute Referenzphasenwert berech net und als absoluter Referenzphasenwert abgespeichert wird.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 14, gekennzeichnet dadurch, daß eine absolute Phasendifferenz (ΔϕGitter) in einem Bildpunkt, welcher zu ei nem Objektpunkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objekt punkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswer tung der Modulation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz (ΔϕGitter) je weils vorzeichenrichtig zur absoluten Referenzphase (ϕR) addiert wird, die sich aus der mindestens einmal experimentell vorbestimmten Position der Referenzplatte (zOR) im Objektraum und bezogen auf das Be leuchtungsobjektiv (1) und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im Er gebnis dieser Rechenoperation eine absolute Objektphase (ϕObj) für jeden Objektpunkt ergibt, die auf ei nen Referenzpunkt im Objektraum bezogen ist,
und aus dem Signalverlauf des zugehörigen Referenzpunktes der absolute Referenzphasenwert berech net und als absoluter Referenzphasenwert abgespeichert wird.
17. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16,
gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase des strukturiert
leuchtenden Arrays selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuch
tenden Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Si
gnalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulati
onsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten
Phase (ϕR) des verschobenen, strukturiert leuchtenden Arrays zugeordnet werden.
18. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16,
gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase eines mitverschobe
nen Referenzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden
Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe
eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums
errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase (ϕR) des
mitverschobenen Referenzgitters zugeordnet werden.
19. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16,
gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase des strukturiert
leuchtenden Arrays selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuch
tenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalver
läufe eines Referenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten
mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des verschobenen
strukturiert leuchtenden Arrays (ϕR) zugeordnet werden.
20. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16,
gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase eines mitverschobe
nen Referenzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden
Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe ei
nes Referenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π-
Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des mitverschobenen Refe
renzgitters (ϕR) zugeordnet werden.
21. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 20,
gekennzeichnet dadurch, daß zusätzlich über den Beleuchtungsstrahlengang eine Bildaufnahme des Ob
jektes (5, 18, 19) oder der Szene mit einem zusätzlichen Empfänger-Array durchgeführt wird und die
Bildelemente des zusätzlichen Empfänger-Arrays dabei jeweils eine geradlinige Verschiebung im Array-
Raum erfahren.
22. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 21,
gekennzeichnet dadurch, daß zusätzlich eine Beleuchtung des Objektes (5, 18, 19) oder der Szene
durchgeführt wird mit einem zusätzlichen, strukturiert leuchtenden Array mit leuchtenden Flächenelemen
ten mit Extrema der Leuchtdichte und diese Extrema dabei jeweils parallel zu einer Geraden (gAP2), die
spiegelsymmetrisch zur Geraden (gAP) ist, auf Verschiebungsstrecken im Array-Raum verschoben wer
den.
23. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 22,
gekennzeichnet dadurch, daß die für das Auswerteverfahren benötigte Information über die absolute, late
ral invariante Objektphase durch optische Bestimmung der absoluten Phase (ϕGitter) direkt aus der Ver
schiebung des strukturiert leuchtenden Arrays durch optische Kopplung mit einer gerasterten Struktur als
Gegengitter und einem Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase
abgeleitet wird.
24. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 23,
gekennzeichnet dadurch, daß die für das Auswerteverfahren benötigte Information über die absolute, late
ral invariante Objektphase durch optische Bestimmung der absoluten Phase (ϕGitter) direkt aus der Bewe
gung einer starr mit dem strukturiert beleuchteten Array gekoppelten Referenzstruktur, wobei dieser ein
Auswertesystem und ein Nullpunktgeber zugeordnet sind, abgeleitet wird.
25. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 24, gekennzeichnet dadurch, daß das Auslesen der Elemente des Empfänger-Arrays bei veränderlichen Werten der Referenzphase mod 2π durchgeführt wird, also asynchron zur Referenzphase (ϕGitter) durchge führt wird, wobei der jeweils aktuelle Triggerimpuls für das Detektieren von elektromagnetischer Strahlung der Elemente des Empfänger-Arrays im Zeitintervall Δti bei einer gegebenen präzisionsmechanisch- optischen Anordnung zur 3D-Aufnahme sich in Abhängigkeit von der Geometrie der Anordnung sowie der Lage der Konvergenzpunkte (K1) und (K2) und in Abhängigkeit vom aktuellen Wert der absoluten Refe renzphase (ϕGitter) für jedes Element berechnet wird und in einer Phasenkorrekturwert-Tabelle vorliegt und so in jedem Element des Empfänger-Arrays ein Signalverlauf mit zumindest näherungsweise konstanter Ortsfrequenz erzeugt wird,
wobei das Auslesen der Elemente des Empfänger-Arrays in aufeinanderfolgend zumindest annähernd gleichen Phasenschritten (ΔϕEmpfänger) der Phase (ϕEmpfänger) in jedem Element des Empfänger-Arrays er folgt und die im Verhältnis zur Phasenschrittweite (ΔϕEmpfänger) selbst kleineren Abweichungen (ΔΔϕ) zwi schen der Referenzphase und der in einem Element des Empfänger-Arrays sich ergebenden Phase (ϕEmpfänger) als von der Referenzphase (ϕGitter) abhängige Phasenkorrekturwerte (ΔΔϕ) mindestens einmalig für jedes Element des Empfänger-Arrays errechnet werden und so in einer Phasenkorrekturwert-Tabelle vorliegen und gespeichert werden und die Phasenkorrekturwerte (ΔΔϕ) sowohl für die Bestimmung des jeweiligen Abtastpunktes als auch bei der Berechnung der absoluten Phase verwendet werden
und Verschiebungen der leuchtenden Flächenelemente FEL durchgeführt werden und die Bilder der Ver schiebungsstrecken (VSBAj) ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) bilden.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 24, gekennzeichnet dadurch, daß das Auslesen der Elemente des Empfänger-Arrays bei veränderlichen Werten der Referenzphase mod 2π durchgeführt wird, also asynchron zur Referenzphase (ϕGitter) durchge führt wird, wobei der jeweils aktuelle Triggerimpuls für das Detektieren von elektromagnetischer Strahlung der Elemente des Empfänger-Arrays im Zeitintervall Δti bei einer gegebenen präzisionsmechanisch- optischen Anordnung zur 3D-Aufnahme sich in Abhängigkeit von der Geometrie der Anordnung sowie der Lage der Konvergenzpunkte (K1) und (K2) und in Abhängigkeit vom aktuellen Wert der absoluten Refe renzphase (ϕGitter) für jedes Element berechnet wird und in einer Phasenkorrekturwert-Tabelle vorliegt und so in jedem Element des Empfänger-Arrays ein Signalverlauf mit zumindest näherungsweise konstanter Ortsfrequenz erzeugt wird,
wobei das Auslesen der Elemente des Empfänger-Arrays in aufeinanderfolgend zumindest annähernd gleichen Phasenschritten (ΔϕEmpfänger) der Phase (ϕEmpfänger) in jedem Element des Empfänger-Arrays er folgt und die im Verhältnis zur Phasenschrittweite (ΔϕEmpfänger) selbst kleineren Abweichungen (ΔΔϕ) zwi schen der Referenzphase und der in einem Element des Empfänger-Arrays sich ergebenden Phase (ϕEmpfänger) als von der Referenzphase (ϕGitter) abhängige Phasenkorrekturwerte (ΔΔϕ) mindestens einmalig für jedes Element des Empfänger-Arrays errechnet werden und so in einer Phasenkorrekturwert-Tabelle vorliegen und gespeichert werden und die Phasenkorrekturwerte (ΔΔϕ) sowohl für die Bestimmung des jeweiligen Abtastpunktes als auch bei der Berechnung der absoluten Phase verwendet werden
und Verschiebungen der leuchtenden Flächenelemente FEL durchgeführt werden und die Bilder der Ver schiebungsstrecken (VSBAj) ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) bilden.
26. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß leuchtende Flächenelemente FEL und so auch leuchtende Flächenelemen te FEL mit lokalen Extrema der Leuchtdichte im Array-Raum auf Verschiebungsstrecken (VSBAj) verscho ben werden, die mit den B-Strecken (BSAj) koinzidieren, und die B-Strecken (BSAj) mittels einer zweistufi gen Abbildungsstufe abgebildet werden und
gleichzeitig die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays erfolgt und diese ausge lesen werden und so jeweils ein Signalwert gewonnen wird
und so jeweils ein leuchtendes Flächenelement FELj (3A) auf je einer B-Strecke (BSAj) positioniert wird, und die Bilder dieser B-Strecken (BSAj) nach der ersten Abbildung mit einem Beleuchtungsobjektiv (1) zu einem Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) geformt werden und ein zum Konvergenz punkt (K1) optisch konjugierter Punkt (K1konj) in den Objektraum in das Zentrum der Pupille (PZOA) des Abbildungsstrahlenganges im Objektraum abgebildet wird
und während des Verschiebungsvorganges von strukturiert leuchtendem Array und Empfänger-Array je weils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtendes Flächenelement konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche im Objektraum zumindest nähe rungsweise gemeinsam auf das Bild einer B-Strecke (BSAj) gebracht werden und so aus dem Bild von ei nem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj (3A) je weils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt werden.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß leuchtende Flächenelemente FEL und so auch leuchtende Flächenelemen te FEL mit lokalen Extrema der Leuchtdichte im Array-Raum auf Verschiebungsstrecken (VSBAj) verscho ben werden, die mit den B-Strecken (BSAj) koinzidieren, und die B-Strecken (BSAj) mittels einer zweistufi gen Abbildungsstufe abgebildet werden und
gleichzeitig die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays erfolgt und diese ausge lesen werden und so jeweils ein Signalwert gewonnen wird
und so jeweils ein leuchtendes Flächenelement FELj (3A) auf je einer B-Strecke (BSAj) positioniert wird, und die Bilder dieser B-Strecken (BSAj) nach der ersten Abbildung mit einem Beleuchtungsobjektiv (1) zu einem Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) geformt werden und ein zum Konvergenz punkt (K1) optisch konjugierter Punkt (K1konj) in den Objektraum in das Zentrum der Pupille (PZOA) des Abbildungsstrahlenganges im Objektraum abgebildet wird
und während des Verschiebungsvorganges von strukturiert leuchtendem Array und Empfänger-Array je weils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtendes Flächenelement konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche im Objektraum zumindest nähe rungsweise gemeinsam auf das Bild einer B-Strecke (BSAj) gebracht werden und so aus dem Bild von ei nem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj (3A) je weils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt werden.
27. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 26, gekennzeichnet dadurch, daß die B-Strecken (BSAj) mittels eines afokalen Beleuchtungsstrahlenganges mit einem inneren Brennpunkt (FBi) abgebildet werden und die Objektoberflächen mit einem afokalen Ab bildungsstrahlengang mit einem inneren Brennpunkt (FAi) abgebildet werden und im Objektraum der Brennpunkt des afokalen Beleuchtungsstrahlenganges und des afokalen Abbildungsstrahlenganges zu mindest näherungsweise zusammenfallen und
gleichzeitig die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays erfolgt und diese ausge lesen werden und so jeweils ein Signalwert gewonnen wird
und der Konvergenzpunkt (K1) in einem Abstand (dK1) von der optischen Achse des Beleuchtungsobjek tivs (1) positioniert wird, wobei der Abstand (dK1) dem halben Abstand vom inneren Brennpunkt (FBi) der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene (Fi) des Beleuchtungsstrahlenganges entspricht, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der nach außen gekehrten Seite der afokalen Abbildungsstufen zumin dest näherungsweise telezentrisch ausgeführt sind,
und so leuchtende Flächenelemente FEL und so auch die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung mit lokalen Extrema der Leuchtdichte zumindest annähernd parallel zu einer Gera den (gA) auf Verschiebungsstrecken (VSBAj) verschoben werden und die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs (1) und Abstand (dk1) realisiert wird, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs (2) bezogen ist, und
zumindest annähernd eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs (2) mit der gleichen Geschwindigkeit wie das leuchtende Array durchgeführt wird und bei der Verschiebung der beiden Arrays mehrfach nacheinander Signalwerte aus je einem einzelnen Element des Empfänger-Arrays ausgelesen werden und so je ein Signalverlauf aus einem einzelnen Ele ment gebildet wird und bei Abbildung mit einer Abbildungsstufe von mehrfach so erzeugten Verschie bungsstrecken von Elementen aus deren Bildern im Raum nach der Abbildungsstufe zumindest annä hernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im inneren Brennpunkt (FAi) des Abbildungsobjektivs (2) gebildet wird
und während des Verschiebungsvorganges von einem strukturiert leuchtendem Array und einem Emp fänger-Array jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise gemeinsam auf dem Bild (BSOj) einer B-Strecke (BSAj) zur Koinzidenz gebracht und gemeinsam verschoben werden und so aus dem Bild von einem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern verschoben werden.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 26, gekennzeichnet dadurch, daß die B-Strecken (BSAj) mittels eines afokalen Beleuchtungsstrahlenganges mit einem inneren Brennpunkt (FBi) abgebildet werden und die Objektoberflächen mit einem afokalen Ab bildungsstrahlengang mit einem inneren Brennpunkt (FAi) abgebildet werden und im Objektraum der Brennpunkt des afokalen Beleuchtungsstrahlenganges und des afokalen Abbildungsstrahlenganges zu mindest näherungsweise zusammenfallen und
gleichzeitig die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays erfolgt und diese ausge lesen werden und so jeweils ein Signalwert gewonnen wird
und der Konvergenzpunkt (K1) in einem Abstand (dK1) von der optischen Achse des Beleuchtungsobjek tivs (1) positioniert wird, wobei der Abstand (dK1) dem halben Abstand vom inneren Brennpunkt (FBi) der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene (Fi) des Beleuchtungsstrahlenganges entspricht, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der nach außen gekehrten Seite der afokalen Abbildungsstufen zumin dest näherungsweise telezentrisch ausgeführt sind,
und so leuchtende Flächenelemente FEL und so auch die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung mit lokalen Extrema der Leuchtdichte zumindest annähernd parallel zu einer Gera den (gA) auf Verschiebungsstrecken (VSBAj) verschoben werden und die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs (1) und Abstand (dk1) realisiert wird, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs (2) bezogen ist, und
zumindest annähernd eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs (2) mit der gleichen Geschwindigkeit wie das leuchtende Array durchgeführt wird und bei der Verschiebung der beiden Arrays mehrfach nacheinander Signalwerte aus je einem einzelnen Element des Empfänger-Arrays ausgelesen werden und so je ein Signalverlauf aus einem einzelnen Ele ment gebildet wird und bei Abbildung mit einer Abbildungsstufe von mehrfach so erzeugten Verschie bungsstrecken von Elementen aus deren Bildern im Raum nach der Abbildungsstufe zumindest annä hernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im inneren Brennpunkt (FAi) des Abbildungsobjektivs (2) gebildet wird
und während des Verschiebungsvorganges von einem strukturiert leuchtendem Array und einem Emp fänger-Array jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise gemeinsam auf dem Bild (BSOj) einer B-Strecke (BSAj) zur Koinzidenz gebracht und gemeinsam verschoben werden und so aus dem Bild von einem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern verschoben werden.
28. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5, 18, 19) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß die Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagneti sche Strahlung von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detek tieren und
zwei Empfänger-Arrays, die zur Aufnahme der strukturiert beleuchteten Objektoberflächen in einer Szene im Objektraum verwendet werden, beim Aufnahmevorgang gleichzeitig im Array-Raum auf Verschie bungsstrecken (ASA1) und (ASA2) verschoben werden, die einen Winkel zueinander aufweisen,
wobei für die 3D-Aufnahme des Hintergrundes der Szene mindestens zwei Abbildungsstrahlengänge für die Abbildung der Objektoberflächen (5, 18, 19) mit einem ersten Abbildungsobjektiv (2) im ersten Abbil dungsstrahlengang und einem zweiten Abbildungsobjektiv (33) im zweiten Abbildungsstrahlengang ange ordnet sind, wobei die Abbildungsobjektive (2, 33) räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv (2, 33) mindestens je ein Empfänger-Array mit Elementen oder einem Bild des selben zugeordnet ist und die Brennebenen der Abbildungsstrahlengänge im Objektraum sich schneiden, wobei die Schnittgerade (SG) senkrecht auf der Symmetrielinie (SL) im Hauptschnitt steht,
und die Bilder der Verschiebungsstrecken (ASA1) und (ASA2), die Strecken (ASO1) und (ASO2), annähernd auf der Symmetrielinie zwischen den beiden Achsen der Objektive (2), (33) zur Konvergenz gebracht werden und dort in einem Koinzidenzpunkt (K0) konvergieren und
im Konvergenzpunkt (K0) das Streckenbüschel (S21) der Bilder der Verschiebungsstrecken (ASA1j) der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken (ASO1j), mit dem Konvergenzpunkt (K21) und das Streckenbüschel (S22) der Bilder der Verschiebungsstrecken (ASA2j) der einzelnen Elementes des zweiten Empfänger-Arrays, der Strecken (AS2Oj), mit dem Konvergenzpunkt (K22) zur Koinzidenz ge bracht werden und
die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfän ger-Arrays im Objektraum für den Zeitbereich (ΔtB) paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemente der beiden Empfänger-Arrays jeweils korrespondie rende Elemente darstellen, und
Signalverläufe (S1) des ersten Empfänger-Arrays durch Auslesen von je einem Element während der Ver schiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke (ASA1j) gebildet werden und die Verschiebung des ersten Empfänger-Arrays parallel zu einer Geraden (gA1P) durchgeführt wird und so die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA1P) auf Ver schiebungsstrecken (ASA1j) verschoben werden
und Signalverläufe (S2) des zweiten Empfänger-Arrays durch Auslesen von je einem Element während der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke (ASA2j) gebildet werden und
die Verschiebung des zweiten Empfänger-Arrays gleichzeitig mit der des ersten Empfänger-Arrays erfolgt und
die Verschiebung des zweiten Empfänger-Arrays parallel zu einer Geraden (gA2P) durchgeführt wird und so die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA2P) auf Verschiebungsstrecken (ASA2j) verschoben werden
und die Gerade (gA1P) in einem Punkt (PA1) in der Hauptebene des Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) in der Hauptebene des Abbildungsobjektivs (33) zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum enthalten,
wobei der Punkt (PA1) im Durchstoßpunkt einer Geraden durch die Hauptebene des ersten Abbildungsob jektivs (2) im Array-Raum liegt, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koin zidenzpunkt K0 enthält und wobei der Punkt (PA2) im Durchstoßpunkt einer Geraden durch die Hauptebe ne des zweiten Abbildungsobjektivs (33) im Array-Raum liegt, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält und
aus den beiden Signalverläufen (S1j) und (S2j) von zwei korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Emp fänger-Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (S1j) und (S2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent spricht, über jeden dieser beiden Signalverläufe (S1j) und (S2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (S1 teil Position k j) und (S2 teil Position k j) gebildet wird,
wobei diese nacheinander gebildeten Signalstücke (S1 teil j Position k j) und (S2 teil j Position k j) sich in jedem der beiden Signalverläufe (S1j) und (S2j) zumindestens in einem Teilbereich überdecken und wobei jeweils am gleichen Ende der beiden Signalverläufe (S1j) und (S2j) mit dem Verschieben der Fensterfunktion in bei den Signalstücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (S1 teil Position 1 j) und (S2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (S2 Teil Position 1 INV j) das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Ver schieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (S1j, S2j) in der Position m angekommen ist und wiederum das Maximum (MCC1 2 j Position m) der Kreuzkor relationsfunktion M(CC1 2 j Position m) bestimmt wird und
von m berechneten Maxima (MCCm) eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mm j) bestimmt wird und der Ort des Maxi mums (Mm j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Ver schiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (M1 j) der berechneten Kreuzkorrelationsfunktion (MCC1 2 j Position 1) den beiden originalen Si gnalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mj) als Ort des zu den beiden korrespondierenden Elementen (1j) und (2j) zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array- Raum definiert wird
und aus dem Ort dieses Maximums (Mj) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5, 18, 19) aus der bekann ten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen ei ner Objektoberfläche (5, 18, 19), von welchen Signalverläufe aufgenommen werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfän ger-Arrays vorbestimmt sind.
von mindestens einer Objektoberfläche (5, 18, 19) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß die Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagneti sche Strahlung von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detek tieren und
zwei Empfänger-Arrays, die zur Aufnahme der strukturiert beleuchteten Objektoberflächen in einer Szene im Objektraum verwendet werden, beim Aufnahmevorgang gleichzeitig im Array-Raum auf Verschie bungsstrecken (ASA1) und (ASA2) verschoben werden, die einen Winkel zueinander aufweisen,
wobei für die 3D-Aufnahme des Hintergrundes der Szene mindestens zwei Abbildungsstrahlengänge für die Abbildung der Objektoberflächen (5, 18, 19) mit einem ersten Abbildungsobjektiv (2) im ersten Abbil dungsstrahlengang und einem zweiten Abbildungsobjektiv (33) im zweiten Abbildungsstrahlengang ange ordnet sind, wobei die Abbildungsobjektive (2, 33) räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv (2, 33) mindestens je ein Empfänger-Array mit Elementen oder einem Bild des selben zugeordnet ist und die Brennebenen der Abbildungsstrahlengänge im Objektraum sich schneiden, wobei die Schnittgerade (SG) senkrecht auf der Symmetrielinie (SL) im Hauptschnitt steht,
und die Bilder der Verschiebungsstrecken (ASA1) und (ASA2), die Strecken (ASO1) und (ASO2), annähernd auf der Symmetrielinie zwischen den beiden Achsen der Objektive (2), (33) zur Konvergenz gebracht werden und dort in einem Koinzidenzpunkt (K0) konvergieren und
im Konvergenzpunkt (K0) das Streckenbüschel (S21) der Bilder der Verschiebungsstrecken (ASA1j) der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken (ASO1j), mit dem Konvergenzpunkt (K21) und das Streckenbüschel (S22) der Bilder der Verschiebungsstrecken (ASA2j) der einzelnen Elementes des zweiten Empfänger-Arrays, der Strecken (AS2Oj), mit dem Konvergenzpunkt (K22) zur Koinzidenz ge bracht werden und
die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfän ger-Arrays im Objektraum für den Zeitbereich (ΔtB) paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemente der beiden Empfänger-Arrays jeweils korrespondie rende Elemente darstellen, und
Signalverläufe (S1) des ersten Empfänger-Arrays durch Auslesen von je einem Element während der Ver schiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke (ASA1j) gebildet werden und die Verschiebung des ersten Empfänger-Arrays parallel zu einer Geraden (gA1P) durchgeführt wird und so die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA1P) auf Ver schiebungsstrecken (ASA1j) verschoben werden
und Signalverläufe (S2) des zweiten Empfänger-Arrays durch Auslesen von je einem Element während der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke (ASA2j) gebildet werden und
die Verschiebung des zweiten Empfänger-Arrays gleichzeitig mit der des ersten Empfänger-Arrays erfolgt und
die Verschiebung des zweiten Empfänger-Arrays parallel zu einer Geraden (gA2P) durchgeführt wird und so die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA2P) auf Verschiebungsstrecken (ASA2j) verschoben werden
und die Gerade (gA1P) in einem Punkt (PA1) in der Hauptebene des Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) in der Hauptebene des Abbildungsobjektivs (33) zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum enthalten,
wobei der Punkt (PA1) im Durchstoßpunkt einer Geraden durch die Hauptebene des ersten Abbildungsob jektivs (2) im Array-Raum liegt, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koin zidenzpunkt K0 enthält und wobei der Punkt (PA2) im Durchstoßpunkt einer Geraden durch die Hauptebe ne des zweiten Abbildungsobjektivs (33) im Array-Raum liegt, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält und
aus den beiden Signalverläufen (S1j) und (S2j) von zwei korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Emp fänger-Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (S1j) und (S2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent spricht, über jeden dieser beiden Signalverläufe (S1j) und (S2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (S1 teil Position k j) und (S2 teil Position k j) gebildet wird,
wobei diese nacheinander gebildeten Signalstücke (S1 teil j Position k j) und (S2 teil j Position k j) sich in jedem der beiden Signalverläufe (S1j) und (S2j) zumindestens in einem Teilbereich überdecken und wobei jeweils am gleichen Ende der beiden Signalverläufe (S1j) und (S2j) mit dem Verschieben der Fensterfunktion in bei den Signalstücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (S1 teil Position 1 j) und (S2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (S2 Teil Position 1 INV j) das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Ver schieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (S1j, S2j) in der Position m angekommen ist und wiederum das Maximum (MCC1 2 j Position m) der Kreuzkor relationsfunktion M(CC1 2 j Position m) bestimmt wird und
von m berechneten Maxima (MCCm) eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mm j) bestimmt wird und der Ort des Maxi mums (Mm j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Ver schiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (M1 j) der berechneten Kreuzkorrelationsfunktion (MCC1 2 j Position 1) den beiden originalen Si gnalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mj) als Ort des zu den beiden korrespondierenden Elementen (1j) und (2j) zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array- Raum definiert wird
und aus dem Ort dieses Maximums (Mj) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5, 18, 19) aus der bekann ten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen ei ner Objektoberfläche (5, 18, 19), von welchen Signalverläufe aufgenommen werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfän ger-Arrays vorbestimmt sind.
29. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 28,
gekennzeichnet dadurch, daß die Gerade (gA1P) in einem Punkt (PA) in der Hauptebene des Abbildungsob
jektivs (2) und im Durchstoßpunkt der Symmetrielinie (SL) im Array-Raum und die Gerade (gA2P) im glei
chen Punkt (PA) zum Schnitt gebracht werden, wobei die optischen Achsen der beiden Abbildungsstrah
lengänge parallel angeordnet sind, und die Gerade (gA1P) zusätzlich den Brennpunkt (FA1) des ersten
Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Ar
ray-Raum enthalten.
30. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß die Empfängerelemente im Aufnahmevorgang elektromagnetische Strah lung von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und beim Aufnahmevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu jeweiligen optischen Ach sen der parallelen Abbildungsobjektive (2, 33), deren Hauptebenen zusammenfallen, verschoben werden,
wobei für die 3D-Aufnahme von Objektoberflächen im Hintergrundes in der Szene mindestens zwei paral lele, zumindest näherungsweise baugleiche Abbildungsstrahlengänge für die Abbildung der Objektober flächen (5, 18, 19) mit einem ersten Abbildungsobjektiv (2) im ersten Abbildungsstrahlengang und einem zweiten Abbildungsobjektiv (33) im zweiten Abbildungsstrahlengang angeordnet sind und die Abbildungs objektive (2, 33) räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv (2, 33) mindestens je ein Empfänger-Array mit Elementen oder ein Bildes desselben zugeordnet ist,
und der Signalverlauf (S1z) durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß es dem bei einer realen Verschiebung parallel zu einer Geraden (gA1P) entstehenden Signalverlauf (S1) zu mindest annähernd entspricht,
und der Signalverlauf (S2z) durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß die ser Signalverlauf (S2z) dem bei einer realen Verschiebung parallel zu einer Geraden (gA2P) entstehenden Signalverlauf (S2) zumindest annähernd entspricht
und die Gerade (gA1P) in einem Punkt (PA) in der Hauptebene des ersten Abbildungsobjektivs (2) im Array- Raum und die Gerade (gA2P) im gleichen Punkt (PA) in der Hauptebene des zweiten Abbildungsobjektivs (33), die mit der Hauptebene des ersten Abbildungsobjektivs (2) zumindest näherungsweise zusammen fällt, zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Ab bildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array- Raum enthalten
und Verschiebungen der leuchtenden Flächenelemente FEL durchgeführt werden,
wobei die zugehörigen Verschiebungsstrecken (VSBAj) parallel zur Symmetrielinie (SL) der beiden opti schen Achsen ausgerichtet sind und der Punkt (PA) im Durchstoßpunkt der Symmetrielinie (SL) durch die zusammenfallenden Hauptebenen der beiden Abbildungsobjektive liegt, und
aus den Bildern der Verschiebungsstrecken (VSBAj) ein Streckenbüschel (SB1) mit einem Konvergenz punkt (K1) auf der Symmetrielinie (SL) gebildet wird, der mit dem Konvergenzpunkt (K0) zusammenfällt.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß die Empfängerelemente im Aufnahmevorgang elektromagnetische Strah lung von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und beim Aufnahmevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu jeweiligen optischen Ach sen der parallelen Abbildungsobjektive (2, 33), deren Hauptebenen zusammenfallen, verschoben werden,
wobei für die 3D-Aufnahme von Objektoberflächen im Hintergrundes in der Szene mindestens zwei paral lele, zumindest näherungsweise baugleiche Abbildungsstrahlengänge für die Abbildung der Objektober flächen (5, 18, 19) mit einem ersten Abbildungsobjektiv (2) im ersten Abbildungsstrahlengang und einem zweiten Abbildungsobjektiv (33) im zweiten Abbildungsstrahlengang angeordnet sind und die Abbildungs objektive (2, 33) räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv (2, 33) mindestens je ein Empfänger-Array mit Elementen oder ein Bildes desselben zugeordnet ist,
und der Signalverlauf (S1z) durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß es dem bei einer realen Verschiebung parallel zu einer Geraden (gA1P) entstehenden Signalverlauf (S1) zu mindest annähernd entspricht,
und der Signalverlauf (S2z) durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß die ser Signalverlauf (S2z) dem bei einer realen Verschiebung parallel zu einer Geraden (gA2P) entstehenden Signalverlauf (S2) zumindest annähernd entspricht
und die Gerade (gA1P) in einem Punkt (PA) in der Hauptebene des ersten Abbildungsobjektivs (2) im Array- Raum und die Gerade (gA2P) im gleichen Punkt (PA) in der Hauptebene des zweiten Abbildungsobjektivs (33), die mit der Hauptebene des ersten Abbildungsobjektivs (2) zumindest näherungsweise zusammen fällt, zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Ab bildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array- Raum enthalten
und Verschiebungen der leuchtenden Flächenelemente FEL durchgeführt werden,
wobei die zugehörigen Verschiebungsstrecken (VSBAj) parallel zur Symmetrielinie (SL) der beiden opti schen Achsen ausgerichtet sind und der Punkt (PA) im Durchstoßpunkt der Symmetrielinie (SL) durch die zusammenfallenden Hauptebenen der beiden Abbildungsobjektive liegt, und
aus den Bildern der Verschiebungsstrecken (VSBAj) ein Streckenbüschel (SB1) mit einem Konvergenz punkt (K1) auf der Symmetrielinie (SL) gebildet wird, der mit dem Konvergenzpunkt (K0) zusammenfällt.
31. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung die leuchtenden Flächenelemente FEL relativ zum Beleuchtungsobjektiv (1) verschoben werden und da bei zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) stets auf einer B-Strecke (BSAj) positioniert werden, wobei die B-Strecken die Sollorte für die leuchtenden Flächenelemente FEL zumin dest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) darstellen und die B-Strecken die Achse des Beleuchtungsobjektivs stets unter einem rechten Winkel schneiden,
und zumindest in einem Zeitbereich (ΔtB) während des Verschiebungsvorganges der leuchtenden Flä chenelemente jeweils genau ein Bild von einem feststehenden Element eines feststehenden Empfängers und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem einzigen Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) der Detektion zumindest nähe rungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumindest zu die sem Zeitpunkt (ti) aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flä chenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird
und der Zeitpunkt ti für mindestens ein Element eines Empfänger-Arrays aus dem Durchgang mindestens eines leuchtenden Flächenelementes durch einen vorbestimmten Referenzort abgeleitet wird
und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen periodischen Signalver lauf detektieren und die Phase dieses Signalverlaufes in Bezug zur Phase am Referenzort ausgewertet wird.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung die leuchtenden Flächenelemente FEL relativ zum Beleuchtungsobjektiv (1) verschoben werden und da bei zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) stets auf einer B-Strecke (BSAj) positioniert werden, wobei die B-Strecken die Sollorte für die leuchtenden Flächenelemente FEL zumin dest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) darstellen und die B-Strecken die Achse des Beleuchtungsobjektivs stets unter einem rechten Winkel schneiden,
und zumindest in einem Zeitbereich (ΔtB) während des Verschiebungsvorganges der leuchtenden Flä chenelemente jeweils genau ein Bild von einem feststehenden Element eines feststehenden Empfängers und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem einzigen Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) der Detektion zumindest nähe rungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumindest zu die sem Zeitpunkt (ti) aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flä chenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird
und der Zeitpunkt ti für mindestens ein Element eines Empfänger-Arrays aus dem Durchgang mindestens eines leuchtenden Flächenelementes durch einen vorbestimmten Referenzort abgeleitet wird
und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen periodischen Signalver lauf detektieren und die Phase dieses Signalverlaufes in Bezug zur Phase am Referenzort ausgewertet wird.
32. Verfahren zur 3D-Aufnahme
mit mindestens einer von einer Strahlungsquelle (4) beleuchteten Objektoberfläche (5) in mindestens ei ner Szene mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse ei nes ersten Abbildungsobjektivs (2) für die Abbildung der Objektoberflächen (5, 18, 19) parallel zur Achse eines zweiten Abbildungsobjektivs (33) für die Abbildung der Objektoberflächen (5, 18, 19) ausgerichtet ist, und so zwischen den beiden Achsen der beiden Abbildungsobjektive (2, 33) eine Symmetrielinie (SL) gebildet ist,
und mit mindestens je einem in jedem Abbildungsstrahlengang dem Abbildungsobjektiv zugeordneten Empfänger-Array und die beiden Empfänger-Arrays jeweils Elemente aufweisen, die im Aufnahmevor gang im Zeitbereich (ΔtB) elektromagnetische Strahlung von den Elementen der beleuchteten Objekt oberflächen im Objektraum detektieren, und
die beiden Abbildungsobjektive (2, 33) mindestens einen Abstand (d) von einem Achtel der Ausdehnung der Öffnungsblende (DB) des ersten Abbildungsobjektivs (2) aufweisen,
und die beiden Empfänger-Arrays im Aufnahmevorgang im Zeitbereich (ΔtB) je eine Verschiebung an ei nen anderen Ort erfahren und so auch die einzelnen Elemente der beiden Empfänger-Arrays verschoben werden und so die Empfängerelemente dabei an unterschiedlichen Orten elektromagnetische Strahlung detektieren und
zumindest näherungsweise die Detektion von elektromagnetischer Strahlung von den Elementen der Ob jektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays gleich zeitig erfolgt und die Elemente des Empfänger-Arrays anschließend ausgelesen werden und jeweils Signalwerte gewonnen werden,
gekennzeichnet dadurch, daß die Objektoberflächen in einer Szene beleuchtet werden und beim Aufnah mevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der Abbildungsstrahlengänge, deren Brennebenen im Objektraum zusammenfallen auf Verschiebungsstrec ken (ASA1) und (ASA2) verschoben werden
und die Bilder der Verschiebungsstrecken (ASA1) und (ASA2), die Strecken (ASO1) und (ASO1), im Ob jektraum zumindest annähernd auf der Symmetrielinie zwischen den beiden Achsen der Objektive (2), (33) positioniert werden
und aus dem Streckenbüschel (SB21) der Bilder der Verschiebungsstrecken (ASA1j) der einzelnen Ele mentes des ersten Empfänger-Arrays, die Strecken (ASO1j), ein Konvergenzpunkt (K21) gebildet wird und aus dem Streckenbüschel (SB22) der Bilder der Verschiebungsstrecken (ASA2j) der einzelnen Elementes des zweiten Empfänger-Arrays, die Strecken (ASO2j), ein Konvergenzpunkt (K22) gebildet wird und der Konvergenzpunkt (K22) und der Konvergenzpunkt (K22) auf der Symmetrielinie (SL) zur Koinzidenz ge bracht werden und auf der Symmetrielinie (SL) den Konvergenzpunkt (K0) bilden und
die beiden Empfänger-Arrays so verschoben werden, daß deren Bilder zumindest teilweise im Objektraum zusammenfallen,
so daß die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfänger-Arrays im Objektraum paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemente der beiden Empfänger-Arrays jeweils korrespondierende Elemente darstellen, und so jeweils ein aktueller Koinzidenzpunkt gebildet wird, der durch den Objektraum verscho ben wird, und
Signalverläufe (S1) des ersten Empfänger-Arrays durch Auslesen der Elemente während der Verschie bung des ersten Empfänger-Arrays auf der Verschiebungsstrecke (ASA1j) gebildet werden und die Ver schiebung des ersten Empfänger-Arrays parallel zu einer Geraden (gA1P) durchgeführt wird und so die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA1P) auf Ver schiebungsstrecken (ASA1j) verschoben werden
und Signalverläufe (S2) des zweiten Empfänger-Arrays durch Auslesen der Elemente während der Ver schiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke (ASA2j) gebildet werden und die Verschiebung des zweiten Empfänger-Arrays parallel zu einer Geraden (gA2P) durchgeführt wird und so die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA2P) auf Verschiebungsstrecken (ASA2j) verschoben werden,
wobei die Verschiebung des zweiten Empfänger-Arrays zumindest näherungsweise gleichzeitig mit der des ersten Empfänger-Arrays erfolgt,
und die Gerade (gA1P) in einem Punkt (PA1) auf der Symmetrielinie (SL) und in der Hauptebene des ersten Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) auf der Symmetrieli nie (SL) und in der Hauptebene des zweiten Abbildungsobjektivs (33) zum Schnitt gebracht werden, wo bei die Gerade (gA1P) zusätzlich den Brennpunkt (FA1) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum enthalten, und
aus den beiden Signalverläufen (S1j) und (S2j) von zwei korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Emp fänger-Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (S1j) und (S2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent spricht,
über jeden dieser beiden Signalverläufe (S1j) und (S2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (S1 teil Position k j) und (S2 teil Position k j) gebildet wird,
wobei diese nacheinander gebildeten Signalstücke (S1 teil j Position k j) und (S2 teil j Position k j) sich in jedem der beiden Signalverläufe (S1j) und (S2j) in einem Teilbereich überdecken und wobei jeweils am gleichen En de der beiden Signalverläufe (S1j) und (S2j) mit dem Verschieben der Fensterfunktion in beiden Signal stücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (S1 teil Position 1 j) und (S2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (S2 Teil Position 1 INV j) das Maximum der Kreuzkorrelations funktion (MCC1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Verschieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (S1j, S2j) in der Position m angekommen ist und wiederum das Maximum (MCC1 2 j Position m) der Kreuzkor relationsfunktion M(CC1 2 j Position m) bestimmt wird und
von m berechneten Maxima (MCCm) eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mm j) bestimmt wird und der Ort des Maxi mums (Mm j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Ver schiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (M1 j) der berechneten Kreuzkorrelationsfunktion (MCC1 2 j Position 1) den beiden originalen Si gnalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mj) als Ort des zu den beiden korrespondierenden Elementen (1j) und (2j) zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array- Raum definiert wird
und aus dem Ort dieses Maximums (Mj) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5) aus der bekannten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen einer Objektoberfläche (5, 18, 19), denen Signalverläufe zugeordnet werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vor bestimmt sind.
mit mindestens einer von einer Strahlungsquelle (4) beleuchteten Objektoberfläche (5) in mindestens ei ner Szene mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse ei nes ersten Abbildungsobjektivs (2) für die Abbildung der Objektoberflächen (5, 18, 19) parallel zur Achse eines zweiten Abbildungsobjektivs (33) für die Abbildung der Objektoberflächen (5, 18, 19) ausgerichtet ist, und so zwischen den beiden Achsen der beiden Abbildungsobjektive (2, 33) eine Symmetrielinie (SL) gebildet ist,
und mit mindestens je einem in jedem Abbildungsstrahlengang dem Abbildungsobjektiv zugeordneten Empfänger-Array und die beiden Empfänger-Arrays jeweils Elemente aufweisen, die im Aufnahmevor gang im Zeitbereich (ΔtB) elektromagnetische Strahlung von den Elementen der beleuchteten Objekt oberflächen im Objektraum detektieren, und
die beiden Abbildungsobjektive (2, 33) mindestens einen Abstand (d) von einem Achtel der Ausdehnung der Öffnungsblende (DB) des ersten Abbildungsobjektivs (2) aufweisen,
und die beiden Empfänger-Arrays im Aufnahmevorgang im Zeitbereich (ΔtB) je eine Verschiebung an ei nen anderen Ort erfahren und so auch die einzelnen Elemente der beiden Empfänger-Arrays verschoben werden und so die Empfängerelemente dabei an unterschiedlichen Orten elektromagnetische Strahlung detektieren und
zumindest näherungsweise die Detektion von elektromagnetischer Strahlung von den Elementen der Ob jektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays gleich zeitig erfolgt und die Elemente des Empfänger-Arrays anschließend ausgelesen werden und jeweils Signalwerte gewonnen werden,
gekennzeichnet dadurch, daß die Objektoberflächen in einer Szene beleuchtet werden und beim Aufnah mevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der Abbildungsstrahlengänge, deren Brennebenen im Objektraum zusammenfallen auf Verschiebungsstrec ken (ASA1) und (ASA2) verschoben werden
und die Bilder der Verschiebungsstrecken (ASA1) und (ASA2), die Strecken (ASO1) und (ASO1), im Ob jektraum zumindest annähernd auf der Symmetrielinie zwischen den beiden Achsen der Objektive (2), (33) positioniert werden
und aus dem Streckenbüschel (SB21) der Bilder der Verschiebungsstrecken (ASA1j) der einzelnen Ele mentes des ersten Empfänger-Arrays, die Strecken (ASO1j), ein Konvergenzpunkt (K21) gebildet wird und aus dem Streckenbüschel (SB22) der Bilder der Verschiebungsstrecken (ASA2j) der einzelnen Elementes des zweiten Empfänger-Arrays, die Strecken (ASO2j), ein Konvergenzpunkt (K22) gebildet wird und der Konvergenzpunkt (K22) und der Konvergenzpunkt (K22) auf der Symmetrielinie (SL) zur Koinzidenz ge bracht werden und auf der Symmetrielinie (SL) den Konvergenzpunkt (K0) bilden und
die beiden Empfänger-Arrays so verschoben werden, daß deren Bilder zumindest teilweise im Objektraum zusammenfallen,
so daß die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfänger-Arrays im Objektraum paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemente der beiden Empfänger-Arrays jeweils korrespondierende Elemente darstellen, und so jeweils ein aktueller Koinzidenzpunkt gebildet wird, der durch den Objektraum verscho ben wird, und
Signalverläufe (S1) des ersten Empfänger-Arrays durch Auslesen der Elemente während der Verschie bung des ersten Empfänger-Arrays auf der Verschiebungsstrecke (ASA1j) gebildet werden und die Ver schiebung des ersten Empfänger-Arrays parallel zu einer Geraden (gA1P) durchgeführt wird und so die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA1P) auf Ver schiebungsstrecken (ASA1j) verschoben werden
und Signalverläufe (S2) des zweiten Empfänger-Arrays durch Auslesen der Elemente während der Ver schiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke (ASA2j) gebildet werden und die Verschiebung des zweiten Empfänger-Arrays parallel zu einer Geraden (gA2P) durchgeführt wird und so die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA2P) auf Verschiebungsstrecken (ASA2j) verschoben werden,
wobei die Verschiebung des zweiten Empfänger-Arrays zumindest näherungsweise gleichzeitig mit der des ersten Empfänger-Arrays erfolgt,
und die Gerade (gA1P) in einem Punkt (PA1) auf der Symmetrielinie (SL) und in der Hauptebene des ersten Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) auf der Symmetrieli nie (SL) und in der Hauptebene des zweiten Abbildungsobjektivs (33) zum Schnitt gebracht werden, wo bei die Gerade (gA1P) zusätzlich den Brennpunkt (FA1) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum enthalten, und
aus den beiden Signalverläufen (S1j) und (S2j) von zwei korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Emp fänger-Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (S1j) und (S2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent spricht,
über jeden dieser beiden Signalverläufe (S1j) und (S2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (S1 teil Position k j) und (S2 teil Position k j) gebildet wird,
wobei diese nacheinander gebildeten Signalstücke (S1 teil j Position k j) und (S2 teil j Position k j) sich in jedem der beiden Signalverläufe (S1j) und (S2j) in einem Teilbereich überdecken und wobei jeweils am gleichen En de der beiden Signalverläufe (S1j) und (S2j) mit dem Verschieben der Fensterfunktion in beiden Signal stücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (S1 teil Position 1 j) und (S2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (S2 Teil Position 1 INV j) das Maximum der Kreuzkorrelations funktion (MCC1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Verschieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (S1j, S2j) in der Position m angekommen ist und wiederum das Maximum (MCC1 2 j Position m) der Kreuzkor relationsfunktion M(CC1 2 j Position m) bestimmt wird und
von m berechneten Maxima (MCCm) eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mm j) bestimmt wird und der Ort des Maxi mums (Mm j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Ver schiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (M1 j) der berechneten Kreuzkorrelationsfunktion (MCC1 2 j Position 1) den beiden originalen Si gnalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mj) als Ort des zu den beiden korrespondierenden Elementen (1j) und (2j) zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array- Raum definiert wird
und aus dem Ort dieses Maximums (Mj) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5) aus der bekannten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen einer Objektoberfläche (5, 18, 19), denen Signalverläufe zugeordnet werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vor bestimmt sind.
33. Verfahren zur 3D-Aufnahme
von mindestens einer mit einer Strahlungsquelle (4) beleuchteten Objektoberfläche (5) in mindestens ei ner Szene mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse ei nes ersten Abbildungsobjektivs (2) im Abbildungsstrahlengang für die Abbildung der Objektoberflächen (5, 18, 19) parallel zur Achse eines zweiten Abbildungsobjektivs (33) im Abbildungsstrahlengang für die Abbildung der Objektoberflächen (5, 18, 19) ausgerichtet ist,
und so zwischen den beiden Achsen der beiden Abbildungsobjektive (2, 33) eine Symmetrielinie (SL) gebildet ist,
und mit mindestens je einem in jedem Abbildungsstrahlengang dem Abbildungsobjektiv zugeordneten Empfänger-Array und die beiden Empfänger-Arrays jeweils Elemente aufweisen, die im Aufnahmevor gang im Zeitbereich (ΔtB) elektromagnetische Strahlung von den Elementen der beleuchteten Objekt oberflächen im Objektraum detektieren, und
die beiden Abbildungsobjektive (2, 33) einen Abstand (d) des Pupillenzentrums (PZOB) des ersten Abbil dungsobjektivs (2) vom Pupillenzentrum (PZOA) des zweiten Abbildungsobjektivs (33) im Objektraum von mindestens einem Achtel der Ausdehnung der Öffnungsblende des ersten Abbildungsobjektiv (2) aufwei sen,
und die beiden Empfänger-Arrays im Aufnahmevorgang im Zeitbereich (ΔtB) je eine elektronisch gesteu erte, mechanische Verschiebung an einen anderen Ort erfahren,
und so auch die einzelnen Empfängerelemente verschoben werden und so die Empfängerelemente dabei an unterschiedlichen Orten elektromagnetische Strahlung detektieren und zumindest näherungsweise die Detektion von elektromagnetischer Strahlung von den Elementen der Ob jektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays gleich zeitig erfolgt und die Elemente des Empfänger-Arrays anschließend ausgelesen werden und jeweils Signalwerte gewonnen werden,
gekennzeichnet dadurch, daß beim Aufnahmevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der parallelen, zumindest näherungsweise baugleichen Abbildungs strahlengänge, deren Hauptebenen zusammenfallen, verschoben werden, wobei die Objektoberflächen in der Szene beleuchtet sind,
und der Signalverlauf (S1z) durch Auslesen von lateral nebeneinander liegenden Elementen des ersten Empfänger-Arrays während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung be nutzt werden die auf Strecken (ASA1) liegen, die parallel zu einer Geraden (gA1P) ausgerichtet sind und die den Punkt (PA1) in der gemeinsamen Hauptebene der Abbildungsobjektive (2, 33) schneidet,
und so der gebildete Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden (gA1P) entstehenden Signalverlauf (S1) zumindest annähernd entspricht, und so zumindestens jeweils zu einem Zeitpunkt ti in einem Zeitintervall Δti ein aktueller Koinzidenzpunkt gebildet wird, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektraumes gebildet wird, und
und der Signalverlauf (S2z) durch Auslesen von lateral nebeneinander liegenden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung be nutzt werden, die auf Strecken (ASA2), liegen, die parallel zu einer Geraden (gA2P) ausgerichtet sind und die den Punkt (PA2) in der gemeinsamen Hauptebene der Abbildungsobjektive (2, 33) schneidet,
und so der gebildete Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden (gA2P) entstehenden Signalverlauf (S2) zumindest annähernd entspricht,
und die Gerade (gA1P) in einem Punkt (PA1) im Durchstoßpunkt der Symmetrielinie (SL) durch die Haup tebene des ersten Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) im Durchstoßpunkt der Symmetrielinie (SL) durch die Hauptebene des zweiten Abbildungsobjektivs (33) zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Abbildungsob jektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum ent halten und
aus den beiden Signalverläufen (Sz1j) und (Sz2j) von zwei wechselnden korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die nur zu einem Zeitpunkt ti korrespondieren, wobei die Signalverläu fe (Sz1j) und (Sz2j) über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Empfänger- Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (Sz1j) und (Sz2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent spricht,
über jeden dieser beiden Signalverläufe (Sz1j) und (Sz2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (Sz1 teil Position k j) und (Sz2 teil Position k j) gebildet wird, wobei diese nachein ander gebildeten Signalstücke (Sz1 teil j Position k j) und (Sz2 teil j Position k j) sich in jedem der beiden Signalverläu fe (Sz1j) und (Sz2j) in einem Teilbereich überdecken und wobei jeweils am gleichen Ende der beiden Si gnalverläufe (Sz1j) und (Sz2j) mit dem Verschieben der Fensterfunktion in beiden Signalstücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (Sz1 teil Position 1 j) und (Sz2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (Sz2 Teil Position 1 INV j) das Maximum der Kreuzkorrelationsfunktion (MCCz1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Ver schieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCCz1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (Sz1j) und (Sz2j) in der Position m angekommen ist und wiederum das Maximum (MCCz1 2 j Position m) der Kreuzkorrelationsfunktion M(CCz1 2 j Position m) bestimmt wird und
von m berechneten Maxima MCCz m eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mz m j) bestimmt wird und der Ort des Ma ximums (Mz m j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (Mz 1 j) der berechneten Kreuzkorrelationsfunktion (MCCz 1 2 j Position 1) den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mz j) als Ort des Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array-Raum definiert wird
und aus dem Ort dieses Maximums (Mz j) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5) aus der bekannten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen einer Objektoberfläche (5, 18, 19), denen Signalverläufe zugeordnet werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vor bestimmt sind.
von mindestens einer mit einer Strahlungsquelle (4) beleuchteten Objektoberfläche (5) in mindestens ei ner Szene mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse ei nes ersten Abbildungsobjektivs (2) im Abbildungsstrahlengang für die Abbildung der Objektoberflächen (5, 18, 19) parallel zur Achse eines zweiten Abbildungsobjektivs (33) im Abbildungsstrahlengang für die Abbildung der Objektoberflächen (5, 18, 19) ausgerichtet ist,
und so zwischen den beiden Achsen der beiden Abbildungsobjektive (2, 33) eine Symmetrielinie (SL) gebildet ist,
und mit mindestens je einem in jedem Abbildungsstrahlengang dem Abbildungsobjektiv zugeordneten Empfänger-Array und die beiden Empfänger-Arrays jeweils Elemente aufweisen, die im Aufnahmevor gang im Zeitbereich (ΔtB) elektromagnetische Strahlung von den Elementen der beleuchteten Objekt oberflächen im Objektraum detektieren, und
die beiden Abbildungsobjektive (2, 33) einen Abstand (d) des Pupillenzentrums (PZOB) des ersten Abbil dungsobjektivs (2) vom Pupillenzentrum (PZOA) des zweiten Abbildungsobjektivs (33) im Objektraum von mindestens einem Achtel der Ausdehnung der Öffnungsblende des ersten Abbildungsobjektiv (2) aufwei sen,
und die beiden Empfänger-Arrays im Aufnahmevorgang im Zeitbereich (ΔtB) je eine elektronisch gesteu erte, mechanische Verschiebung an einen anderen Ort erfahren,
und so auch die einzelnen Empfängerelemente verschoben werden und so die Empfängerelemente dabei an unterschiedlichen Orten elektromagnetische Strahlung detektieren und zumindest näherungsweise die Detektion von elektromagnetischer Strahlung von den Elementen der Ob jektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays gleich zeitig erfolgt und die Elemente des Empfänger-Arrays anschließend ausgelesen werden und jeweils Signalwerte gewonnen werden,
gekennzeichnet dadurch, daß beim Aufnahmevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der parallelen, zumindest näherungsweise baugleichen Abbildungs strahlengänge, deren Hauptebenen zusammenfallen, verschoben werden, wobei die Objektoberflächen in der Szene beleuchtet sind,
und der Signalverlauf (S1z) durch Auslesen von lateral nebeneinander liegenden Elementen des ersten Empfänger-Arrays während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung be nutzt werden die auf Strecken (ASA1) liegen, die parallel zu einer Geraden (gA1P) ausgerichtet sind und die den Punkt (PA1) in der gemeinsamen Hauptebene der Abbildungsobjektive (2, 33) schneidet,
und so der gebildete Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden (gA1P) entstehenden Signalverlauf (S1) zumindest annähernd entspricht, und so zumindestens jeweils zu einem Zeitpunkt ti in einem Zeitintervall Δti ein aktueller Koinzidenzpunkt gebildet wird, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektraumes gebildet wird, und
und der Signalverlauf (S2z) durch Auslesen von lateral nebeneinander liegenden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung be nutzt werden, die auf Strecken (ASA2), liegen, die parallel zu einer Geraden (gA2P) ausgerichtet sind und die den Punkt (PA2) in der gemeinsamen Hauptebene der Abbildungsobjektive (2, 33) schneidet,
und so der gebildete Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden (gA2P) entstehenden Signalverlauf (S2) zumindest annähernd entspricht,
und die Gerade (gA1P) in einem Punkt (PA1) im Durchstoßpunkt der Symmetrielinie (SL) durch die Haup tebene des ersten Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) im Durchstoßpunkt der Symmetrielinie (SL) durch die Hauptebene des zweiten Abbildungsobjektivs (33) zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Abbildungsob jektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum ent halten und
aus den beiden Signalverläufen (Sz1j) und (Sz2j) von zwei wechselnden korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die nur zu einem Zeitpunkt ti korrespondieren, wobei die Signalverläu fe (Sz1j) und (Sz2j) über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Empfänger- Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (Sz1j) und (Sz2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent spricht,
über jeden dieser beiden Signalverläufe (Sz1j) und (Sz2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (Sz1 teil Position k j) und (Sz2 teil Position k j) gebildet wird, wobei diese nachein ander gebildeten Signalstücke (Sz1 teil j Position k j) und (Sz2 teil j Position k j) sich in jedem der beiden Signalverläu fe (Sz1j) und (Sz2j) in einem Teilbereich überdecken und wobei jeweils am gleichen Ende der beiden Si gnalverläufe (Sz1j) und (Sz2j) mit dem Verschieben der Fensterfunktion in beiden Signalstücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (Sz1 teil Position 1 j) und (Sz2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (Sz2 Teil Position 1 INV j) das Maximum der Kreuzkorrelationsfunktion (MCCz1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Ver schieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCCz1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (Sz1j) und (Sz2j) in der Position m angekommen ist und wiederum das Maximum (MCCz1 2 j Position m) der Kreuzkorrelationsfunktion M(CCz1 2 j Position m) bestimmt wird und
von m berechneten Maxima MCCz m eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mz m j) bestimmt wird und der Ort des Ma ximums (Mz m j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (Mz 1 j) der berechneten Kreuzkorrelationsfunktion (MCCz 1 2 j Position 1) den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mz j) als Ort des Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array-Raum definiert wird
und aus dem Ort dieses Maximums (Mz j) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5) aus der bekannten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen einer Objektoberfläche (5, 18, 19), denen Signalverläufe zugeordnet werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vor bestimmt sind.
34. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 29 bis 31, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen unterschiedlicher Leucht dichte und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flächenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode (WP) dem dreifachen Streifenabstand der einzelnen verschiedenfarbigen Flächenelemente entspricht,
und nach einem Zeitbereich, der zumindest näherungsweise dem Zeitbereich (ΔtB) entspricht, das struk turiert farbig leuchtende Array um den 1,5fachen Abstand der einzelnen farbigen Flächenelemente, dies entspricht der halben Wiederholungsperiode (WP) lateral weiterverschoben wird und Elemente des Emp fänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt werden.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 29 bis 31, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen unterschiedlicher Leucht dichte und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flächenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode (WP) dem dreifachen Streifenabstand der einzelnen verschiedenfarbigen Flächenelemente entspricht,
und nach einem Zeitbereich, der zumindest näherungsweise dem Zeitbereich (ΔtB) entspricht, das struk turiert farbig leuchtende Array um den 1,5fachen Abstand der einzelnen farbigen Flächenelemente, dies entspricht der halben Wiederholungsperiode (WP) lateral weiterverschoben wird und Elemente des Emp fänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt werden.
35. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 28 bis 31, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen unterschiedlicher Leucht dichte und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flächenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode (WP) dem dreifachen Streifenabstand der einzelnen, farbig leuchtenden Flächenelemente FEL entspricht,
und nach einem Zeitbereich (ΔtB), das strukturiert farbig leuchtende Array um den einfachen Abstand der einzelnen, farbig leuchtenden Flächenelemente FEL, welcher einem Drittel der Wiederholungsperiode (WP) entspricht, lateral weiterverschoben wird, wobei die Elemente des Empfänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 28 bis 31, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen unterschiedlicher Leucht dichte und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flächenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode (WP) dem dreifachen Streifenabstand der einzelnen, farbig leuchtenden Flächenelemente FEL entspricht,
und nach einem Zeitbereich (ΔtB), das strukturiert farbig leuchtende Array um den einfachen Abstand der einzelnen, farbig leuchtenden Flächenelemente FEL, welcher einem Drittel der Wiederholungsperiode (WP) entspricht, lateral weiterverschoben wird, wobei die Elemente des Empfänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.
36. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele mente FELj (3A) gebildet ist, wobei der Begriff Leuchten im Sinne des Abstrahlens von elektromagneti scher Strahlung verwendet wird,
mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Ar ray, einschließlich einem Bild desselben, zugeordneten Beleuchtungsobjektiv (1), welches eine effektive Öffnungsblende mit einer Ausdehnung (DB) und einem Blendenzentrum (BZB) aufweist, zur strukturierten Beleuchtung der Objektoberflächen (5) im Objektraum, der dem Szenenraum entspricht, und mit mindestens einem dem Beleuchtungsstrahlengang zugeordneten Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberfläche (5) mit mindestens einem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv (2, 33) zur Abbil dung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blendenzen trum (BZA) aufweist,
wobei Elemente des mindestens einem Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren,
und mit einem Abstand (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1), als Bild des Blendenzentrums (BZB) im Objektraum, vom Pupillenzentrum (PZOA) des Abbildungsobjektivs (2), als Bild des Blendenzentrums (BZA) im Objektraum, wobei der Abstand (d) mindestens ein Achtel der Ausdeh nung (DB) der Öffnungsblende des Beleuchtungsobjektivs (1) beträgt,
wobei leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung eine zumindest näherungsweise vorherbestimmte Leuchtdichte aufweisen und
wobei diese im weiteren als leuchtende Flächenelemente FEL bezeichnet werden, so daß durch die Ab bildung mit dem Beleuchtungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum gebildet ist,
gekennzeichnet dadurch, daß dem strukturiert leuchtenden Array ein Bewegungssystem mit mindestens einer beweglichen Komponente zugeordnet ist und zumindest aus der mechanischen Bewegung des strukturiert leuchtenden Arrays die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL im Array-Raum gebildet sind
und nach Abbildung dieser Verschiebungsstrecken (VSBAj) durch das Beleuchtungsobjektiv (1) in den Objektraum, deren Bild zumindest näherungsweise als mindestens ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) gebildet ist, und
der Konvergenzpunkt (K1) einen minimalen Abstand (dK1 mm) von der Achse des Beleuchtungsobjektivs (1) vom 16ten Teil und einen maximalen Abstand (dK1 max) vom 16fachen des Abstandes (d) aufweist.
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele mente FELj (3A) gebildet ist, wobei der Begriff Leuchten im Sinne des Abstrahlens von elektromagneti scher Strahlung verwendet wird,
mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Ar ray, einschließlich einem Bild desselben, zugeordneten Beleuchtungsobjektiv (1), welches eine effektive Öffnungsblende mit einer Ausdehnung (DB) und einem Blendenzentrum (BZB) aufweist, zur strukturierten Beleuchtung der Objektoberflächen (5) im Objektraum, der dem Szenenraum entspricht, und mit mindestens einem dem Beleuchtungsstrahlengang zugeordneten Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberfläche (5) mit mindestens einem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv (2, 33) zur Abbil dung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blendenzen trum (BZA) aufweist,
wobei Elemente des mindestens einem Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren,
und mit einem Abstand (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1), als Bild des Blendenzentrums (BZB) im Objektraum, vom Pupillenzentrum (PZOA) des Abbildungsobjektivs (2), als Bild des Blendenzentrums (BZA) im Objektraum, wobei der Abstand (d) mindestens ein Achtel der Ausdeh nung (DB) der Öffnungsblende des Beleuchtungsobjektivs (1) beträgt,
wobei leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung eine zumindest näherungsweise vorherbestimmte Leuchtdichte aufweisen und
wobei diese im weiteren als leuchtende Flächenelemente FEL bezeichnet werden, so daß durch die Ab bildung mit dem Beleuchtungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum gebildet ist,
gekennzeichnet dadurch, daß dem strukturiert leuchtenden Array ein Bewegungssystem mit mindestens einer beweglichen Komponente zugeordnet ist und zumindest aus der mechanischen Bewegung des strukturiert leuchtenden Arrays die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL im Array-Raum gebildet sind
und nach Abbildung dieser Verschiebungsstrecken (VSBAj) durch das Beleuchtungsobjektiv (1) in den Objektraum, deren Bild zumindest näherungsweise als mindestens ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) gebildet ist, und
der Konvergenzpunkt (K1) einen minimalen Abstand (dK1 mm) von der Achse des Beleuchtungsobjektivs (1) vom 16ten Teil und einen maximalen Abstand (dK1 max) vom 16fachen des Abstandes (d) aufweist.
37. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36,
gekennzeichnet dadurch, daß der Konvergenzpunkt (K1) zumindest annähernd in der Pupillenebene des
Beleuchtungsobjektivs (1) im Objektraum und im Pupillenzentrum des Abbildungsobjektivs (2) im Objek
traum positioniert ist.
38. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 und 37,
gekennzeichnet dadurch, daß die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL
im Array-Raum zumindest annähernd parallel angeordnet sind und so der Konvergenzpunkt (K1) zumin
dest annähernd in der Brennebene des Beleuchtungsobjektivs (1) im Objektraum und im Pupillenzentrum
des Abbildungsobjektivs (2) im Objektraum positioniert ist.
39. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 und 38,
gekennzeichnet dadurch, daß der Konvergenzpunkt (K1) zumindest annähernd in der Brennebene des
Beleuchtungsobjektivs (1) und im Brennpunkt des Abbildungsobjektivs (2) im Objektraum positioniert ist.
40. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 39, gekennzeichnet dadurch, daß das leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Linien und der Linienbreite ausgebildet ist, wobei die Linien senkrecht zum Hauptschnitt angeordnet sind,
und die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL und so auch der leuch tenden Flächenelemente FEL mit lokalen Extrema der Leuchtdichte im Array-Raum - als Resultat der me chanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des struktu riert leuchtenden Arrays im Array-Raum gebildet sind
und aus diesen Verschiebungsstrecken (VSBAj) im Array-Raum im Hauptschnitt und in jeder zum Haupt schnitt parallelen Schnittebene zumindest näherungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt (K1) gebildet ist und der Konvergenzpunkt (K1) einen minimalen Abstand (dK1 min) von der Achse des Beleuchtungsobjektivs (1) vom 16ten Teil des Abstandes (d) aufweist
und der Konvergenzpunkt (K1) einen maximalen Abstand (dK1 max) von der Achse des Beleuchtungsobjek tivs (1) vom 16fachen des Abstandes (d) aufweist und der Konvergenzpunkt (K1) zwischen Pupillenebene und Brennebenen des Beleuchtungsobjektivs im Objektraum angeordnet ist
und der Konvergenzpunkt (K1) des Streckenbüschels im Hauptschnitt im Pupillenzentrum (PZAA) des Abbildungsobjektivs (2) im Array-Raum angeordnet und die Konvergenzpunkte in den zum Hauptschnitt parallelen Schnitten gemeinsam mit dem Konvergenzpunkt (K1) des Hauptschnittes auf einer Geraden senkrecht zum Hauptschnitt angeordnet sind
und das Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) und das Pupillenzentrum (PZ0B) des Be leuchtungsobjektivs (1) im Objektraum gemeinsam auf einer Geraden angeordnet sind, welche senkrecht zur Achse des Beleuchtungsobjektivs (1) ausgerichtet ist
und bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil dungsobjektivs nur Elemente des Empfänger-Arrays ausgelesen werden und Signalverläufe gebildet wer 99999 00070 552 001000280000000200012000285739988800040 0002019919584 00004 99880 den und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke (ASAj) im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils mit einer Geraden senkrecht zum Hauptschnitt, die das Zentrum der Austrittspupille des Abbildungsobjektivs (2) enthält, zum Schnitt gebracht ist, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum im Hauptschnitt zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) gebildet ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 39, gekennzeichnet dadurch, daß das leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Linien und der Linienbreite ausgebildet ist, wobei die Linien senkrecht zum Hauptschnitt angeordnet sind,
und die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL und so auch der leuch tenden Flächenelemente FEL mit lokalen Extrema der Leuchtdichte im Array-Raum - als Resultat der me chanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des struktu riert leuchtenden Arrays im Array-Raum gebildet sind
und aus diesen Verschiebungsstrecken (VSBAj) im Array-Raum im Hauptschnitt und in jeder zum Haupt schnitt parallelen Schnittebene zumindest näherungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt (K1) gebildet ist und der Konvergenzpunkt (K1) einen minimalen Abstand (dK1 min) von der Achse des Beleuchtungsobjektivs (1) vom 16ten Teil des Abstandes (d) aufweist
und der Konvergenzpunkt (K1) einen maximalen Abstand (dK1 max) von der Achse des Beleuchtungsobjek tivs (1) vom 16fachen des Abstandes (d) aufweist und der Konvergenzpunkt (K1) zwischen Pupillenebene und Brennebenen des Beleuchtungsobjektivs im Objektraum angeordnet ist
und der Konvergenzpunkt (K1) des Streckenbüschels im Hauptschnitt im Pupillenzentrum (PZAA) des Abbildungsobjektivs (2) im Array-Raum angeordnet und die Konvergenzpunkte in den zum Hauptschnitt parallelen Schnitten gemeinsam mit dem Konvergenzpunkt (K1) des Hauptschnittes auf einer Geraden senkrecht zum Hauptschnitt angeordnet sind
und das Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) und das Pupillenzentrum (PZ0B) des Be leuchtungsobjektivs (1) im Objektraum gemeinsam auf einer Geraden angeordnet sind, welche senkrecht zur Achse des Beleuchtungsobjektivs (1) ausgerichtet ist
und bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil dungsobjektivs nur Elemente des Empfänger-Arrays ausgelesen werden und Signalverläufe gebildet wer 99999 00070 552 001000280000000200012000285739988800040 0002019919584 00004 99880 den und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke (ASAj) im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils mit einer Geraden senkrecht zum Hauptschnitt, die das Zentrum der Austrittspupille des Abbildungsobjektivs (2) enthält, zum Schnitt gebracht ist, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum im Hauptschnitt zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) gebildet ist.
41. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 40, gekennzeichnet dadurch, daß das leuchtende Array als elektronisch steuerbares Gitter ausgebildet ist und die Verschiebungsstrecken der Orte konstanter relativer Leuchtdichte der strukturierten, leuchtenden Flä che und so auch der Orte lokaler Extrema der Leuchtdichte im Array-Raum als Resultat der mechani schen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden Arrays im Array-Raum so ausgerichtet sind,
daß aus diesen Verschiebungsstrecken im Array-Raum zumindest näherungsweise mindestens ein Streckenbündel mit einem Konvergenzpunkt (KA1) gebildet ist, und der Konvergenzpunkt (KA1) des Strec kenbündels im Pupillenzentrum (PZAA) des Abbildungsobjektivs (2) im Array-Raum angeordnet ist und so der Konvergenzpunkt (K1) im Objektraum im Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) ange ordnet ist
und das Pupillenzentrum (PZ0A)des Abbildungsobjektivs (2) und das Pupillenzentrum (PZ0B) des Be leuchtungsobjektivs (1) im Objektraum gemeinsam auf einer Geraden angeordnet sind, welche senkrecht zur Achse des Beleuchtungsobjektivs (1) ausgerichtet ist,
und bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil dungsobjektivs nur die Elemente des Empfänger-Arrays ausgelesen werden und Signalverläufe gebildet werden und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungs strecke im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils das Zentrum der Aus trittspupille des Abbildungsobjektivs (2) schneidet, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsob jektivs (2) gebildet ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 40, gekennzeichnet dadurch, daß das leuchtende Array als elektronisch steuerbares Gitter ausgebildet ist und die Verschiebungsstrecken der Orte konstanter relativer Leuchtdichte der strukturierten, leuchtenden Flä che und so auch der Orte lokaler Extrema der Leuchtdichte im Array-Raum als Resultat der mechani schen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden Arrays im Array-Raum so ausgerichtet sind,
daß aus diesen Verschiebungsstrecken im Array-Raum zumindest näherungsweise mindestens ein Streckenbündel mit einem Konvergenzpunkt (KA1) gebildet ist, und der Konvergenzpunkt (KA1) des Strec kenbündels im Pupillenzentrum (PZAA) des Abbildungsobjektivs (2) im Array-Raum angeordnet ist und so der Konvergenzpunkt (K1) im Objektraum im Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) ange ordnet ist
und das Pupillenzentrum (PZ0A)des Abbildungsobjektivs (2) und das Pupillenzentrum (PZ0B) des Be leuchtungsobjektivs (1) im Objektraum gemeinsam auf einer Geraden angeordnet sind, welche senkrecht zur Achse des Beleuchtungsobjektivs (1) ausgerichtet ist,
und bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil dungsobjektivs nur die Elemente des Empfänger-Arrays ausgelesen werden und Signalverläufe gebildet werden und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungs strecke im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils das Zentrum der Aus trittspupille des Abbildungsobjektivs (2) schneidet, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsob jektivs (2) gebildet ist.
42. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 39,
gekennzeichnet dadurch, daß die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL
(3A), wobei die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung eine zumindest nähe
rungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte aufweisen, zumindest annähernd
parallel zu einer definierten Geraden (gAP) angeordnet sind und die Gerade (gAP) den Brennpunkt (FAB)
des Beleuchtungsobjektivs (1) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quoti
enten Abstand des Pupillenzentrums (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum von
der Achse des Beleuchtungsobjektivs (1) und Brennweite (fB) des Beleuchtungsobjektivs (1) aufweist, wo
bei dieser Anstieg der Geraden (gAP) auf die Achse des Beleuchtungsobjektivs (1) bezogen ist.
43. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 42, gekennzeichnet dadurch, daß eine Komponente des Bewegungssystems dem Empfänger-Array zugeord net ist und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke (AS) dessen Elemente Verschiebungsstrecken (ASAj) auf parallelen Geraden zugeordnet sind, wobei aus den Bildern (ASOj)dieser Strecken (ASAj) bei Abbildung durch das Abbildungsobjektiv (2) zumindest nä herungsweise mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Objektraum gebildet ist,
und der Konvergenzpunkt (K1) und der Konvergenzpunkt (K2) mit dem Brennpunkt (FOA) und dem Pupil lenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum zumindest annähernd zur Koin zidenz gebracht sind.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 42, gekennzeichnet dadurch, daß eine Komponente des Bewegungssystems dem Empfänger-Array zugeord net ist und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke (AS) dessen Elemente Verschiebungsstrecken (ASAj) auf parallelen Geraden zugeordnet sind, wobei aus den Bildern (ASOj)dieser Strecken (ASAj) bei Abbildung durch das Abbildungsobjektiv (2) zumindest nä herungsweise mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Objektraum gebildet ist,
und der Konvergenzpunkt (K1) und der Konvergenzpunkt (K2) mit dem Brennpunkt (FOA) und dem Pupil lenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum zumindest annähernd zur Koin zidenz gebracht sind.
44. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 43,
gekennzeichnet dadurch, daß die Achse des Beleuchtungsobjektivs (1) und die Achse des Abbildungsob
jektivs (2) parallel zueinander angeordnet sind und das Abbildungsobjektiv (2) auf der Seite des Raumes
der Arrays telezentrisch ausgeführt ist.
45. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 38 und 42 bis 44, gekennzeichnet dadurch, daß eine Komponente des Bewegungssystems dem Empfänger-Array zugeord net ist und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke (AS) dessen Elemente Verschiebungsstrecken (ASAj) auf parallelen Geraden zugeordnet sind, wobei aus den Bildern dieser Strecken bei Abbildung durch das Abbildungsobjektiv (2) zumindest näherungsweise mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Objektraum gebildet ist,
und der Konvergenzpunkt (K1) und der Konvergenzpunkt (K2) mit dem Brennpunkt (FOA) und dem Pupil lenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum zumindest annähernd zur Koin zidenz gebracht sind und das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sind
und die Achsen des Beleuchtungsobjektivs (1) und des Abbildungsobjektivs (2) parallel zueinander ange ordnet sind und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sind.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 38 und 42 bis 44, gekennzeichnet dadurch, daß eine Komponente des Bewegungssystems dem Empfänger-Array zugeord net ist und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke (AS) dessen Elemente Verschiebungsstrecken (ASAj) auf parallelen Geraden zugeordnet sind, wobei aus den Bildern dieser Strecken bei Abbildung durch das Abbildungsobjektiv (2) zumindest näherungsweise mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Objektraum gebildet ist,
und der Konvergenzpunkt (K1) und der Konvergenzpunkt (K2) mit dem Brennpunkt (FOA) und dem Pupil lenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum zumindest annähernd zur Koin zidenz gebracht sind und das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sind
und die Achsen des Beleuchtungsobjektivs (1) und des Abbildungsobjektivs (2) parallel zueinander ange ordnet sind und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sind.
46. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 45,
gekennzeichnet dadurch, daß die Komponenten des Bewegungssystem so angeordnet sind, daß im Ar
ray-Raum mit dem Brennpunkt (FAB) des Beleuchtungsobjektivs (1) als Bezugspunkt für das leuchtende
Array eine Gesamtbewegungsrichtung zumindest annähernd parallel zu einer Geraden (gA) im Array-
Raum realisiert ist, so daß die Elemente des strukturiert leuchtenden Arrays sich auf parallelen Geraden
zur Gerade (gA) bewegen und diese Gerade (gA) mit dem Brennpunkt (FAB) des Beleuchtungsobjektivs
(1) im Array-Raum zum Schnitt gebracht ist und den Anstieg mit dem Betrag aus dem Quotienten Brenn
weite (fB) des Beleuchtungsobjektivs (1) und Abstand (d) des Brennpunktes (FAA) des Abbildungsobjek
tivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) aufweist, wobei dieser Anstieg der
Geraden (gA) auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs (1) bezogen ist.
47. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 46,
gekennzeichnet dadurch, daß das Bewegungssystem aus zwei einzelnen Linearführungen aufgebaut ist
und die erste Linearführung dem Empfänger-Array zugeordnet ist und die Bewegungsrichtung dieser Li
nearführung zumindest annähernd parallel zur optischen Achse des Abbildungsobjektivs (2) justiert ist und
die zweite Linearführung der ersten Linearführung und dem strukturiert leuchtenden Array zugeordnet ist
und die Bewegungsrichtung der zweiten Linearführung zumindest annähernd senkrecht zur optischen
Achse des Beleuchtungsobjektivs (1) justiert ist, so daß als Resultat der linearer Einzelbewegungen der
beiden Linearführungen das strukturiert leuchtende Array zumindest annähernd parallel zur Geraden (gA)
bewegen.
48. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 44 bis 46,
gekennzeichnet dadurch, daß das Bewegungssystem, bestehend aus einer einzigen Linearführung (7) mit
einem Schlitten (8) und einer Basis (9), im Raum von strukturiert leuchtendem Array und Empfänger-Array
angeordnet ist und die Linearführung (7) wenigstens dem strukturiert leuchtenden Array fest zugeordnet
ist und die Bewegungsrichtung für das strukturiert leuchtende Array zumindest annähernd parallel zur Ge
raden (gA) im Array-Raum ausgerichtet ist.
49. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 46,
gekennzeichnet dadurch, daß das Bewegungssystem aus mindestens zwei einzelnen Linearführungen
aufgebaut ist und die erste Linearführung beweglichen Komponenten des Beleuchtungsobjektivs (1) zur
Innenfokussierung und beweglichen Komponenten des Abbildungsobjektivs (2) zur Innenfokussierung
fest zugeordnet ist und die zweite Linearführung dem strukturiert leuchtenden Array zur Bewegung senk
recht zur optischen Achse des Beleuchtungsobjektivs (1) fest zugeordnet ist.
50. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 44 bis 46,
gekennzeichnet dadurch, daß das Bewegungssystem aus einer Linearführung aufgebaut und diese dem
Empfänger-Array zugeordnet ist und die Bewegungsrichtung dieser Linearführung zumindest annähernd
parallel zur optischen Achse des Abbildungsobjektivs (2) angeordnet ist und ein rotatorischer Antrieb der
Linearführung zuordnet ist und das strukturiert leuchtende Array wiederum dem rotatorischen Antrieb zu
geordnet ist.
51. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 44 bis 46 und 50,
gekennzeichnet dadurch, daß das strukturiert leuchtende Array als Gitter mit einer spiralförmigen Figur
(30) als Archimedische Spirale mit mindestens einem Gang ausgebildet und drehbar angeordnet ist und
mindestens ein Ausschnitt des Gitters mit der spiralförmigen Figur (30) als strukturiertes Array benutzt
wird, wobei in Verbindung mit der Strahlungsquelle (4) (4, 16) das strukturiert leuchtende Array gebildet
ist, und die Drehachse des Gitters mit der spiralförmigen Figur (30) parallel zur Achse des Beleuchtungs
objektivs (1) angeordnet und außerdem ein rotatorischer Antriebsmotor dem Gitter mit der spiralförmigen
Figur (30) zugeordnet ist.
52. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 41 bis 49,
gekennzeichnet dadurch, daß das Abbildungsobjektiv (2) gemeinsam mit dem Empfänger-Array und den
zugeordneten Komponenten des Bewegungssystems um eine Achse, welche das Pupillenzentrum (PZOA)
der Pupille des Abbildungsobjektivs (2) durchstößt, im Objektraum drehbar angeordnet ist.
53. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 41 bis 49,
gekennzeichnet dadurch, daß das Beleuchtungsobjektiv (1) gemeinsam mit dem strukturiert leuchtenden
Array und den zugeordneten Komponenten des Bewegungssystems und der Strahlungsquelle (4) (4) um
eine Achse, welche das Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) durchstößt, im
Objektraum drehbar angeordnet ist.
54. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 53,
gekennzeichnet dadurch, daß das strukturiert leuchtende Array eine gerasterte Struktur mit äquidistanten
Abständen aufweist.
55. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 54,
gekennzeichnet dadurch, daß dem Liniengitter (3, 17) ein Gegengitter mit der gleichen Gitterkonstante
und ein Nullpunktgeber zugeordnet sind.
56. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 55,
gekennzeichnet dadurch, daß eine transparente optische Platte der 3D-Aufnahme-Anordnung als perma
nent verbleibende Referenzplatte in der Nahdistanz zugeordnet ist und auf mindestens einer der beiden
Flächen der optischen Platte eine schwach lichtstreuende Mikrostruktur aufgebracht ist.
57. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß der Beleuchtungsstrahlengang (71) mit einem afokalen System mit einem inneren Brennpunkt (FBi) aufgebaut ist und der Abbildungsstrahlengang (72) mit einem inneren Brenn punkt (FAi)
und im Objektraum der Brennpunkt des afokalen Beleuchtungsstrahlenganges (71) und der Brennpunkt des afokalen Abbildungsstrahlenganges (72) zumindest näherungsweise zusammenfallen und
der Konvergenzpunkt (K1) in einem Abstand (dK1) von der optischen Achse des Beleuchtungsobjektivs (1) angeordnet ist, wobei der Abstand (dK1) dem halben Abstand vom inneren Brennpunkt (FBi) der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges (72) durch die innere Brennebene (Fi) des Beleuchtungsstrahlenganges (71) entspricht, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der nach außen gekehrten Seite der afokalen Abbildungsstufen zumindest näherungsweise telezentrisch ausgeführt sind,
und das Bewegungssystem (7) mit mindestens einer beweglichen Komponente (8) so angeordnet ist, daß dessen Bewegungsrichtung zumindest annähernd parallel zu einer Geraden (gA) justiert ist und so leuch tende Flächenelemente FEL auf Verschiebungsstrecken (VSBAj) verschoben werden und
die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite (fB) des Beleuchtungsobjek tivs (1) und Abstand (dK1) realisiert ist, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs (2) bezogen ist, und
eine zur optischen Achse des Abbildungsobjektivs (2) zumindest annähernd parallele Verschiebung des Empfänger-Arrays besteht
und mindestens ein feststehender Umlenkspiegel dem Abbildungsobjektiv (2) zugeordnet ist und so strukturiert leuchtendes Array und Empfänger-Array in zueinander parallelen Ebenen liegen und so nur ein einziger z-Schlitten (8) für das strukturiert leuchtende Array und das Empfänger-Array angeordnet ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß der Beleuchtungsstrahlengang (71) mit einem afokalen System mit einem inneren Brennpunkt (FBi) aufgebaut ist und der Abbildungsstrahlengang (72) mit einem inneren Brenn punkt (FAi)
und im Objektraum der Brennpunkt des afokalen Beleuchtungsstrahlenganges (71) und der Brennpunkt des afokalen Abbildungsstrahlenganges (72) zumindest näherungsweise zusammenfallen und
der Konvergenzpunkt (K1) in einem Abstand (dK1) von der optischen Achse des Beleuchtungsobjektivs (1) angeordnet ist, wobei der Abstand (dK1) dem halben Abstand vom inneren Brennpunkt (FBi) der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges (72) durch die innere Brennebene (Fi) des Beleuchtungsstrahlenganges (71) entspricht, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der nach außen gekehrten Seite der afokalen Abbildungsstufen zumindest näherungsweise telezentrisch ausgeführt sind,
und das Bewegungssystem (7) mit mindestens einer beweglichen Komponente (8) so angeordnet ist, daß dessen Bewegungsrichtung zumindest annähernd parallel zu einer Geraden (gA) justiert ist und so leuch tende Flächenelemente FEL auf Verschiebungsstrecken (VSBAj) verschoben werden und
die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite (fB) des Beleuchtungsobjek tivs (1) und Abstand (dK1) realisiert ist, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs (2) bezogen ist, und
eine zur optischen Achse des Abbildungsobjektivs (2) zumindest annähernd parallele Verschiebung des Empfänger-Arrays besteht
und mindestens ein feststehender Umlenkspiegel dem Abbildungsobjektiv (2) zugeordnet ist und so strukturiert leuchtendes Array und Empfänger-Array in zueinander parallelen Ebenen liegen und so nur ein einziger z-Schlitten (8) für das strukturiert leuchtende Array und das Empfänger-Array angeordnet ist.
58. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß zwei verschiebbare Empfänger-Arrays in parallelen Abbildungsstrahlen gänge in einer gemeinsamen Ebene angeordnet sind, wobei die Verschiebung des ersten Empfänger- Arrays auf der Verschiebungstrecke (ASA1) und die Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungstrecke (ASA2) stattfindet, und sich die Verschiebungsstrecken (AS1) und die Verschie bungstrecke (ASA2) sich in einem Punkt (PA) in der zusammenfallenden array-seitigen Hauptebene schneiden, wobei sich die Elemente des ersten Empfänger-Arrays auf den Verschiebungsstrecken (ASA1j) und sich die Elemente des zweiten Empfänger-Arrays auf den Verschiebungsstrecken (ASA2j) bewegen und
der Koinzidenzpunkt (K21) der Bilder der Verschiebungsstrecken (ASA1j), die Strecken (ASO1j), des ersten Abbildungsstrahlenganges und
der Koinzidenzpunkt (K22) der Bilder der Verschiebungsstrecken (ASA2j), die Strecken (ASO2j), des zwei ten Abbildungsstrahlenganges Beleuchtungsstrahlenganges im Koinzidenzpunkt (KO) zusammenfallen
und zu den beiden parallelen Abbildungsstrahlengängen mittig und symmetrisch ein paralleler Beleuch tungsstrahlengang mit einem auf der Verschiebungsstrecke (VSAP) verschiebbaren strukturiert leuchten den Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet ist und das Beleuchtungsobjektiv mittig und symmetrisch angeordnet ist, also mit einer zu den beiden Abbildungs strahlengängen parallelen optische Achse, und dessen array-seitiger Hauptpunkt (HAB) mit dem Punkt (PA) zusammenfällt
und der objektseitige Brennpunkt (FOB) des Beleuchtungsstrahlenganges mit dem Koinzidenzpunkt (KO) zusammenfällt und ein strukturiert leuchtendes Array angeordnet ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß zwei verschiebbare Empfänger-Arrays in parallelen Abbildungsstrahlen gänge in einer gemeinsamen Ebene angeordnet sind, wobei die Verschiebung des ersten Empfänger- Arrays auf der Verschiebungstrecke (ASA1) und die Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungstrecke (ASA2) stattfindet, und sich die Verschiebungsstrecken (AS1) und die Verschie bungstrecke (ASA2) sich in einem Punkt (PA) in der zusammenfallenden array-seitigen Hauptebene schneiden, wobei sich die Elemente des ersten Empfänger-Arrays auf den Verschiebungsstrecken (ASA1j) und sich die Elemente des zweiten Empfänger-Arrays auf den Verschiebungsstrecken (ASA2j) bewegen und
der Koinzidenzpunkt (K21) der Bilder der Verschiebungsstrecken (ASA1j), die Strecken (ASO1j), des ersten Abbildungsstrahlenganges und
der Koinzidenzpunkt (K22) der Bilder der Verschiebungsstrecken (ASA2j), die Strecken (ASO2j), des zwei ten Abbildungsstrahlenganges Beleuchtungsstrahlenganges im Koinzidenzpunkt (KO) zusammenfallen
und zu den beiden parallelen Abbildungsstrahlengängen mittig und symmetrisch ein paralleler Beleuch tungsstrahlengang mit einem auf der Verschiebungsstrecke (VSAP) verschiebbaren strukturiert leuchten den Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet ist und das Beleuchtungsobjektiv mittig und symmetrisch angeordnet ist, also mit einer zu den beiden Abbildungs strahlengängen parallelen optische Achse, und dessen array-seitiger Hauptpunkt (HAB) mit dem Punkt (PA) zusammenfällt
und der objektseitige Brennpunkt (FOB) des Beleuchtungsstrahlenganges mit dem Koinzidenzpunkt (KO) zusammenfällt und ein strukturiert leuchtendes Array angeordnet ist.
59. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß zwei verschiebbare Empfänger-Arrays in parallelen Abbildungsstrahlen gänge in einer gemeinsamen Ebene angeordnet sind, wobei die Verschiebung des ersten Empfänger- Arrays auf einer Verschiebungstrecke parallel zur optischen Achse und die Verschiebung des zweiten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse stattfindet, und Elemente der beiden Empfänger-Arrays so ausgelesen werden und Signale gebildet werden, als ob sich die Emp fänger-Arrays auf Verschiebungsstrecken (ASA1) befinden würden und die Verschiebungstrecke (ASA2) sich in einem Punkt (PA) in der zusammenfallenden array-seitigen Hauptebene schneiden und
der Koinzidenzpunkt (K21) der Bilder der Verschiebungsstrecken (ASA1j), die Strecken (ASO1j), des er sten Abbildungsstrahlenganges und
der Koinzidenzpunkt (K22) der Bilder der Verschiebungsstrecken (ASA2j), die Strecken (ASO2j), des zwei ten Abbildungsstrahlenganges Beleuchtungsstrahlenganges im Koinzidenzpunkt (KO) zusammenfallen
und zu den beiden parallelen Abbildungsstrahlengängen mittig und symmetrisch ein paralleler Beleuch tungsstrahlengang mit einem auf der Verschiebungsstrecke (VSAP) verschiebbaren strukturiert leuchten den Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet ist und das Beleuchtungsobjektiv mittig und symmetrisch angeordnet ist, also mit einer zu den beiden Abbildungs strahlengängen parallelen optische Achse, und dessen array-seitiger Hauptpunkt (HAB) mit dem Punkt (DA) zusammenfällt
und der objektseitige Brennpunkt des Beleuchtungsstrahlenganges mit dem Koinzidenzpunkt (KO) zu sammenfällt und ein strukturiert leuchtendes Array angeordnet ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß zwei verschiebbare Empfänger-Arrays in parallelen Abbildungsstrahlen gänge in einer gemeinsamen Ebene angeordnet sind, wobei die Verschiebung des ersten Empfänger- Arrays auf einer Verschiebungstrecke parallel zur optischen Achse und die Verschiebung des zweiten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse stattfindet, und Elemente der beiden Empfänger-Arrays so ausgelesen werden und Signale gebildet werden, als ob sich die Emp fänger-Arrays auf Verschiebungsstrecken (ASA1) befinden würden und die Verschiebungstrecke (ASA2) sich in einem Punkt (PA) in der zusammenfallenden array-seitigen Hauptebene schneiden und
der Koinzidenzpunkt (K21) der Bilder der Verschiebungsstrecken (ASA1j), die Strecken (ASO1j), des er sten Abbildungsstrahlenganges und
der Koinzidenzpunkt (K22) der Bilder der Verschiebungsstrecken (ASA2j), die Strecken (ASO2j), des zwei ten Abbildungsstrahlenganges Beleuchtungsstrahlenganges im Koinzidenzpunkt (KO) zusammenfallen
und zu den beiden parallelen Abbildungsstrahlengängen mittig und symmetrisch ein paralleler Beleuch tungsstrahlengang mit einem auf der Verschiebungsstrecke (VSAP) verschiebbaren strukturiert leuchten den Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet ist und das Beleuchtungsobjektiv mittig und symmetrisch angeordnet ist, also mit einer zu den beiden Abbildungs strahlengängen parallelen optische Achse, und dessen array-seitiger Hauptpunkt (HAB) mit dem Punkt (DA) zusammenfällt
und der objektseitige Brennpunkt des Beleuchtungsstrahlenganges mit dem Koinzidenzpunkt (KO) zu sammenfällt und ein strukturiert leuchtendes Array angeordnet ist.
60. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 58 und 59, gekennzeichnet dadurch, daß die Abbildungsobjektive für die beiden Empfänger-Arrays und das leuch tende Array zumindest näherungsweise baugleich sind und deren Brennebenen im Objektraum koinzidie ren und
das strukturiert leuchtende Array mit leuchtenden Farbstreifen gebildet ist, die zumindest näherungsweise lückenlos aneinandergereiht sind, wobei das strukturiert Array aus transmittierenden Mikroelementen und aus reflektierenden Mikroelementen aufgebaut ist, und dem strukturierten Array eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet ist, wobei die elektromagnetische Strahlung minde stens einer Strahlungsquelle (4) das strukturierte Array in einer fokussierenden Struktur durchsetzt und die elektromagnetische Strahlung von mindestens zwei Strahlungsquelle (4)n auf Mikrospiegelelemente trifft
und die beiden Empfänger-Arrays und das strukturierten Array mit einem Bewegungssystem zur präzisen, synchronen Bewegung verbunden sind, wobei die optisch aktiven Ebenen der beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebe ne gehalten werden, wodurch die optisch konjugierten Ebenen im Objektraum koinzidieren.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 58 und 59, gekennzeichnet dadurch, daß die Abbildungsobjektive für die beiden Empfänger-Arrays und das leuch tende Array zumindest näherungsweise baugleich sind und deren Brennebenen im Objektraum koinzidie ren und
das strukturiert leuchtende Array mit leuchtenden Farbstreifen gebildet ist, die zumindest näherungsweise lückenlos aneinandergereiht sind, wobei das strukturiert Array aus transmittierenden Mikroelementen und aus reflektierenden Mikroelementen aufgebaut ist, und dem strukturierten Array eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet ist, wobei die elektromagnetische Strahlung minde stens einer Strahlungsquelle (4) das strukturierte Array in einer fokussierenden Struktur durchsetzt und die elektromagnetische Strahlung von mindestens zwei Strahlungsquelle (4)n auf Mikrospiegelelemente trifft
und die beiden Empfänger-Arrays und das strukturierten Array mit einem Bewegungssystem zur präzisen, synchronen Bewegung verbunden sind, wobei die optisch aktiven Ebenen der beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebe ne gehalten werden, wodurch die optisch konjugierten Ebenen im Objektraum koinzidieren.
61. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 und 60, gekennzeichnet dadurch, daß mindestens ein farbig leuchtendes Array als Gitter mit einem asymmetri schen Furchenprofil mit Dreieckprofilen, die Makro-Profilflächen aufweisen, und mit einer auf dem gesam ten Gitter zumindest näherungsweise gleichbleibenden Gitterkonstante zwischen 0,01 mm und 2 mm, die als Makro-Gitterkonstante bezeichnet wird, mit mindestens einer zugeordneten Strahlungsquelle (4) zur Beleuchtung gebildet ist,
so daß auf der Oberfläche des Gitters zumindest näherungsweise Dreieckprofile gebildet sind und auf den Makro-Profilflächen derselben jeweils zusätzlich ein Mikrofurchenprofil mit einer innerhalb einer Makro- Profilfläche veränderlichen Gitterkonstante des Mikrofurchenprofils und einer mittleren Mikro- Gitterkonstante desselben zwischen 0,0005 mm und 0,01 mm ausgebildet ist,
so daß für die einfallende elektromagnetische Strahlung eine fokussierende Wirkung verbunden mit einer Farbaufspaltung zumindest in die drei Farbbereiche blau grün rot gegeben ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 und 60, gekennzeichnet dadurch, daß mindestens ein farbig leuchtendes Array als Gitter mit einem asymmetri schen Furchenprofil mit Dreieckprofilen, die Makro-Profilflächen aufweisen, und mit einer auf dem gesam ten Gitter zumindest näherungsweise gleichbleibenden Gitterkonstante zwischen 0,01 mm und 2 mm, die als Makro-Gitterkonstante bezeichnet wird, mit mindestens einer zugeordneten Strahlungsquelle (4) zur Beleuchtung gebildet ist,
so daß auf der Oberfläche des Gitters zumindest näherungsweise Dreieckprofile gebildet sind und auf den Makro-Profilflächen derselben jeweils zusätzlich ein Mikrofurchenprofil mit einer innerhalb einer Makro- Profilfläche veränderlichen Gitterkonstante des Mikrofurchenprofils und einer mittleren Mikro- Gitterkonstante desselben zwischen 0,0005 mm und 0,01 mm ausgebildet ist,
so daß für die einfallende elektromagnetische Strahlung eine fokussierende Wirkung verbunden mit einer Farbaufspaltung zumindest in die drei Farbbereiche blau grün rot gegeben ist.
62. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 61,
gekennzeichnet dadurch, daß das Mikrofurchenprofil auf den Makro-Flächen als ein asymmetrischen Mi
kro-Dreieckprofil ausgebildet ist.
63. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 61,
gekennzeichnet dadurch, daß das Gitter mit einem asymmetrischen Furchenprofil mit Makro-
Dreieckprismen ausgebildet ist, wobei das Mikroprofil auf den Hauptflächen der Makro-Dreieckprismen als
ein asymmetrischen Mikro-Dreieckprofil mit Mikroprismen ausgebildet ist.
64. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36, 58 und 59, gekennzeichnet dadurch, daß die Abbildungsobjektive für die beiden Empfänger-Arrays und das leuch tende Array zumindest näherungsweise baugleich sind und deren Brennebenen im Objektraum koinzidie ren
und das leuchtende Array aus transmittierenden und gleichzeitig fokussierenden Mikroelementen und aus reflektierenden Mikroelementen gebildet ist,
wobei je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, reflektieren de Elemente zugeordnet sind,
und dem strukturierten Array eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet ist, wobei die elektromagnetische Strahlung mindestens einer Strahlungsquelle (4) das leuchtende Array in den fokussierenden Elementen durchsetzt und die elektromagnetische Strahlung von mindestens zwei separaten Strahlungsquelle (4)n unter einem Einfallswinkel von mindestens 10° auf die reflektierenden Elemente trifft.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36, 58 und 59, gekennzeichnet dadurch, daß die Abbildungsobjektive für die beiden Empfänger-Arrays und das leuch tende Array zumindest näherungsweise baugleich sind und deren Brennebenen im Objektraum koinzidie ren
und das leuchtende Array aus transmittierenden und gleichzeitig fokussierenden Mikroelementen und aus reflektierenden Mikroelementen gebildet ist,
wobei je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, reflektieren de Elemente zugeordnet sind,
und dem strukturierten Array eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet ist, wobei die elektromagnetische Strahlung mindestens einer Strahlungsquelle (4) das leuchtende Array in den fokussierenden Elementen durchsetzt und die elektromagnetische Strahlung von mindestens zwei separaten Strahlungsquelle (4)n unter einem Einfallswinkel von mindestens 10° auf die reflektierenden Elemente trifft.
65. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 64,
gekennzeichnet dadurch, daß die beiden Empfänger-Arrays und das leuchtende Array mit einem Bewe
gungssystem zur präzisen, synchronen Bewegung verbunden sind, wobei die optisch aktiven Ebenen der
beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays
stets in der gleichen Ebene gehalten sind, wodurch die optisch konjugierten Ebenen im Objektraum per
manent zur Koinzidenz gebracht sind.
66. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 65,
gekennzeichnet dadurch, daß dem strukturierten Array ein steuerbarer Stellmechanismus zur lateralen
Bewegung zugeordnet ist.
67. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 60, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen (LBARRAY j) unterschiedlicher Leuchtdichte und mit leuchtenden Flächenelemente FEL
mit Mikro-Farbteilern ausgebildet ist, so daß eine nahezu planare Struktur gebildet ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 60, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen (LBARRAY j) unterschiedlicher Leuchtdichte und mit leuchtenden Flächenelemente FEL
mit Mikro-Farbteilern ausgebildet ist, so daß eine nahezu planare Struktur gebildet ist.
68. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 60,
gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen (LBARRAY j) mit zumindest
näherungsweise gleichem Abstand der leuchtenden Flächenelemente FEL in einer Ebene in den Farbbe
reichen rot, grün und blau gebildet ist, wobei die Wiederholungsperiode (WP) dem dreifachen Streifenab
stand der einzelnen verschiedenfarbigen Flächenelemente entspricht
und Elemente des Empfänger-Arrays farbsensitiv und auf das Wellenlängenspektrum der leuchtenden
Flächenelemente FEL abgestimmt sind.
69. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 46 und 51 bis 68,
gekennzeichnet dadurch, daß das strukturierte Array zumindest auf einem Teilbereich mindestens einer
Scheibe ausgebildet ist, der eine rotatorische Präzisionslagerung mit einer Welle mit einem rotatorischen
Präzisionsmotor zugeordnet ist, so daß mindestens eine rotierende Scheibe gebildet ist.
70. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69,
gekennzeichnet dadurch, daß das strukturiert leuchtende Array auf einer rotierenden Scheibe als ein rota
tionssymmetrisches Transmissions-Gitter ausgebildet ist.
71. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 und 70, gekennzeichnet dadurch, daß an einem äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochge naues und hochdynamisch messendes Meßsystem Referenzmarke (89) zur Erfassung der axialen Ablage eines Teilbereiches der rotierenden Scheibe von einer axialen Sollposition angeordnet ist
und das Meßsystem (89) in seiner messenden Funktion einem kreisringförmigen Bereich der rotierenden Scheibe zugeordnet ist, so daß jeweils die axiale Ablage in einem kreisringförmigen Bereich derselben, verursacht durch Axialschlag und Taumelschlag der rotierenden Scheibe hochgenau und hochdynamisch gemessen werden kann.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 und 70, gekennzeichnet dadurch, daß an einem äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochge naues und hochdynamisch messendes Meßsystem Referenzmarke (89) zur Erfassung der axialen Ablage eines Teilbereiches der rotierenden Scheibe von einer axialen Sollposition angeordnet ist
und das Meßsystem (89) in seiner messenden Funktion einem kreisringförmigen Bereich der rotierenden Scheibe zugeordnet ist, so daß jeweils die axiale Ablage in einem kreisringförmigen Bereich derselben, verursacht durch Axialschlag und Taumelschlag der rotierenden Scheibe hochgenau und hochdynamisch gemessen werden kann.
72. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 71, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der axialen Ablage von der Sollposition eines Teil bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises der rotierenden Scheibe zugeordnet ist, so daß die axiale Ablage eines Sektors (82), verursacht durch Axialschlag und Taumelschlag bei der Rotation der Kreisscheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage zumindest eines Teilbereiches des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 71, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der axialen Ablage von der Sollposition eines Teil bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises der rotierenden Scheibe zugeordnet ist, so daß die axiale Ablage eines Sektors (82), verursacht durch Axialschlag und Taumelschlag bei der Rotation der Kreisscheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage zumindest eines Teilbereiches des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird.
73. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 71,
gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues
und hochdynamisches Stellsystem zur Beeinflussung der axialen Ablage von der Sollposition eines Teil
bereiches der rotierenden Scheibe angeordnet ist, welches als Komponente eines Lage-Regelkreises
ausgebildet und der rotierenden Welle zugeordnet ist,
so daß die axiale Ablage eines Teilbereiches der rotierenden Scheibe, verursacht durch Taumelschlag bei
der Rotation derselben, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Schei
be und so auch die axiale Lage des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition
gehalten wird.
74. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 71, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsystem (87) zur Erfassung der radialen Ablage von einer Sollposition eines Teilbereiches der rotierenden Scheibe angeordnet ist, welches der rotierenden Scheibe zugeordnet ist,
so daß in einem Kreisring der rotierenden Scheibe jeweils die radiale Ablage derselben, verursacht durch Radialschlag bei der Rotation der Kreisscheibe, hochdynamisch und hochgenau gemessen wird.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 71, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsystem (87) zur Erfassung der radialen Ablage von einer Sollposition eines Teilbereiches der rotierenden Scheibe angeordnet ist, welches der rotierenden Scheibe zugeordnet ist,
so daß in einem Kreisring der rotierenden Scheibe jeweils die radiale Ablage derselben, verursacht durch Radialschlag bei der Rotation der Kreisscheibe, hochdynamisch und hochgenau gemessen wird.
75. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 74, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der radialen Ablage von der Sollposition eines Teil bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises der rotierenden Welle der rotierenden Scheibe zuge ordnet ist,
so daß die radiale Ablage eines Teilbereiches, verursacht durch Radialschlag bei der Rotation der rotie renden Scheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe mit dem strukturiert leuchtenden Array in der radialen Sollposition gehalten wird und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten wird
und so der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays im Array- Raum konstant gehalten wird.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 74, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der radialen Ablage von der Sollposition eines Teil bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises der rotierenden Welle der rotierenden Scheibe zuge ordnet ist,
so daß die radiale Ablage eines Teilbereiches, verursacht durch Radialschlag bei der Rotation der rotie renden Scheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe mit dem strukturiert leuchtenden Array in der radialen Sollposition gehalten wird und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten wird
und so der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays im Array- Raum konstant gehalten wird.
76. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 74, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der radialen Ablage von der Sollposition eines Teil bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises dem Empfänger-Array im Abbildungsstrahlengang zu geordnet ist,
so daß die laterale Lage des Empfänger-Arrays hochdynamisch geregelt und so und so der laterale Ab stand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten wird,
und so der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays im Array- Raum konstant gehalten wird.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 74, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der radialen Ablage von der Sollposition eines Teil bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises dem Empfänger-Array im Abbildungsstrahlengang zu geordnet ist,
so daß die laterale Lage des Empfänger-Arrays hochdynamisch geregelt und so und so der laterale Ab stand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten wird,
und so der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays im Array- Raum konstant gehalten wird.
77. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76,
gekennzeichnet dadurch, daß die rotierende Scheibe mit mindestens zwei Sektoren (82) ausgebildet ist
und die Sektorenflächen die Stufenflächen einer Wendeltreppe darstellen.
78. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 77,
gekennzeichnet dadurch, daß die Sektorenflächen jeweils die Begrenzungsflächen einer transparenten
Platte (84) darstellen und diese so gestaltete rotierenden Scheibe im weiteren als Wendeltreppenscheibe
(83) bezeichnet wird.
79. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 78, gekennzeichnet dadurch, daß die Wendeltreppenscheibe (83) mit zumindest näherungsweise regelmäßi gen, gleichflächigen Stufenflächen als vollflächige Wendeltreppenscheibe (83) mit Stufenabsätzen mit Stufenhöhen (Δhj) gebildet ist und auf die gleichflächigen Stufenflächen der Wendeltreppenscheibe (83) der transparenten Platte je ein strukturiertes Array aufgebracht ist
und die elektromagnetische Strahlung der Strahlungsquelle (4) nach dem Passieren der Fläche des strukturierten Arrays die transparente Platte (84) passiert
und die Stufenflächen zumindest näherungsweise senkrecht zur Drehachse ausgerichtet sind und min destens ein einziger Absatz auf der Wendeltreppenscheibe (83) mit mindestens der zweifachen Stufenhö he ausgebildet ist, und die Wendeltreppenscheibe (83) eine zumindest näherungsweise mittlere Steigung pro Umdrehung von maximal einem Zwanzigstel des Radius' der Wendeltreppenscheibe (83) aufweist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 78, gekennzeichnet dadurch, daß die Wendeltreppenscheibe (83) mit zumindest näherungsweise regelmäßi gen, gleichflächigen Stufenflächen als vollflächige Wendeltreppenscheibe (83) mit Stufenabsätzen mit Stufenhöhen (Δhj) gebildet ist und auf die gleichflächigen Stufenflächen der Wendeltreppenscheibe (83) der transparenten Platte je ein strukturiertes Array aufgebracht ist
und die elektromagnetische Strahlung der Strahlungsquelle (4) nach dem Passieren der Fläche des strukturierten Arrays die transparente Platte (84) passiert
und die Stufenflächen zumindest näherungsweise senkrecht zur Drehachse ausgerichtet sind und min destens ein einziger Absatz auf der Wendeltreppenscheibe (83) mit mindestens der zweifachen Stufenhö he ausgebildet ist, und die Wendeltreppenscheibe (83) eine zumindest näherungsweise mittlere Steigung pro Umdrehung von maximal einem Zwanzigstel des Radius' der Wendeltreppenscheibe (83) aufweist.
80. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 78,
gekennzeichnet dadurch, daß die Wendeltreppenscheibe (83) als ein in sich hochstabiler Körper ausge
bildet ist und die Sektorenflächen der transparenten Platten (84) auf einer Seite der Wendeltreppenschei
be (83) in einer gemeinsamen Ebene liegen und so eine Fläche bilden und die geometrisch-optische
Weglänge der transparente Platte (84) von Stufe zu Stufe vorbestimmt verändert ist, so daß verschieden
dicke, transparente Platten (84) gebildet sind und das strukturierte Array auf den gleichflächigen Stufen
flächen nur auf einem Teilbereich derselben aufgebracht ist.
81. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 80,
gekennzeichnet dadurch, daß in den Stufenflächen der Wendeltreppenscheibe (83) je ein weiterer trans
parenter und unstrukturierter Sektorenbereich für den Abbildungsstrahlengang angeordnet ist.
82. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 82,
gekennzeichnet dadurch, daß die strukturierten Arrays auf den Stufenflächen der zugehörigen transparen
ten Platten in der Art eines als Tangentialgitters aufgebracht sind.
83. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 82, gekennzeichnet dadurch, daß die strukturierten Arrays auf den Stufenflächen der zugehörigen transparen ten Platten (84) der Wendeltreppenscheibe (83) in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht ist
und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeord neten Präzisionslagerung zugeordnet ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 82, gekennzeichnet dadurch, daß die strukturierten Arrays auf den Stufenflächen der zugehörigen transparen ten Platten (84) der Wendeltreppenscheibe (83) in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht ist
und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeord neten Präzisionslagerung zugeordnet ist.
84. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 83,
gekennzeichnet dadurch, daß das Gitter mit äquidistanten konzentrischen Kreisen von Stufenflächen zu
Stufenflächen der Wendeltreppenscheibe (83) einen Sprung in der Struktur dieses Gitter in radialer Rich
tung in der Art eines Phasensprunges aufweist.
85. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 84,
gekennzeichnet dadurch, daß der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltrep
penscheibe (83) einem ganzzahligen Vielfachen eines Viertels der mittleren Gitterkonstanten des Gitters
beträgt.
86. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 85,
gekennzeichnet dadurch, daß der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltrep
penscheibe (83) einem Dreiviertel der mittleren Gitterkonstanten des Gitters beträgt.
87. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 86,
gekennzeichnet dadurch, daß auf den Stufenflächen der Wendeltreppenscheibe (83) zumindest in Teilbe
reichen auf der planen Fläche der Wendeltreppenscheibe (83) ein Referenzgitter aufgebracht ist.
88. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 87,
gekennzeichnet dadurch, daß das Referenzgitter auf der planen Fläche der Wendeltreppenscheibe (83)
zumindest näherungsweise eine Radialstruktur aufweist.
89. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 88,
gekennzeichnet dadurch, daß das Referenzgitter zumindest näherungsweise eine Radialstruktur mit einer
cos2-Transparenz-Verteilung und eine Ortsfrequenz aufweist, die der Ortsfrequenz entspricht, die aus der
mittleren Phasenänderung des strukturierten Arrays auf einer konzentrischen Bahn der Wendeltreppen
scheibe (83) über dem Vollkreis resultiert.
90. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 89,
gekennzeichnet dadurch, daß an der Wendeltreppenscheibe (83) mindestens eine Referenzmarke (89)
(90) aufgebracht ist.
91. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 90,
gekennzeichnet dadurch, daß auf den gleichflächigen Stufenflächen der Platten je ein weiterer lichtdurch
lässiger Teilbereich für den Abbildungsstrahlengang mit einem Farbfilter angeordnet ist.
92. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 91,
gekennzeichnet dadurch, daß in jedem Sektor (82) der vollflächigen Wendeltreppenscheibe (83) minde
stens eine Referenzmarke (90) aufgebracht ist.
93. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 92,
gekennzeichnet dadurch, daß die Sektoren (82) eine geringere Ausdehnung in tangentialer Verschie
bungsrichtung aufweisen als die Ausdehnung des Empfänger-Arrays und so das Empfänger-Array strei
fenweise ausgelesen wird.
94. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 93,
gekennzeichnet dadurch, daß gleichflächige Stufenflächen mit der Anzahl 2 Exponent n auf der vollflächi
gen Wendeltreppenscheibe (83) angeordnet sind.
95. Anordnung zur 3D-Aufnahme
von Objektoberflächen in einer nach 69 bis 76,
gekennzeichnet dadurch, daß die rotierende Scheibe als ein Flügelrad mit Flügeln in Form transparenter
Platten-Sektoren (82) unterschiedlicher geometrisch-optischer Dicke ausgebildet ist.
96. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76,
gekennzeichnet dadurch, daß die rotierende Scheibe als ein Flügelrad mit Flügeln in Form transparenter
Platten-Sektoren (82) unterschiedlicher geometrisch-optischer Dicke ausgebildet ist.
97. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76,
gekennzeichnet dadurch, daß die rotierende Scheibe als Keilscheibe ausgebildet ist.
98. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97,
gekennzeichnet dadurch, daß das strukturierte Array auf der Oberfläche einer Keilscheibe mit einer pla
nen Unterfläche ausgebildet ist, wobei jedoch nur ein Teilbereich der Keilscheibe als strukturiertes Array
zur Anwendung kommt und der Keilscheibe eine rotatorische Präzisionslagerung mit einer Drehachse mit
einem rotatorischen Präzisionsmotor zugeordnet ist.
99. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, 97 und 98,
gekennzeichnet dadurch, daß die Keilscheibe als transparenter Körper ausgebildet ist und eine Fläche der
Keilscheibe senkrecht zur Drehachse ausgebildet ist.
100. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 99,
gekennzeichnet dadurch, daß die Keilscheibe eine Dickenänderung von maximal einem Zwanzigstel des
Radius' der Keilscheibe aufweist, wobei jedoch nur ein Ausschnitt der Keilscheibe als strukturiertes Array
zur Anwendung kommt.
101. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis
100,
gekennzeichnet dadurch, daß ein Referenzgitter (88) auf der vollflächigen Keilscheibe zumindest nähe
rungsweise eine Radialstruktur aufweist.
102. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 76 und 97 bis 101,
gekennzeichnet dadurch, daß auf der vollflächigen Keilscheibe mindestens eine Referenzmarke (90) auf
gebracht ist.
103. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis
102,
gekennzeichnet dadurch, daß auf der Keilscheibe mehrere strukturierte Arrays in einzelnen Sektoren (82)
aufgebracht sind.
104. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis
103,
gekennzeichnet dadurch, daß die strukturierten Arrays in der Art eines Tangentialgitters aufgebracht sind.
105. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis
104,
gekennzeichnet dadurch, daß die einzelnen Tangentialgitter von Sektor (82) zu Sektor (82) einen Sprung
in der Gitterstruktur in radialer Richtung in der Art eines Phasensprunges aufweisen.
106. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis
105,
gekennzeichnet dadurch, daß der Sprung in der Phase von Sektor (82) zu Sektor (82) ein Viertel der Pe
riode des Tangentialgitters beträgt.
107. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76,
gekennzeichnet dadurch, daß die rotierende Scheibe als Taumelscheibe ausgebildet ist.
108. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107,
gekennzeichnet dadurch, daß das strukturierte Array auf der Oberfläche eines Teilbereiches einer Tau
melscheibe mit einem Taumelschlag und mit einer planen Unterfläche ausgebildet ist.
109. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, 107 und 108,
gekennzeichnet dadurch, daß die Taumelscheibe als vollflächige Scheibe und als transparenter Körper
ausgebildet ist.
110. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis
109,
gekennzeichnet dadurch, daß der Axialschlag der Taumelscheibe maximal ein Zwanzigstel des Radius
der Taumelscheibe aufweist, wobei jedoch nur ein Ausschnitt der Taumelscheibe als strukturiertes Array
zur Anwendung kommt.
111. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis
110,
gekennzeichnet dadurch, daß zumindest auf einem Teilbereich der Taumelscheibe ein strukturiertes Array
aufgebracht ist.
112. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis
111,
gekennzeichnet dadurch, daß das strukturierte Array als Gitter in der Art einer Archimedischen Spirale mit
mindestens einem Gang aufgebracht ist.
113. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis
112,
gekennzeichnet dadurch, daß auf der Taumelscheibe zumindest in Teilbereichen ein Referenzgitter (88)
aufgebracht ist.
114. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis
113,
gekennzeichnet dadurch, daß das Referenzgitter (88) auf der Taumelscheibe zumindest näherungsweise
eine Radialstruktur aufweist.
115. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis
114,
gekennzeichnet dadurch, daß auf der vollflächigen Taumelscheibe mindestens eine Referenzmarke (90)
aufgebracht ist.
116. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis
115,
gekennzeichnet dadurch, daß auf der Taumelscheibe mehrere strukturierte Array in einzelnen Segmenten
aufgebracht sind.
117. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis
116,
gekennzeichnet dadurch, daß die strukturierten Arrays in der Art eines Tangentialgitters aufgebracht sind.
118. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis
117,
gekennzeichnet dadurch, daß die Tangentialgitter von Sektor (82) zu Sektor (82) einen Sprung in der
Struktur in der Art eines Phasensprunges aufweisen.
119. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis
118,
gekennzeichnet dadurch, daß der Sprung in der Phase mindestens einen ganzzahligen Teil von einem
Viertel der Periode des Tangentialgitters beträgt.
120. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis
119,
gekennzeichnet dadurch, daß auf der Taumelscheibe mehrere strukturierte Array in einzelnen Sektoren
(82) in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht ist und der Mittelpunkt
der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslage
rung zugeordnet ist und die Gitterstruktur von Sektor (82) zu Sektor (82) in radialer Richtung einen Sprung
in der Art eines Phasensprunges aufweist und der Sprung in der Phase von Sektor (82) zu Sektor (82) ein
ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt.
121. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76,
gekennzeichnet dadurch, daß die rotierende Scheibe als Schraubenfläche ausgebildet ist.
122. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer
Szene nach 69 bis 76 und 121,
gekennzeichnet dadurch, daß das rotationssymmetrisches Transmissionsgitter auf einer Schraubenfläche
einer beleuchteten, rotierenden Scheibe mit maximal einem Gang, also mit einem Kreisausschnitt von
maximal 360° ausgebildet ist, und so mindestens einen Absatz aufweist und das rotatorische Transmissi
onsgitter als Schraubenfläche eine Steigung pro Umdrehung von maximal einem Zehntel des Durchmes
sers der beleuchteten, rotierenden Scheibe aufweist, wobei jedoch nur ein Ausschnitt des rotationssym
metrischen Transmissionsgitters als strukturiertes Array im Beleuchtungsstrahlengang zur Anwendung
kommt.
123. A70 Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 121 und
122,
gekennzeichnet dadurch, daß die Steigung der Schraubenfläche und die Anzahl der Gänge der Spirale in
der Schraubenfläche so gewählt werden, daß bei der Drehung der schraubenförmigen Gitterfläche die
leuchtenden Flächenelementen FELj (3A) sich auf Verschiebungsstrecken (VSAj) befinden, die zumindest
näherungsweise parallel zu einer Geraden (gA) angeordnet sind.
124. A71 Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 121 und
123,
gekennzeichnet dadurch, daß dem rotationssymmetrischen Transmissionsgitter auf einer Schraubenflä
che zur Bestimmung der Referenzphase eine Strahlungsquelle (4) mit einem Laser und einem Kollimator
zugeordnet ist und mindestens eine feine Markierung als Referenzmarke (90) auf der Schraubenfläche
aufgebracht ist, wobei der Strahlungsquelle (4) ein Gitter mit einer Teilungskonstanten, welche beispiels
weise dem mittleren Abstand der leuchtenden Flächenelemente FEL entspricht, nachgeordnet ist.
125. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 121 und
124,
gekennzeichnet dadurch, daß auf der Schraubenfläche mehrere strukturierte Array in einzelnen Sektoren
(82) in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht ist und der Mittelpunkt
der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslage
rung zugeordnet ist die Gitterstruktur von Sektor (82) zu Sektor (82) in radialer Richtung einen Sprung in
der Art eines Phasensprunges aufweist und der Sprung in der Phase von Sektor (82) zu Sektor (82) ein
ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt.
126. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 68,
gekennzeichnet dadurch, daß im Beleuchtungsstrahlengang dem Beleuchtungsobjektiv (1) ein bewegli
ches Keilprisma aus einem transparenten optischen Werkstoff und diesem ein feststehendes gleichwinkli
ges Kompensationsprisma aus einem transparenten optischen Werkstoff zugeordnet ist.
127. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 126,
gekennzeichnet dadurch, daß auf dem Keilprisma ein strukturiertes Array aufgebracht ist und dem
Keilprisma eine Linearführung mit einem Linearmotor zugeordnet ist und auch im Abbildungsstrahlengang
ein bewegliches Keilprisma aus einem transparenten optischen Werkstoff dem Abbildungsobjektiv (2, 33)
zugeordnet ist.
128. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 126 und 127,
gekennzeichnet dadurch, daß auf dem beweglichem Keilprisma ein Referenzgitter (88) mit einer Refe
renzmarke (90) aufgebracht sind und dem Referenzgitter (88) eine Strahlungsquelle (4) und ein opto
elektronisches Auswertemodul zugeordnet sind.
129. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 126 und 127, gekennzeichnet dadurch, daß bei der Bewegung eines Keilprisma im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv (1) dessen axiale Gegen standsweite jeweils entsprechend der folgende Bedingung
|(Δϕ.p)/(2π.ΔzAG)| = |d/fB|
zumindest näherungsweise verändert wird und so die leuchtenden Flächenelemente FEL auf Strecken (BSAj) zumindest näherungsweise parallel zu einer Geraden (gAP) verschoben werden,
wobei der linke Term die Phasenänderung (Δϕ) des strukturiert leuchtenden Arrays, bezogen auf die Än derung der geometrisch-optischen Weglänge (ΔzAG) im Strahlengang in Richtung der optischen Achse, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenelemen tes FELj (3A) des strukturiert leuchtenden Arrays bei der Bewegung eines Keilprismas
und (p) die Gitterkonstante des strukturiert leuchtenden Arrays und (fB) die Brennweite des Beleuch tungsobjektivs (1) und (d) den Abstand des Pupillenzentrums des Beleuchtungsobjektivs (1) im Objek traum vom Pupillenzentrums des Abbildungsobjektivs (2) im Objektraum bedeuten.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 126 und 127, gekennzeichnet dadurch, daß bei der Bewegung eines Keilprisma im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv (1) dessen axiale Gegen standsweite jeweils entsprechend der folgende Bedingung
|(Δϕ.p)/(2π.ΔzAG)| = |d/fB|
zumindest näherungsweise verändert wird und so die leuchtenden Flächenelemente FEL auf Strecken (BSAj) zumindest näherungsweise parallel zu einer Geraden (gAP) verschoben werden,
wobei der linke Term die Phasenänderung (Δϕ) des strukturiert leuchtenden Arrays, bezogen auf die Än derung der geometrisch-optischen Weglänge (ΔzAG) im Strahlengang in Richtung der optischen Achse, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenelemen tes FELj (3A) des strukturiert leuchtenden Arrays bei der Bewegung eines Keilprismas
und (p) die Gitterkonstante des strukturiert leuchtenden Arrays und (fB) die Brennweite des Beleuch tungsobjektivs (1) und (d) den Abstand des Pupillenzentrums des Beleuchtungsobjektivs (1) im Objek traum vom Pupillenzentrums des Abbildungsobjektivs (2) im Objektraum bedeuten.
130. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 126, gekennzeichnet dadurch, daß für eine rotierende Scheibe oder Teile derselben im Beleuchtungsstrahlen gang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv (1) dessen axiale Gegenstandsweite jeweils entsprechend der folgende Bedingung
|(Δϕ.p)/(2π.ΔzAG)| = |d/fB|
zumindest näherungsweise verändert wird und so die leuchtenden Flächenelemente FEL auf Strecken (BSAj) zumindest näherungsweise parallel zu einer Geraden (gAP) verschoben werden,
wobei der linke Term die Phasenänderung (Δϕ) des strukturiert leuchtenden Arrays, bezogen auf die Än derung der geometrisch-optischen Weglänge (ΔzAG) im Strahlengang in Richtung der optischen Achse, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenelemen tes FELj (3A) des strukturiert leuchtenden Arrays bei der Bewegung der rotierenden Scheibe
und (p) die Gitterkonstante des strukturiert leuchtenden Arrays und (fB) die Brennweite des Beleuch tungsobjektivs (1) und (d) den Abstand des Pupillenzentrums des Beleuchtungsobjektivs (1) im Objek traum vom Pupillenzentrums des Abbildungsobjektivs (2) im Objektraum bedeuten.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 126, gekennzeichnet dadurch, daß für eine rotierende Scheibe oder Teile derselben im Beleuchtungsstrahlen gang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv (1) dessen axiale Gegenstandsweite jeweils entsprechend der folgende Bedingung
|(Δϕ.p)/(2π.ΔzAG)| = |d/fB|
zumindest näherungsweise verändert wird und so die leuchtenden Flächenelemente FEL auf Strecken (BSAj) zumindest näherungsweise parallel zu einer Geraden (gAP) verschoben werden,
wobei der linke Term die Phasenänderung (Δϕ) des strukturiert leuchtenden Arrays, bezogen auf die Än derung der geometrisch-optischen Weglänge (ΔzAG) im Strahlengang in Richtung der optischen Achse, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenelemen tes FELj (3A) des strukturiert leuchtenden Arrays bei der Bewegung der rotierenden Scheibe
und (p) die Gitterkonstante des strukturiert leuchtenden Arrays und (fB) die Brennweite des Beleuch tungsobjektivs (1) und (d) den Abstand des Pupillenzentrums des Beleuchtungsobjektivs (1) im Objek traum vom Pupillenzentrums des Abbildungsobjektivs (2) im Objektraum bedeuten.
131. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene mit zwei Abbildungsstrahlen gängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Haup tebenen der beiden Abbildungsobjektive (2, 33) zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Emp fänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist,
gekennzeichnet dadurch, daß dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewe gungssystem zugeordnet ist und die resultierende Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke (ASA1) auf dem ersten oberen Ast eines Buchstabens Y erfolgt, und die Strecke (ASA1) parallel zu einer Geraden (gA1P) liegt, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet so daß sich die detektierenden Elemente des erstes Empfänger-Arrays auf den Strecken (ASA1j) bewegen, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die resultierende Bewegungsrichtung des zweiten Empfänger-Array auf einer Strecke (AS2) auf dem zweiten oberen Ast des Buchstabens Y erfolgt, und die Strecke (ASA2) parallel zu einer Geraden (gA2P) liegt, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (33) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet so daß sich die detektierenden Elemente des zweites Empfänger-Arrays auf den Strecken (ASA1j) bewegen, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene mit zwei Abbildungsstrahlen gängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Haup tebenen der beiden Abbildungsobjektive (2, 33) zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Emp fänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist,
gekennzeichnet dadurch, daß dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewe gungssystem zugeordnet ist und die resultierende Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke (ASA1) auf dem ersten oberen Ast eines Buchstabens Y erfolgt, und die Strecke (ASA1) parallel zu einer Geraden (gA1P) liegt, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet so daß sich die detektierenden Elemente des erstes Empfänger-Arrays auf den Strecken (ASA1j) bewegen, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die resultierende Bewegungsrichtung des zweiten Empfänger-Array auf einer Strecke (AS2) auf dem zweiten oberen Ast des Buchstabens Y erfolgt, und die Strecke (ASA2) parallel zu einer Geraden (gA2P) liegt, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (33) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet so daß sich die detektierenden Elemente des zweites Empfänger-Arrays auf den Strecken (ASA1j) bewegen, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet.
132. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene mit zwei Abbildungsstrahlen gängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Haupt ebenen der beiden Abbildungsobjektive (2, 33) zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist,
gekennzeichnet dadurch, daß dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewe gungssystem zugeordnet ist und die resultierende Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke (ASA1) parallel zur optischen Achse des ersten Abbildungsobjektivs (2) erfolgt, und genau die Elemente des ersten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken (ASA1j) befinden, die parallel zu einer Geraden (gA1P) liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbil dungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet,
so daß die zur Signalbildung verwendeten Elemente des erstes Empfänger-Array denen entsprechen, welche sich auf Strecken (ASA1j) befinden, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die resultierende Bewegungsrichtung des zweiten Empfänger-Array auf einer Strecke (ASA2) parallel zur optischen Achse des zweiten Abbildungsobjektivs (33) erfolgt, und genau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken (ASA2j) befinden, die parallel zu einer Geraden (gA2P) liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet,
so daß die zur Signalbildung verwendeten Elemente des zweiten Empfänger-Array denen entsprechen, welche sich auf Strecken (ASA2j) befinden, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene mit zwei Abbildungsstrahlen gängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Haupt ebenen der beiden Abbildungsobjektive (2, 33) zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist,
gekennzeichnet dadurch, daß dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewe gungssystem zugeordnet ist und die resultierende Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke (ASA1) parallel zur optischen Achse des ersten Abbildungsobjektivs (2) erfolgt, und genau die Elemente des ersten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken (ASA1j) befinden, die parallel zu einer Geraden (gA1P) liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbil dungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet,
so daß die zur Signalbildung verwendeten Elemente des erstes Empfänger-Array denen entsprechen, welche sich auf Strecken (ASA1j) befinden, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die resultierende Bewegungsrichtung des zweiten Empfänger-Array auf einer Strecke (ASA2) parallel zur optischen Achse des zweiten Abbildungsobjektivs (33) erfolgt, und genau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken (ASA2j) befinden, die parallel zu einer Geraden (gA2P) liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet,
so daß die zur Signalbildung verwendeten Elemente des zweiten Empfänger-Array denen entsprechen, welche sich auf Strecken (ASA2j) befinden, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet.
133. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132,
gekennzeichnet dadurch, daß jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer
transparenten Platte mit einer vorbestimmten geometrisch-optischen Dicke zugeordnet ist und auf der ro
tierenden Scheibe Referenzmarken (89, 90) aufgebracht sind und die optische Dicke der transparenten
Platte stetig veränderlich ist.
134. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132,
gekennzeichnet dadurch, daß jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer
transparenten Platte und jeder transparenten Platte eine vorbestimmte ortsabhängige geometrisch
optische Dicke zugeordnet ist und auf der rotierenden Scheibe mindestens eine Referenzmarke (90) auf
gebracht ist und so die optische Dicke sich von transparenter Platte zu transparenter Platte vorherbe
stimmt verändert.
135. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132,
gekennzeichnet dadurch, daß zwischen jedem Abbildungsobjektiv (2, 33) und jedem Empfänger-Array je
mindestens zwei winkelgleiche Keilprismen (98, 99) angeordnet sind, wobei je zwei Keilprismen (98, 99)
ein Parallelstück mit einem parallelen Zwischenraum konstanter Dicke bilden, wobei die Strahlachse auf
den beiden äußeren Flächen des Parallelstückes zumindest näherungsweise jeweils senkrecht steht.
136. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132 und 135,
gekennzeichnet dadurch, daß bei einem zumindest näherungsweise geradlinig verschiebbaren Keilprisma
(99) die Verschiebungsrichtung parallel zur inneren Fläche des feststehenden Keilprismas (98) angeord
net ist.
137. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131, 132, 135 und 136,
gekennzeichnet dadurch, daß zur Kompensation des anamorphotischen Effektes im Luftspalt des Paral
lelstückes ein zweites baugleiches Parallelstück mit zwei winkelgleichen Keilprismen mit einem gleichge
stalteten Zwischenraum angeordnet ist, wobei das zweite Parallelstück um die Strahlachse um zumindest
näherungsweise 90° gedreht angeordnet ist.
138. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131, 132, 135 bis 137,
gekennzeichnet dadurch, daß die Projektionen der Verschiebungsrichtungen der beiden äußeren
Keilprismen auf die Ebene der Außenfläche eines Parallelstückes senkrecht zueinander ausgerichtet sind.
139. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 138,
gekennzeichnet dadurch, daß das Empfänger-Array eine Farbkamera darstellt.
140. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele menten FELj (3A) gebildet ist, wobei der Begriff Leuchten im Sinne des Abstrahlens von elektromagneti scher Strahlung verwendet wird,
und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuchtungsobjektiv (1), welches eine effektive Öffnungsblende mit einer Ausdehnung (DB) und einem Blendenzentrum (BZB) aufweist, zur strukturierten Beleuchtung der Objektoberflächen (5, 18, 19) im Objektraum, der dem Szenenraum entspricht,
und mit mindestens einem dem Beleuchtungsstrahlengang zugeordneten Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberflächen (5, 18, 19) mit mindestens einem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv (2) zur Ab bildung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blenden zentrum (BZA) aufweist,
wobei Elemente des mindestens einem Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren,
und mit einem Abstand (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1), als Bild des Blendenzentrums (BZB) im Objektraum, vom Pupillenzentrum (PZOA) des Abbildungsobjektivs (2), als Bild des Blendenzentrums (BZA) im Objektraum, wobei der Abstand (d) mindestens ein Achtel der Ausdeh nung (DB) der Öffnungsblende des Beleuchtungsobjektivs (1) beträgt,
wobei leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung eine zumindest näherungsweise vorherbestimmte Leuchtdichte aufweisen
und diese im weiteren als leuchtende Flächenelemente FEL bezeichnet werden, so daß durch die Abbil dung mit dem Beleuchtungsobjektiv (1) mindestens ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum gebildet ist, gekennzeichnet dadurch, daß im Objektraum das Schärfevolumen mindestens eines Bildes eines leuch tenden Flächenelementes FELj (3A) in einem strukturiert leuchtenden Array -
durch die vorbestimmte geometrisch-optische Zuordnung des leuchtenden Flächenelementes FELj (3A) zum Beleuchtungsobjektiv und die geometrisch-optische Zuordnung der Elemente des Empfänger-Arrays zum Abbildungsobjektiv und die geometrische Zuordnung von Beleuchtungsobjektiv zum Abbildungsob jektiv in der 3D-Aufnahme-Anordnung unter Anwendung der Newtonschen Abbildungsgleichung -
permanent in das Schärfevolumen eingepaßt ist, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays im Objektraum dargestellt ist,
wobei das Schärfevolumen, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, mindestens eine so große Tiefenausdehnung wie das Schärfe volumen eines einzelnen Bildes eines leuchtenden Flächenelementes FELj (3A) aufweist, so daß für alle Bilder eines leuchtenden Flächenelementes FELj (3A) ein umschließendes Schärfevolumen von Bildern der Elemente des Empfänger-Arrays gegeben ist
und im Objektraum jeweils ein Bild mindestens eines leuchtenden Flächenelementes FELj (3A) eines strukturierten Arrays (45) jeweils einem Bild mindestens eines Elementes des Empfänger-Arrays fest zu geordnet ist.
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele menten FELj (3A) gebildet ist, wobei der Begriff Leuchten im Sinne des Abstrahlens von elektromagneti scher Strahlung verwendet wird,
und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuchtungsobjektiv (1), welches eine effektive Öffnungsblende mit einer Ausdehnung (DB) und einem Blendenzentrum (BZB) aufweist, zur strukturierten Beleuchtung der Objektoberflächen (5, 18, 19) im Objektraum, der dem Szenenraum entspricht,
und mit mindestens einem dem Beleuchtungsstrahlengang zugeordneten Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberflächen (5, 18, 19) mit mindestens einem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv (2) zur Ab bildung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blenden zentrum (BZA) aufweist,
wobei Elemente des mindestens einem Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren,
und mit einem Abstand (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1), als Bild des Blendenzentrums (BZB) im Objektraum, vom Pupillenzentrum (PZOA) des Abbildungsobjektivs (2), als Bild des Blendenzentrums (BZA) im Objektraum, wobei der Abstand (d) mindestens ein Achtel der Ausdeh nung (DB) der Öffnungsblende des Beleuchtungsobjektivs (1) beträgt,
wobei leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung eine zumindest näherungsweise vorherbestimmte Leuchtdichte aufweisen
und diese im weiteren als leuchtende Flächenelemente FEL bezeichnet werden, so daß durch die Abbil dung mit dem Beleuchtungsobjektiv (1) mindestens ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum gebildet ist, gekennzeichnet dadurch, daß im Objektraum das Schärfevolumen mindestens eines Bildes eines leuch tenden Flächenelementes FELj (3A) in einem strukturiert leuchtenden Array -
durch die vorbestimmte geometrisch-optische Zuordnung des leuchtenden Flächenelementes FELj (3A) zum Beleuchtungsobjektiv und die geometrisch-optische Zuordnung der Elemente des Empfänger-Arrays zum Abbildungsobjektiv und die geometrische Zuordnung von Beleuchtungsobjektiv zum Abbildungsob jektiv in der 3D-Aufnahme-Anordnung unter Anwendung der Newtonschen Abbildungsgleichung -
permanent in das Schärfevolumen eingepaßt ist, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays im Objektraum dargestellt ist,
wobei das Schärfevolumen, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, mindestens eine so große Tiefenausdehnung wie das Schärfe volumen eines einzelnen Bildes eines leuchtenden Flächenelementes FELj (3A) aufweist, so daß für alle Bilder eines leuchtenden Flächenelementes FELj (3A) ein umschließendes Schärfevolumen von Bildern der Elemente des Empfänger-Arrays gegeben ist
und im Objektraum jeweils ein Bild mindestens eines leuchtenden Flächenelementes FELj (3A) eines strukturierten Arrays (45) jeweils einem Bild mindestens eines Elementes des Empfänger-Arrays fest zu geordnet ist.
141. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140,
gekennzeichnet dadurch, daß in mindestens einem strukturierten Array (45) mindestens eine räumlich
strukturierte Sub-Matrix (46) angeordnet sind, wobei in der mindestens einen strukturierten Sub-Matrix(46)
wiederum mindestens zwei strukturierte Zellen (47) angeordnet sind, wobei wiederum in jeder strukturier
ten Zelle (47) durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche
(48) angeordnet ist und dieses mindestens eine Fensterfläche (48) eine mittlere Gegenstandsweite zum
Beleuchtungsobjektiv (1) aufweist, die unterschiedlich zur Fensterfläche (48) der Nachbarzelle im Haupt
schnitt gemacht ist und eine Fensterfläche (48) in einer strukturierten Zelle (47) jeweils im Zusammenwir
ken mit der Strahlungsquelle (4) mindestens ein leuchtendes Flächenelement FELj (3A) darstellt.
142. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140,
gekennzeichnet dadurch, daß in mindestens einem strukturierten Array (45) mindestens eine räumlich
strukturierte Sub-Matrix (46) angeordnet sind, wobei in der mindestens einen strukturierten Sub-Matrix
(46) wiederum mindestens zwei strukturierte Zellen (47) angeordnet sind, wobei wiederum in jeder struk
turierten Zelle (47) durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fenster
fläche (48) angeordnet ist und diese mindestens eine Fensterfläche (48) eine mittlere Gegenstandsweite
zum Beleuchtungsobjektiv (1) aufweist, die unterschiedlich zur Fensterfläche (48) der Nachbarzelle im
Hauptschnitt gemacht ist und eine Fensterfläche (48) in einer strukturierten Zelle (47) jeweils mindestens
ein selbstleuchtendes Flächenelement FELj (3A) darstellt.
143. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 142,
gekennzeichnet dadurch, daß die Fensterfläche (48) zumindest näherungsweise in einer Ebene senkrecht
zur optischen Achse des Beleuchtungsobjektivs (1) angeordnet ist.
144. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, 141 und 143,
gekennzeichnet dadurch, daß mindestens eine strukturierte Sub-Matrix (46) als eine Transmissionsan
ordnung mit einem optischen Werkstoff ausgebildet ist.
145. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, 141 und 143, gekennzeichnet dadurch, daß die optisch aktive Oberfläche der strukturierten Zellen (47) jeweils einen räumlich strukturierten Bereich aufweist, wobei in diesem räumlichen strukturierten Bereich die Fensterflä che (48) als plane Fläche ausgebildet ist
und in der Fensterfläche (48) eine Maske (49) angeordnet ist und die Maske ein Binär-Code- Transparenzprofil mit der Codierung einer maschinenlesbaren Zahl als Positionsnummer aufweist und so die Masken innerhalb einer Zelle jeweils eindeutig und maschinenlesbar voneinander unterscheidbar ge macht sind,
und in einem Teilbereich der räumlich strukturierten Zelle (47) neben der Maske (49) auf der Fensterflä che (48) eine Mikrolinse mit einer fokussierenden Wirkung angeordnet ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, 141 und 143, gekennzeichnet dadurch, daß die optisch aktive Oberfläche der strukturierten Zellen (47) jeweils einen räumlich strukturierten Bereich aufweist, wobei in diesem räumlichen strukturierten Bereich die Fensterflä che (48) als plane Fläche ausgebildet ist
und in der Fensterfläche (48) eine Maske (49) angeordnet ist und die Maske ein Binär-Code- Transparenzprofil mit der Codierung einer maschinenlesbaren Zahl als Positionsnummer aufweist und so die Masken innerhalb einer Zelle jeweils eindeutig und maschinenlesbar voneinander unterscheidbar ge macht sind,
und in einem Teilbereich der räumlich strukturierten Zelle (47) neben der Maske (49) auf der Fensterflä che (48) eine Mikrolinse mit einer fokussierenden Wirkung angeordnet ist.
146. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 142 und 144 bis
145,
gekennzeichnet dadurch, daß die Mikrolinse in einem Teilbereich der räumlich strukturierten Zelle (47)
neben der Maske (49) auf der Fensterfläche (48) jeweils als eine Zylinderlinse (50) ausgebildet ist.
147. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 145 und 146
gekennzeichnet dadurch, daß die Mikrolinse (50) so angeordnet ist, daß deren Fokuspunkt zumindest nä
herungsweise in der Ebene der Maske (49) positioniert ist.
148. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 147,
gekennzeichnet dadurch, daß das strukturierte Array (45) als opakes Reliefstück mit mindestens zwei fei
nen Durchbrüchen, die gegenüber dem Beleuchtungsobjektiv (1) angeordnet sind und sich die Durchbrü
che beim Einsatz des Reliefstückes in die 3D-Aufnahme-Anordnung in unterschiedlichen Tiefen des Ar
ray-Raumes befinden, ausgebildet ist.
149. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140,
gekennzeichnet dadurch, daß das strukturierte Array als ein nichttransparentes Reliefstück mit Durchbrü
chen versehen ist und die zum Beleuchtungsobjektiv (1) weisende Oberfläche des Reliefstückes so gefer
tigt ist, daß diese zumindestens näherungsweise die optisch konjugierte Fläche eines zu prüfenden Soll
stückes darstellt und die Durchbrüche auf der Oberfläche des Reliefstückes zumindestens näherungswei
se die optisch konjugierten Orte der Sollfläche eines Prüflings darstellen.
150. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140,
gekennzeichnet dadurch, daß das strukturierte Array als ein transparentes Mikrolinsen-Array ausgebildet
ist und die Brennweite und die axiale Lage der Mikrolinsen so gestaltet sind, daß deren Foki in einer 3D-
Fläche angeordnet sind, die zumindestens näherungsweise eine zur Sollfläche optisch konjugierte Fläche
darstellt und die Foki der Mikrolinsen zumindestens näherungsweise optisch konjugierten Orte der Sollflä
che eines Prüflings darstellen.
151. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß auf dem strukturierten Array mindestens ein Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe (54, 56) mit mindestens einer in der Ausgleichsfläche schrägen Rampenfläche (55, 57) gebildet ist, die mindestens eine Rampenfläche jeweils zum Beleuchtungsobjektiv (1) ausgerichtet ist,
und auf der schrägen Rampenfläche (55, 57) leuchtende Flächenelemente FEL als von der Strahlungs quelle (4) beleuchtete Fensterflächen angeordnet sind und die Rampenflächen (55, 57) so geneigt sind, daß die Ausgleichsgerade (AGAj) durch die schräge Rampenfläche (55, 57) im Hauptschnitt nach Abbil dung durch das Beleuchtungsobjektivs (1) im Objektraum als Bild eine Gerade (AGOj) liefert,
die zumindestens näherungsweise auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zielt, wo bei für mehrere verschiedene Ausgleichsgeraden (AGOj) von mehreren verschiedenen Rampen (54, 56) nach deren Abbildung durch das Beleuchtungsobjektivs (1) aus deren Bildern ein Geradenbündel (GB1) mit einen Konvergenzpunkt (K1) gebildet ist,
und der Konvergenzpunkt (K1) zumindestens näherungsweise im Pupillenzentrum (PZOA) des Abbil dungsobjektivs (2) zur Koinzidenz gebracht ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß auf dem strukturierten Array mindestens ein Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe (54, 56) mit mindestens einer in der Ausgleichsfläche schrägen Rampenfläche (55, 57) gebildet ist, die mindestens eine Rampenfläche jeweils zum Beleuchtungsobjektiv (1) ausgerichtet ist,
und auf der schrägen Rampenfläche (55, 57) leuchtende Flächenelemente FEL als von der Strahlungs quelle (4) beleuchtete Fensterflächen angeordnet sind und die Rampenflächen (55, 57) so geneigt sind, daß die Ausgleichsgerade (AGAj) durch die schräge Rampenfläche (55, 57) im Hauptschnitt nach Abbil dung durch das Beleuchtungsobjektivs (1) im Objektraum als Bild eine Gerade (AGOj) liefert,
die zumindestens näherungsweise auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zielt, wo bei für mehrere verschiedene Ausgleichsgeraden (AGOj) von mehreren verschiedenen Rampen (54, 56) nach deren Abbildung durch das Beleuchtungsobjektivs (1) aus deren Bildern ein Geradenbündel (GB1) mit einen Konvergenzpunkt (K1) gebildet ist,
und der Konvergenzpunkt (K1) zumindestens näherungsweise im Pupillenzentrum (PZOA) des Abbil dungsobjektivs (2) zur Koinzidenz gebracht ist.
152. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151,
gekennzeichnet dadurch, daß das auf der Rampenfläche (55, 57), die eine mittlere Länge WP aufweist,
jeweils mindestens eine Maske mit einem Binär-Code-Transparenzprofil mit der Sequenzlänge bz auf ei
nem stetigen Flächenbereich derselben gebildet ist und die in der Maske mit einem Binär-Code-Profil
verwendete minimale Strukturbreite p mindestens so groß gemacht ist, daß diese vom Beleuchtungsob
jektiv (1) noch ohne merklichen Kontrastverlust scharf abgebildet werden kann, und die Länge WP größer
als bz.d/DB gemacht ist und die auf einer Rampenfläche (55, 57) aufgebrachten Masken mit einem Bi
när-Code-Transparenzprofil jeweils eindeutig und maschinenlesbar voneinander unterscheidbar gemacht
sind.
153. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 152,
gekennzeichnet dadurch, daß die Rampenflächen (55, 57), als stetige Flächen ausgebildet sind.
154. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 153,
gekennzeichnet dadurch, daß innerhalb der Rampenflächen (55, 57), mehrere Stufen ausgebildet sind,
wobei sich auf einer Fläche einer Stufe je mindestens eine Maske mit einem Binär-Code-
Transparenzprofil mit mindestens einem transparenten Feld aufgebracht ist.
155. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 146 bis 154,
gekennzeichnet dadurch, daß das Binär-Code-Profil als Balken-Code-Transparenzprofil mit mindestens
einem transparenten Balken ausgebildet ist und die Balken parallel zum Hauptschnitt angeordnet sind und
so die Detektierung des Balken-Code-Transparenzprofils senkrecht zum Hauptschnitt erfolgt.
156. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151,
gekennzeichnet dadurch, daß das auf den Rampenflächen mit der Länge WP eine Gitterstruktur mit ei
nem cos2-Transparenzprofil mit mindestens einer Periodenlänge bz aufgebracht ist und die Periodenlänge
bz mindestens so groß gemacht ist, daß diese vom Beleuchtungsobjektiv mit einer hohen relativen Licht
stärke noch ohne merklichen Kontrastverlust abgebildet werden kann, und die Länge WP der Rampenflä
che jeweils größer als bz.d/DB gemacht ist, wobei die Länge der Rampenfläche mindestens gleich der
Periodenlänge bz gemacht ist.
157. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß leuchtende Flächenelemente FEL als von der Strahlungsquelle (4) beleuch tete, transparente Fensterflächen, einschließlich Bilder von diesen, im Array-Raum positioniert sind und die dem Beleuchtungsobjektiv (1) zugewandte Seite des strukturierten Array mindestens als ein einziges Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe gebildet ist, die jeweils ein transparentes Keilprisma darstellt,
und die Keilprismen einen Keilwinkel aufweisen, der so gewählt ist, daß durch dessen abbildende Wirkung die Bilder der leuchtende Flächenelemente FEL zumindestens näherungsweise auf einer Ausgleichsgera de (AGAj) im Hauptschnitt liegen und die Ausgleichsgerade (AGAj) nach Abbildung durch das Beleuch tungsobjektivs (1) im Objektraum als Bild eine Gerade (AGOj) liefert,
die auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zielt, wobei für mehrere Ausgleichsgera den (AGOj) von mehreren Rampen nach deren Abbildung durch das Beleuchtungsobjektivs (1) aus deren Bildern ein Geradenbündel mit einen Konvergenzpunkt (K1) gebildet ist, der zumindestens näherungswei se mit dem Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zur Koinzidenz gebracht ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß leuchtende Flächenelemente FEL als von der Strahlungsquelle (4) beleuch tete, transparente Fensterflächen, einschließlich Bilder von diesen, im Array-Raum positioniert sind und die dem Beleuchtungsobjektiv (1) zugewandte Seite des strukturierten Array mindestens als ein einziges Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe gebildet ist, die jeweils ein transparentes Keilprisma darstellt,
und die Keilprismen einen Keilwinkel aufweisen, der so gewählt ist, daß durch dessen abbildende Wirkung die Bilder der leuchtende Flächenelemente FEL zumindestens näherungsweise auf einer Ausgleichsgera de (AGAj) im Hauptschnitt liegen und die Ausgleichsgerade (AGAj) nach Abbildung durch das Beleuch tungsobjektivs (1) im Objektraum als Bild eine Gerade (AGOj) liefert,
die auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zielt, wobei für mehrere Ausgleichsgera den (AGOj) von mehreren Rampen nach deren Abbildung durch das Beleuchtungsobjektivs (1) aus deren Bildern ein Geradenbündel mit einen Konvergenzpunkt (K1) gebildet ist, der zumindestens näherungswei se mit dem Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zur Koinzidenz gebracht ist.
158. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 157,
gekennzeichnet dadurch, daß die transparenten Keilprismen jeweils so gefertigt sind, daß diese im Mittel
zumindestens näherungsweise den Keilwinkel im Bogenmaß mit dem Betrag fB.n/[d.(n-1)] aufweist.
159. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 156, gekennzeichnet dadurch, daß bei einem im Array-Raum telezentrischen Abbildungsobjektiv (2) die Ram penflächen im strukturierten Array, die zum Beleuchtungsobjektiv (1) weisen, zumindestens näherungs weise gleichwinklig ausgebildet sind, so die Ausgleichsgeraden (AGAj) durch die schrägen Rampenflächen im Hauptschnitt der 3D-Aufnahme-Anordnung
zueinander parallele Geraden darstellen, und die Rampenflächen so gestaltet sind, daß nach Abbildung durch das Beleuchtungsobjektivs (1) aus den Bildern der parallelen Ausgleichsgeraden ein Geradenbün del (GB1) mit einen Konvergenzpunkt (K1) gebildet ist, der zumindestens näherungsweise mit dem Pupil lenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum zur Koinzidenz gebracht ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 156, gekennzeichnet dadurch, daß bei einem im Array-Raum telezentrischen Abbildungsobjektiv (2) die Ram penflächen im strukturierten Array, die zum Beleuchtungsobjektiv (1) weisen, zumindestens näherungs weise gleichwinklig ausgebildet sind, so die Ausgleichsgeraden (AGAj) durch die schrägen Rampenflächen im Hauptschnitt der 3D-Aufnahme-Anordnung
zueinander parallele Geraden darstellen, und die Rampenflächen so gestaltet sind, daß nach Abbildung durch das Beleuchtungsobjektivs (1) aus den Bildern der parallelen Ausgleichsgeraden ein Geradenbün del (GB1) mit einen Konvergenzpunkt (K1) gebildet ist, der zumindestens näherungsweise mit dem Pupil lenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum zur Koinzidenz gebracht ist.
160. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 159,
gekennzeichnet dadurch, daß bei einem im Array-Raum telezentrischen Abbildungsobjektiv (2) die Ram
penflächen (55, 57), im strukturierten Array, die zum Beleuchtungsobjektiv (1) weisen, zumindestens nä
herungsweise mit der gleichen Länge ausgebildet sind.
161. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 160,
gekennzeichnet dadurch, daß dem Abbildungsobjektiv (2) eine transparente Platte (84) mit Keilprismen
nachgeordnet ist, die eine Platte mit Rampen darstellt, wobei die Anzahl der Rampen der Anzahl der Sub-
Matrizen auf dem strukturierten Array entspricht.
162. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 160,
gekennzeichnet dadurch, daß im Abbildungsstrahlengang mindestens ein Mikrolinsen-Array angeordnet
ist, wobei die Mikrolinsen innerhalb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen
der Foki in Bezug auf eine Ebene senkrecht zur optischen Achse des Abbildungsstrahlenganges aufwei
sen.
163. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 161,
gekennzeichnet dadurch, daß dem Abbildungsobjektiv (2) mindestens ein Mikrolinsen-Array vorgeordnet
ist, wobei die Mikrolinsen innerhalb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen
der Foki in Bezug auf eine Ebene senkrecht zur optischen Achse des Abbildungsobjektivs (2) aufweisen.
164. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 163,
gekennzeichnet dadurch, daß die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf einem räum
lichen Profil angeordnet sind.
165. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 164,
gekennzeichnet dadurch, daß die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays zumindestens
näherungsweise auf Rampenflächen (55, 57), angeordnet sind.
166. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 163,
gekennzeichnet dadurch, daß dem Abbildungsobjektiv (2) mindestens ein Lichtwellenleiter-Array, welches
aus Mikrofasern gefertigt ist, vorgeordnet ist, wobei die Mikrofasern zumindest näherungsweise parallel
zur optischen Achse des Abbildungsobjektiv (2) angeordnet sind und die Mikrofaserenden auf der einen
Seite des Lichtwellenleiter-Arrays in einer gemeinsamen Ebene liegen und den Elementen des Empfän
ger-Arrays unmittelbar zugeordnet sind und auf der anderen Seite des Lichtwellenleiter-Arrays dem Abbil
dungsobjektiv (2) zugeordnet sind und auf dieser Seite die Faserenden auf einem räumlichen Profil ange
ordnet sind.
167. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 166,
gekennzeichnet dadurch, daß das räumliche Profil zumindestens näherungsweise mit Rampenflächen
ausgebildet ist.
168. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 160, gekennzeichnet dadurch, daß das Empfänger-Array mit mindestens acht Elementen ausgebildet ist, die mindestens zwei Bereiche mit mindestens je vier Elementen darstellen, wobei die vier Elemente dann ge nau zwei Zellen darstellen,
und die mindestens zwei Bereiche mit einer unterschiedlichen mittleren Höhe der Elemente in einer Flä che gebildet sind, die als Sub-Flächen bezeichnet werden,
so daß auf dem Empfänger-Array mindestens zwei Bereiche gebildet sind, die zu einer Sub-Fläche mit einer mittleren Höhe gehören, und auf dem Empfänger-Array mindestens acht Elemente in vier unter scheidbaren Höhenstufen angeordnet sind.
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 160, gekennzeichnet dadurch, daß das Empfänger-Array mit mindestens acht Elementen ausgebildet ist, die mindestens zwei Bereiche mit mindestens je vier Elementen darstellen, wobei die vier Elemente dann ge nau zwei Zellen darstellen,
und die mindestens zwei Bereiche mit einer unterschiedlichen mittleren Höhe der Elemente in einer Flä che gebildet sind, die als Sub-Flächen bezeichnet werden,
so daß auf dem Empfänger-Array mindestens zwei Bereiche gebildet sind, die zu einer Sub-Fläche mit einer mittleren Höhe gehören, und auf dem Empfänger-Array mindestens acht Elemente in vier unter scheidbaren Höhenstufen angeordnet sind.
169. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 168,
gekennzeichnet dadurch, daß die Ausgleichsfläche über die Orte der Elemente des Empfänger-Arrays ei
ner Sub-Fläche ein räumliches Profil darstellen und daß mindestens zwei Sub-Flächen auf dem Empfän
ger-Arrays gebildet sind, die zumindest näherungsweise gleich gemacht sind und auch die Form des
räumlichen Profils zumindest näherungsweise gleich gemacht ist.
170. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 169,
gekennzeichnet dadurch, daß die Anzahl der Bereiche, die zu einer Sub-Fläche auf dem Empfänger-Array
gehören, mit der Anzahl der Sub-Matrizen im strukturierten Array übereinstimmt und ein Bereich, der zu
einer Sub-Fläche gehört, sich über mindestens zwei linienhafte Bereiche des Empfänger-Arrays, die ge
trennt elektromagnetische Strahlung detektieren können, erstreckt und die laterale Anordnung der Berei
che, die zu einer Sub-Fläche gehören, auf der Oberfläche des Empfänger-Arrays mit der lateralen Anord
nung der Sub-Matrizen auf dem strukturierten Array zumindest näherungsweise geometrisch ähnlich
gemacht ist.
171. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 170,
gekennzeichnet dadurch, daß das Empfänger-Array als CCD-Matrix-Kamera ausgebildet ist.
172. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 168,
gekennzeichnet dadurch, daß das Empfänger-Array als CMOS-Matrix-Kamera ausgebildet ist.
173. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167,
gekennzeichnet dadurch, daß das Empfänger-Array als CCD-Zeilen-Kamera ausgebildet ist.
174. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167,
gekennzeichnet dadurch, daß mindestens zwei Abbildungsstrahlengänge angeordnet sind und jedem
Abbildungsstrahlengang jeweils zumindestens eine verkippbare Spiegelfläche vorgeordnet wird und die
vorgeordneten, verkippbaren Spiegelflächen starr miteinander verbunden sind und diesen rechnergesteu
erte Komponenten zur Durchführung einer Verkippung zugeordnet sind.
175. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167,
gekennzeichnet dadurch, daß mindestens zwei Abbildungsstrahlengänge angeordnet sind und den beiden
Abbildungsstrahlengängen gemeinsam ein rechnergesteuertes, rotierendes Spiegelpolygon vorgeordnet
ist.
176. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167,
gekennzeichnet dadurch, daß einem Beleuchtungsobjektiv (1) ein erstes Abbildungsobjektiv (33) mit ei
nem Empfänger-Array und mindestens ein zweites Abbildungsobjektiv (2) mit einem Empfänger-Array zu
geordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs (2) im Abstand d vom
Pupillenzentrum PZOB des Beleuchtungsobjektivs (1) angeordnet ist und das zweite Abbildungsobjektiv
(33) im Abstand k.d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs (1) angeordnet ist, wobei k ≧ 2
gemacht ist.
177. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (33) mit zumindest näherungsweiser ein seitiger Telezentrie im Array-Raum und einem zweiten Abbildungsobjektiv (2) mit zumindest näherungs weiser einseitiger Telezentrie im Array-Raum, wobei die beiden Hauptebenen der beiden Abbildungsob jektive (2, 33) zumindest näherungsweise zur Koinzidenz gebracht sind, wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsobjektivs (33) im Abstand d vom Pupillenzentrum (PZOA2) des zweiten Ab bildungsobjektiv (2) angeordnet ist,
und jedem derselben je ein räumlich strukturiertes Empfänger-Array (106, 114) zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array (106, 114) angeordnet sind,
gekennzeichnet dadurch, daß das erste und das zweite räumlich strukturierte Empfänger-Array (106, 114) mindestens je zwei Empfängerflächen (107, 108) und (109, 110) auf räumlich getrennten Stufenflächen aufweisen, die zumindest näherungsweise jeweils senkrecht zum Hauptschnitt liegen, und die Empfän gerflächen (107, 108) des ersten Empfänger-Arrays (106) jeweils zumindest näherungsweise parallel zur Geraden (gA1P) angeordnet sind, die den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Haup tebenen und den Brennpunkt (FAA1) des ersten Abbildungsobjektivs (33) enthält,
und die Empfängerflächen (109, 110) des zweiten Empfänger-Arrays (114) jeweils zumindest näherungs weise parallel zur Geraden (gA2P) angeordnet sind, die den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfal lenden Hauptebenen und den Brennpunkt (FAA2) des zweiten Abbildungsobjektivs (2) enthält,
wobei sich Paare von Ausgleichsgeraden, die durch die mindestens je zwei Empfängerflächen (107) und (109) sowie (108) und (110) im Hauptschnitt verlaufen, zumindest näherungsweise in der Hauptebene schneiden und zumindest näherungsweise der mittlere Abstand von Teilen dieser mindestens zwei Emp fängerflächen (107) und (109) sowie (108) und (110) von der Hauptebene zumindest näherungsweise je weils gleich gemacht ist und so zumindest näherungsweise Paare von optisch konjugierten Bildern von Teilen von Empfängerflächen (107) und (109) des ersten Empfänger-Arrays (106) sowie von Teilen von Empfängerflächen (108) und (110) des zweiten Empfänger-Arrays (114) im Objektraum gebildet sind.
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (33) mit zumindest näherungsweiser ein seitiger Telezentrie im Array-Raum und einem zweiten Abbildungsobjektiv (2) mit zumindest näherungs weiser einseitiger Telezentrie im Array-Raum, wobei die beiden Hauptebenen der beiden Abbildungsob jektive (2, 33) zumindest näherungsweise zur Koinzidenz gebracht sind, wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsobjektivs (33) im Abstand d vom Pupillenzentrum (PZOA2) des zweiten Ab bildungsobjektiv (2) angeordnet ist,
und jedem derselben je ein räumlich strukturiertes Empfänger-Array (106, 114) zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array (106, 114) angeordnet sind,
gekennzeichnet dadurch, daß das erste und das zweite räumlich strukturierte Empfänger-Array (106, 114) mindestens je zwei Empfängerflächen (107, 108) und (109, 110) auf räumlich getrennten Stufenflächen aufweisen, die zumindest näherungsweise jeweils senkrecht zum Hauptschnitt liegen, und die Empfän gerflächen (107, 108) des ersten Empfänger-Arrays (106) jeweils zumindest näherungsweise parallel zur Geraden (gA1P) angeordnet sind, die den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Haup tebenen und den Brennpunkt (FAA1) des ersten Abbildungsobjektivs (33) enthält,
und die Empfängerflächen (109, 110) des zweiten Empfänger-Arrays (114) jeweils zumindest näherungs weise parallel zur Geraden (gA2P) angeordnet sind, die den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfal lenden Hauptebenen und den Brennpunkt (FAA2) des zweiten Abbildungsobjektivs (2) enthält,
wobei sich Paare von Ausgleichsgeraden, die durch die mindestens je zwei Empfängerflächen (107) und (109) sowie (108) und (110) im Hauptschnitt verlaufen, zumindest näherungsweise in der Hauptebene schneiden und zumindest näherungsweise der mittlere Abstand von Teilen dieser mindestens zwei Emp fängerflächen (107) und (109) sowie (108) und (110) von der Hauptebene zumindest näherungsweise je weils gleich gemacht ist und so zumindest näherungsweise Paare von optisch konjugierten Bildern von Teilen von Empfängerflächen (107) und (109) des ersten Empfänger-Arrays (106) sowie von Teilen von Empfängerflächen (108) und (110) des zweiten Empfänger-Arrays (114) im Objektraum gebildet sind.
178. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene, mit zwei Abbil dungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, zumindest näherungsweise paral lel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Hauptebenen der beiden Abbildungsobjektive (2, 33) zumindest nähe rungsweise zur Koinzidenz gebracht sind, wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsob jektivs (2) im Abstand d vom Pupillenzentrum (PZOA2) des zweiten Abbildungsobjektiv (33) angeordnet ist,
und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind,
gekennzeichnet dadurch, daß das erste und das zweite Empfänger-Array (6, 14) zumindest näherungs weise jeweils senkrecht zum Hauptschnitt angeordnet sind, und die Empfängerfläche des ersten Empfän ger-Arrays zumindest näherungsweise so angeordnet ist, daß diese die Strecke (ASA1) enthält, die auf dem ersten oberen Ast eines Buchstabens Y angeordnet ist, und die Strecke (ASA1) zumindest nähe rungsweise parallel zu einer Geraden (gA1P) angeordnet ist, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symme trieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen zumindest näherungsweise schneidet, so daß die detektierenden Ele mente des erstes Empfänger-Arrays (6) im Hauptschnitt zumindest näherungsweise auf der Strecke (ASA1) angeordnet sind, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die Empfängerfläche des zweiten Empfänger-Arrays (14) zumindest näherungsweise so angeordnet ist, daß diese die Strecke (AS2) enthält, die auf dem zweiten oberen Ast des Buchstabens Y angeordnet ist, und die Strecke (ASA2) parallel zu einer Geraden (gA2P) angeordnet ist, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (33) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen zumindest näherungsweise schneidet, so daß die detek tierenden Elemente des zweites Empfänger-Arrays im Hauptschnitt zumindest näherungsweise auf der Strecke (ASA1) angeordnet sind, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet und so mindestens aus Bildern von Teilen der beiden Empfängerflächen (6) und (14) im Objek traum mindestens ein Paar von zumindest näherungsweise optisch konjugierten Bildern gebildet ist.
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene, mit zwei Abbil dungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, zumindest näherungsweise paral lel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Hauptebenen der beiden Abbildungsobjektive (2, 33) zumindest nähe rungsweise zur Koinzidenz gebracht sind, wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsob jektivs (2) im Abstand d vom Pupillenzentrum (PZOA2) des zweiten Abbildungsobjektiv (33) angeordnet ist,
und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind,
gekennzeichnet dadurch, daß das erste und das zweite Empfänger-Array (6, 14) zumindest näherungs weise jeweils senkrecht zum Hauptschnitt angeordnet sind, und die Empfängerfläche des ersten Empfän ger-Arrays zumindest näherungsweise so angeordnet ist, daß diese die Strecke (ASA1) enthält, die auf dem ersten oberen Ast eines Buchstabens Y angeordnet ist, und die Strecke (ASA1) zumindest nähe rungsweise parallel zu einer Geraden (gA1P) angeordnet ist, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symme trieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen zumindest näherungsweise schneidet, so daß die detektierenden Ele mente des erstes Empfänger-Arrays (6) im Hauptschnitt zumindest näherungsweise auf der Strecke (ASA1) angeordnet sind, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die Empfängerfläche des zweiten Empfänger-Arrays (14) zumindest näherungsweise so angeordnet ist, daß diese die Strecke (AS2) enthält, die auf dem zweiten oberen Ast des Buchstabens Y angeordnet ist, und die Strecke (ASA2) parallel zu einer Geraden (gA2P) angeordnet ist, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (33) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen zumindest näherungsweise schneidet, so daß die detek tierenden Elemente des zweites Empfänger-Arrays im Hauptschnitt zumindest näherungsweise auf der Strecke (ASA1) angeordnet sind, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet und so mindestens aus Bildern von Teilen der beiden Empfängerflächen (6) und (14) im Objek traum mindestens ein Paar von zumindest näherungsweise optisch konjugierten Bildern gebildet ist.
179. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit zwei Abbildungsobjektiven, einem ersten (33) und einem zweiten Abbildungsobjektiv (2), wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsobjektivs (33) im Ab stand d vom Pupillenzentrum (PZOA2) des zweiten Abbildungsobjektiv (2) angeordnet ist,
und jedem derselben je ein räumlich strukturiertes Empfänger-Array, zugeordnet ist, so daß ein erstes (106) und ein zweites Empfänger-Array (114) angeordnet sind,
gekennzeichnet dadurch, daß das erste (106) und das zweite räumlich strukturierte Empfänger-Array (114) mindestens je zwei Empfängerflächen auf räumlich getrennten Flächen aufweisen und die Empfän gerflächen des ersten Empfänger-Arrays (106)jeweils so angeordnet sind,
und die Empfängerflächen des zweiten Empfänger-Arrays (114) jeweils so angeordnet sind,
daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindestens von Teilen von Empfängerflächen des ersten Empfänger-Arrays (106) sowie von Teilen der Empfängerflächen des zwei ten Empfänger-Arrays (114) im Objektraum gebildet sind.
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit zwei Abbildungsobjektiven, einem ersten (33) und einem zweiten Abbildungsobjektiv (2), wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsobjektivs (33) im Ab stand d vom Pupillenzentrum (PZOA2) des zweiten Abbildungsobjektiv (2) angeordnet ist,
und jedem derselben je ein räumlich strukturiertes Empfänger-Array, zugeordnet ist, so daß ein erstes (106) und ein zweites Empfänger-Array (114) angeordnet sind,
gekennzeichnet dadurch, daß das erste (106) und das zweite räumlich strukturierte Empfänger-Array (114) mindestens je zwei Empfängerflächen auf räumlich getrennten Flächen aufweisen und die Empfän gerflächen des ersten Empfänger-Arrays (106)jeweils so angeordnet sind,
und die Empfängerflächen des zweiten Empfänger-Arrays (114) jeweils so angeordnet sind,
daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindestens von Teilen von Empfängerflächen des ersten Empfänger-Arrays (106) sowie von Teilen der Empfängerflächen des zwei ten Empfänger-Arrays (114) im Objektraum gebildet sind.
180. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit mindestens je einem Abbildungsobjektiv in jedem Abbildungsstrahlengang, wobei das Pupillenzentrum eines Abbildungsobjektivs eines Abbildungsstrahlenganges mindestens im Abstand d vom Pupillenzentrum eines Abbildungsobjektivs eines anderen Abbildungsstrahlenganges an geordnet ist, und der Abstand d mindestens der Ausdehnung der Öffnungsblende des Abbildungsobjektivs mit der größten Ausdehnung der Öffnungsblende entspricht
und jedem Abbildungsobjektiv mindesten je ein Empfänger-Array mit mindestens zwei detektierenden Element zugeordnet ist,
gekennzeichnet dadurch, daß jedem Empfänger-Array mindestens jeweils ein mikrooptisches Array mit mikrooptischen Elementen zur Beeinflussung der geometrisch-optischen Gegenstandsweite der detektie renden Elemente zum zugehörigen Abbildungsobjektiv zugeordnet ist
und im Objektraum mindestens ein Paar von zumindest näherungsweise koinzidierenden Bildern von je einem Bild eines Elementes der Empfängerflächen je eines Abbildungsstrahlenganges gebildet ist.
von mindestens einer Objektoberfläche (5) in mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit mindestens je einem Abbildungsobjektiv in jedem Abbildungsstrahlengang, wobei das Pupillenzentrum eines Abbildungsobjektivs eines Abbildungsstrahlenganges mindestens im Abstand d vom Pupillenzentrum eines Abbildungsobjektivs eines anderen Abbildungsstrahlenganges an geordnet ist, und der Abstand d mindestens der Ausdehnung der Öffnungsblende des Abbildungsobjektivs mit der größten Ausdehnung der Öffnungsblende entspricht
und jedem Abbildungsobjektiv mindesten je ein Empfänger-Array mit mindestens zwei detektierenden Element zugeordnet ist,
gekennzeichnet dadurch, daß jedem Empfänger-Array mindestens jeweils ein mikrooptisches Array mit mikrooptischen Elementen zur Beeinflussung der geometrisch-optischen Gegenstandsweite der detektie renden Elemente zum zugehörigen Abbildungsobjektiv zugeordnet ist
und im Objektraum mindestens ein Paar von zumindest näherungsweise koinzidierenden Bildern von je einem Bild eines Elementes der Empfängerflächen je eines Abbildungsstrahlenganges gebildet ist.
181. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 180,
gekennzeichnet dadurch, daß das mikrooptische Array als ein Mikroprismen-Array ausgebildet ist.
182. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) 99999 00085 552 0010002800000002000120002857300489000405919938400529 0002019919584 00004 00481in einer mindestens einer Szene nach 180,
gekennzeichnet dadurch, daß das mikrooptische Array als ein Mikrolinsen-Array mit Mikrolinsen unter
schiedlicher axialer Lage ausgebildet ist.
183. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 180,
gekennzeichnet dadurch, daß das mikrooptische Array als ein Mikroprismen-Array Array mit Mikrolinsen
unterschiedlicher Brennweite ausgebildet ist.
mit d als dem Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier auch dem Abstand der parallelen Achsen der beiden Objektive voneinander und mit p als der Gitterkonstanten des beleuchteten Liniengitters, welches als strukturiert leuchtendes Array verwendet wird.Mit einer ebenen und achssenkrechten Referenzplatte kann im Objektraum die Objektphase als die Anzahl der Streifenordnungen zwischen der Geraden gO und der Achse des Beleuchtungsobjektivs, beziehungsweise hier zwischen den beiden optischen Achsen, durch Auszählen von Streifen oder genauer mittels bekannter Phasenschiebetechnik ermittelt werden. Das Problem stellt hier zunächst die Kenntnis der genauen Lage der beiden optischen Achsen in der Anordnung dar. Die hochgenaue Bestimmung der Streifenanzahl zwischen den optischen Achsen kann beim parallelen Verschieben der Referenzplatte in mehreren Schritten - sowohl als Justierkriterium für die Kontrolle der Abweichung von der Parallelität der optischen Achsen der beiden Objektive als auch der achssenkrechten Lage der Referenzplatte - genutzt werden. Bei einer eingemessenen Anordnung mit bekannter Lage der optischen Achsen bzgl. des Sender- und Empfänger-Arrays kann die Referenzphase so auf experimentellem Weg bestimmt werden.Um entlang eines Abbildungsstrahls die zOB-Koordinate eines Objektpunktes zObj zu erhalten, ist in jedem Objektpunkt die lateral invariante, absolute Objektphase ϕObj zu bestimmen, die im weiteren als Objektphase bezeichnet wird. Ein Abbildungsstrahl soll hier im Modell jeweils genau auf ein Pixel der lateral feststehenden Empfängerfläche treffen.Die Objektphase ϕObj eines Objektpunktes wird in Bezug auf eine Referenzfläche bestimmt. Die absolute, lateral invariante Phase der Referenzfläche, die Referenzphase ϕR, wird aus einem als bekannt angenommenen, vorzeichenbehafteten Abstand zOB = ZOR der Referenzfläche mit
errechnet, wobei d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs und p die Gitterkonstante des strukturiert leuchtenden Arrays, beziehungsweise des beleuchteten Gitters, darstellen. Da zOR in die negative Achsrichtung gezählt wird, ergibt sich auch ein negativer Wert für die Referenzphase ϕR. Der Abstand zOR der Referenzfläche wird möglichst genau experimentell ermittelt. In der Regel treffen alle zur Erfassung der Objektoberflächen in der Szene genutzten Abbildungsstrahlen auch auf die Referenzplatte.Der Grundgedanke besteht darin, in jedem Abbildungsstrahl aus der Auswertung des im zugehörigen Bildpunkt eines Referenzpunktes der Referenzplatte über der Phase des Gitters ϕGitter zu beobachtenden modulierten, periodischen Signals und des in einem Bildpunkt eines Objektpunkt über der Phase des Gitters zu beobachtenden modulierten, periodischen Signals die absolute Phasendifferenz ΔϕGitter dieser beiden Signallagen aus der Phase des Gitters zu bestimmen. Dabei wird davon ausgegangen, daß die periodischen Signale eine Modulation mit einem Modulationsmaximum aufweisen. Die Breite dieser Modulationskurve über der Phase des Liniengitters ϕGitter oder dem zugeordneten Verschiebeweg des Liniengitters ist abhängig vom Achsabstand d der beiden Objektivachsen, den Brennweiten der beiden Objektive und der relativen Öffnung der beiden Objektive, beschrieben jeweils durch die Blendenzahl k der beiden Objektive, und den Eigenschaften der Oberfläche hinsichtlich der Lichtstreuung.Die Bestimmung der absoluten Phasendifferenz ΔϕGitter kann so erfolgen, daß der in einem Objektpunkt über der Phase des Gitters zu beobachtende Signalverlauf über der Phase, die aus dem Verschiebeweg des Gitters abgeleitet ist, um genau den Phasenbetrag soweit verschoben wird, daß sich dieser Signalverlauf mit dem im zugehörigen Referenzpunkt der Referenzplatte zu beobachtenden Signalverlauf möglichst genau deckt, d. h. die Korrelation dieser beiden Signalverläufe möglichst hoch ist. Dieser so ermittelte Phasenbetrag entspricht dann der absoluten Phasendifferenz ΔϕGitter als die Differenz der jeweils zu den beiden Signalverläufen zugehörigen absoluten Phase des Liniengitters ΔϕGitter.Dazu wird erstens aus einer Abtastung des Signals über der Phase im Bildpunkt eines Referenzpunktes der relative Referenzphasenwert ϕRR mod 2π bestimmt. Zweitens wird aus einer Abtastung des Signals über der Phase im Bildpunkt eines jeden Objektpunktes der relative Objektphasenwert ϕRObj mod 2π bestimmt. Der relative Referenzphasenwert ϕRR und der relative Objektphasenwert ϕRObj werden dabei jeweils der absoluten Phase des Liniengitters ϕGitter zugeordnet und unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert. So entstehen die absoluten Phasenwerte der Gitterphase ϕGitterR für einen Referenzpunkt und ϕGitterObj für einen Objektpunkt. Mit der Differenz
ΔϕGitter = ϕGitterObj - ϕGitterR (3)
wird die absolute Phasendifferenz ΔϕGitter bestimmt, die einen positiven Wert aufweist, wenn der erfaßte Objektpunkt weiter von der Brennebene als der zugehörige Referenzpunkt entfernt ist. Durch die vorzeichenbehaftete Addition der absoluten Phasendifferenz ΔϕGitter zur experimentell oder konstruktiv abgeleiteten Referenzphase ϕR wird die absolute Objektphase ϕObj dann mit
ΔϕObj = (-)ϕR + ΔϕGitter (4)
bestimmt. Da das Vorzeichen der Phase der Referenzfläche ϕR negativ ist und die Phasendifferenz ΔϕGitter im Betrag stets kleiner ist als Phase der Referenzfläche ϕR, ergibt sich für die absolute Objektphase ϕObj ein negativer Wert. Die Koordinate eines Objektpunktes zOB = zObj kann dann mit der Gleichung
bestimmt werden, die für eine negative absolute Objektphase ebenfalls einen negativen Wert liefert. Dabei stellen d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs, ϕObj die absolute, lateral invariante Objektphase und p die Gitterkonstante des beleuchteten Liniengitters dar.Als Nullebene der 3D-Aufnahme-Anordnung wird die achssenkrechte Ebene für zOB = 0, die Brennebene des Beleuchtungsobjektiv im Objektraum, gewählt. Demzufolge stellt der Brennpunkt FOB des Beleuchtungsobjektivs im Objektraum den Nullpunkt der 3D-Aufnahme-Anordnung dar.Der möglichst genauen Bestimmung der absoluten Phasendifferenz ΔϕGitter in der Phase des beleuchteten Liniengitters ΔϕGitter kommt für das Verfahren eine besonders große Bedeutung zu.Eine weitere Möglichkeit besteht darin, nicht die relativen Phasenwerte im Referenzpunkt-Signal und im Objektpunkt-Signal, sondern die Lage der Orte gleicher Phase im Referenzpunkt-Signal und im Objektpunkt-Signal in Bezug auf die Phase des Liniengitters ϕGitter zu bestimmen, beispielsweise anhand der Orte gleicher Phasenlagen.Grundsätzlich kann auch über ein Längenmeßsystem, welches die Bewegung oder Verschiebung des Liniengitters hochaufgelöst mißt, die Ortsdifferenz der Lagen des Referenzpunkt-Signals und des Objektpunkt-Signals bestimmt werden. Aus der bekannten Gitterkonstante p des Liniengitters kann aus der gemessenen Ortsdifferenz die zugehörige Phasendifferenz ΔϕGitter in bekannter Weise errechnet werden. Dies ist anzuwenden, wenn nur eine einzige Linearführung mit einem Nullpunktgeber verwendet wird, da die phasenmäßige Abtastung des Liniengitters aufgrund des Bewegens desselben mit einer dann auch auftretenden Bewegungskomponente in Richtung der optischen Achse mit einem Gegengitter technisch besonders schwierig ist.Mit der vorzugsweise hochebenen Referenzplatte muß die 3D-Aufnahme-Anordnung in mindestens einer achssenkrechten Positionen eingemessen werden. Aus dem experimentell bestimmten Wert zORexp für die Lage der Referenzplattewird der Wert der Referenzphase ϕR mittels der angegebenen Gleichung (2) errechnet. Die gemessene Verschiebung in zOB-Richtung wird mit dem der durch die 3D-Aufnahme-Anordnung ermittelten zOR-Wert verglichen. So kann die 3D-Aufnahme-Anordnung kontrolliert werden. Bei Abweichungen von der hochgenau gemessenen Verschiebung von der rechnerisch bestimmten liegt für eine in sich gut einjustierte 3D-Aufnahme-Anordnung ein falscher Wert für die Referenzphase ϕR vor. Numerisch wird die Referenzphase verändert bis sich eine möglichst gute Übereinstimmung mit den experimentell bestimmten Verschiebewerten ergibt.Zusammengefaßt gilt: Für die Bestimmung der Objektphase ϕObj im Objektraum wird vorteilhafterweise folgende Bedingung im Gesamt-Abbildungssystem realisiert, die sich aus der parallelen Bewegung des Liniengitters - oder ganz allgemein formuliert aus der parallelen Bewegung der Maxima und Minima der Leuchtdichte auf dem strukturiert leuchtenden Array - zur Geraden gA ergibt: Beim Durchlaufen der beiden koinzidierenden Schärfeflächen von Beleuchtungs- und Abbildungsobjektiv durch die Tiefe des Raumes des Objektes bleibt die beobachtete Phase im Schnittpunkt eines Strahls des Abbildungsobjektivs mit der gemeinsamen Schärfefläche durch die zusätzliche laterale Bewegung des Liniengitters stets konstant, so daß ein gedachter, in einem Strahl des Abbildungsobjektivs in der gemeinsamen Schärfefläche mitlaufender Objektpunkt in der gesamten Tiefe keine Phasenänderung erfährt. Dies wird als "Mitführung der Phase" bezeichnet. Dabei kann die zusätzliche laterale Bewegung des Liniengitters durch eine zweite Linearführung erfolgen oder sich aus der Schrägstellung einer gemeinsamen Linearführung für Sender- und Empfänger-Array ergeben. Andererseits kann diese Bedingung auch durch ein elektronisch gesteuertes Gitter, beispielsweise ein Liniengitter, realisiert werden, indem zusätzlich zum kontinuierlichen Bewegen des Liniengitters in zA-Richtung, die Phasenlage des Liniengitters ebenfalls kontinuierlich verändert wird, indem die Lage der Orte der lokalen Extrema der Leuchtdichte, auf dem elektronisch steuerbaren Liniengitter verändert wird.Dazu ist folgendes zu bemerken: Optisch konjugierte Punkte weisen im Array-raum und im Objektraum betragsmäßig die gleiche absolute Phase auf. Diese absolute Phase kann jeweils als laterale Koordinate verstanden werden. Die absolute Phase leitet sich aus der Beleuchtungssituation ab und kann im Array-raum aus der xAB-Position im Gitterelement GAB bestimmt werden, welches sich im Aufnahmeprozeß auf einer Geraden gA bewegt und bei dieser Bewegung genau den array-seitigen Brennpunkt FAB schneidet. Aus diesem Zusammenhang ergibt sich die absolute Phase im Array-Raum mit
mit xAB1 als der lateralen Koordinate des Durchstoßpunktes der Geraden gA durch das Gitterelement GAB und p als Gitterkonstante des Liniengitters. Im optisch konjugierten Punkt GOB ergibt sich die gleiche absolute Phase wie im Punkt GAB, jedoch mit umgekehrtem Vorzeichen.Weiterhin muß das Empfänger-Array kein Bildempfänger sein, sondern kann nach dem Stand der Technik als Mikrolinsen-Array ausgeführt sein, um eine hohe Tiefenauflösung auf der Basis einer hohen Streifendichte erreichen zu können. Das Mikrolinsen-Array befindet sich im Array-Raum in einer zum strukturiert leuchtenden Array optisch konjugierten Ebene. Wie bekannt, ist dem Mikrolinsen-Array ein weiteres Objektiv nachgeordnet. Dieses Objektivist auf der dem Mikrolinsen-Array zugeordneten Seite möglichst gut telezentrisch ausgeführt. Auf der zweiten Seite des Objektivsbefindet sich der Bildaufnehmer.Auch kann in der Ebene des Empfänger-Arrays ein elektronisch steuerbares, vorzugsweise transmissives Array angeordnet sein. Dabei wird wie folgt vorgegangen: Es erfolgt eine erste Gewinnung einer 3D-Punktwolke mit einer beispielsweise mittleren Transmission in den Array-Elementen. Anschließend wird die Aussteuerung in den Elementen des Bildempfänger kontrolliert und die Transmission elementeweise so eingestellt, daß sich eine geeignete Aussteuerung in den Bildelementen eines nachgeordneten Bildempfängers ergibt. Das elektronisch steuerbare, transmissive Array kann vorzugsweise dem Mikrolinsen-Array zugeordnet sein. Es ist aber auch möglich, daß es dem Bildaufnehmer zugeordnet ist. Auch kann es dem strukturiert leuchtenden Array zugeordnet sein. Letztlich muß die Zuordnung nur zu einer optisch konjugierten Ebene des Empfänger-Arrays erfolgen.Zur Bestimmung der Phasenlage der periodischen Signale in den Bildpunkten des Empfänger-Arrays kommen im einfachsten Fall die bekannten Phasenschiebe-Algorithmen mit 3 bis 5 Intensitätswerten zur Anwendung. Dabei wird die Intensität in den Bildpunkten des Empfänger-Arrays entsprechend der Phasenlage des strukturiert leuchtenden Arrays abgetastet. Möglich ist hier eine Abtastung in diskreten 90°-Phasenschritten. Mit den ausgelesenen Intensitätswerten kann beispielsweise auch die Modulation über der Phase in 90°-Schritten mit den bekannten Elementargleichungen bestimmt werden. Die Auswertung der Phasenlage kann in jeweils 180°-Schritten der Phase des strukturiert leuchtenden Arrays, hier des Liniengitters, erfolgen.Besser für die Genauigkeit der Phasenbestimmung und damit für die Tiefenmeßgenauigkeit sind jedoch Algorithmen, die über eine größere Anzahl von Intensitätswerten, beispielsweise 8, 16 oder 32, die Phase im Signal wie auch den Ort des Modulationsmaximums bestimmen. Das gesamte Know-how der Signalverarbeitung, wie es in der Elektrotechnik bereits bekannt ist, kann hier angewendet werden. Beispiele für die erfolgreiche Applikation derartiger Signalauswertungen sind aus der Weißlicht-Interferenzmikroskopie bekannt. Im allgemeinen werden diese Signalauswertungs-Methoden bei Kurzkohärenz-Methoden angewendet.Da die Gitterkonstante, des strukturiert leuchtenden Arrays vorzugsweise konstant ist, ist die Phasenänderungsgeschwindigkeit bei einer konstanten Bewegung des strukturiert leuchtenden Arrays, ebenfalls konstant. Dies ermöglicht auch das Anwenden der Sub-Nyquist-Abtastung, da hier aufgrund der Kenntnis der Signalfrequenz das bekannte Abtast-Theorem ohne Nachteile verletzt werden kann. Dies reduziert die Anzahl der aufzunehmenden Bilder ganz erheblich, so daß grundsätzlich eine hohe Geschwindigkeit der Bewegung des Liniengitters realisiert werden kann und so eine Hochgeschwindigkeits-Auswertung realisierbar wird. Digitale Filteroperationen sind in der bekannten Art mit den Phasen-Auswerte-Methoden zu kombinieren, bzw. bereits vor der Phasenauswertung durchzuführen. Dieser Sachverhalt wird hier nicht weiter vertieft, obwohl von der optimalen Gestaltung der Algorithmen die Leistungsfähigkeit des gesamten Auswerte-Verfahrens abhängt. Die Ausführung der Rechenoperationen kann dabei mittels spezieller Hochgeschwindigkeits-Prozessoren erfolgen.Es ist vorteilhaft, wenn das strukturiert leuchtende Array, hier das Liniengitter, zusätzlich eine Nullpunktmarke aufweist und die laterale Gitterbewegung mit einem Gegengitter phasenmäßig erfaßt wird. Durch das Positionieren der Referenzplatte im Objektraum in einer bekannten zOB-Position zOB = zOR wird die absolute Phase des Nullpunktes bestimmt. Auch werden die Referenz-Phasen mod 2π als relative Referenzphasen ϕRR durch die Auswertung des Signalverlaufs in den Abbildungsstrahlen im Bereich der scharfen Abbildung der Referenzplatte ermittelt und gespeichert. Bei einem unbekannten Objekt wird durch den Signalverlauf im Schärfebereich des Objektpunktes die zugehörige Phase des Liniengitters ϕGitter an der Stelle im Signalverlauf im Bereich des Maximums der Modulation ermittelt, die der zugehörigen Referenz-Anfangsphase im Bereich des Maximums der Modulation entspricht.Dann kann die Objektphase für jede Ebene in der Entfernung zOB mittels der Phase, die aus der Gitterverschiebung abgeleitet wird, bestimmt werden. Die hochstabile Nullpunktmarke kann als Startpunkt für die laterale Bewegung des Liniengitters dabei so einjustiert werden, daß der Start der Bildaufnahme kurz vor dem Erreichen der scharfen Abbildung der Referenzplatte durch die koordinierte Bewegung von Liniengitter und Bildempfänger beginnt. Auch nach dem Entfernen der Referenzplatte bleibt die Lage der Referenzplatte beim Einmessen jeweils als "die Referenzfläche des 3D-Aufnahmesystems" bis zum neuen Einmessen bestehen.In der vorangegangenen Darstellung wurde davon ausgegangen, daß das Beleuchtungsobjektiv und das Abbildungsobjektiv stets fest angeordnet sind und in sich starre Objektive darstellen, also keine eigene Fokussierung aufweisen, bzw. die gegebenenfalls vorhandene, objektiveigene Fokussierung nicht benutzt wird. Die Brennebenen der Objektive stehen demzufolge fest im Raum. Das Fokussieren im Sinne des Veränderns der Lage der Schärfeflächen im Objektraum erfolgte in der bisherigen Darstellung jeweils über das Bewegen des strukturiert leuchtenden Arrays und des Empfänger-Arrays in einer Komponente parallel zur optischen Achse der Objektive.Im Fall des Veränderns der Lage der Schärfeflächen im Objektraum über die Fokussierung des Objektivs, beispielsweise durch eine interne Fokussierung, wie es dem Stand bei modernen Fotoobjektiven entspricht, muß die Fokussierung elektronisch steuerbar sein, d. h. die Objektive müssen auch eine motorische Fokussierung gestatten. Auch beim Verschieben des gesamten Objektivs zum Zweck der Fokussierung muß eine motorische Verschiebung gewährleistet sein.Da moderne Objektive mit interner Fokussiermöglichkeit durch das Verschieben von massearmen, optischen Komponenten im allgemeinen eine recht schnelle Fokussierung ermöglichen, wird dieser Fall betrachtet.Grundsätzlich kommt es aber bei der erfindungsgemäßen 3D-Aufnahme-Anordnung und dem 3D-Aufnahme-Verfahren jedoch nur darauf an, eine definierte Relativbewegung zwischen den Brennebenen der Objektive und den jeweils zugehörigen Arrays oder den Orten der Extrema der Leuchtdichte auf diesen zu erreichen. Zum Erreichen der Relativbewegung können auch die Brennebenen im Raum bewegt werden, beispielsweise durch eine interne Fokussierung des Objektivs.Ziel ist letztlich die Detektierung eines modulierten cos2-ähnlichen Signals mit einem Modulationsmaximum in den Bildpunkten des Empfänger-Arrays. Die Annäherung an die cos2-Charakteristik wird bekannterweise durch die optische Modulationsübertragungfunktion des Objektivs in der jeweiligen Abbildungssituation unterstützt.Es muß realisiert werden, daß die Bewegung des Punktes des strukturiert leuchtenden Arrays, welcher in der Brennebenenlage des strukturiert leuchtenden Arrays mit dem Brennpunkt des Beleuchtungsobjektivs koinzidiert, auf einer Geraden gA erfolgt. Andere Punkte, bzw. Elemente des strukturiert leuchtenden Arrays bewegen sich auf parallelen Geraden zur Geraden gA. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Array-Raum und Abstand des Brennpunktes vom Abbildungsobjektiv, aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist. Demzufolge bewegt sich die Gerade gA gemeinsam mit der Brennebene des Beleuchtungsobjektivs. Da sich beim internen Fokussieren der Brennpunkt stets auf der Achse des Beleuchtungsobjektivs bewegt, ist zur Realisierung der Bewegung der Elemente des strukturiert leuchtenden Arrays auf einer Geraden gA, noch eine zusätzliche Bewegung des strukturiert leuchtenden Arrays senkrecht zur optischen Achse erforderlich. Bei einem elektronisch steuerbaren Liniengitter wird eine Veränderung der Orte der lokalen Extrema der Leuchtdichte erzeugt. Dies kann auch als eine Bewegung senkrecht zur optischen Achse verstanden werden.Es ist sehr wesentlich für die Genauigkeit des Meßverfahrens, daß die beschriebene Bewegung oder Verschiebung der Brennebene des Beleuchtungsobjektivs sehr genau erfolgt, so daß die Bewegung auf der Geraden gA nur mit möglichst kleinen Lageabweichungen erfolgt. Dies kann mittels eines hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung bewegten optischen Komponenten im Beleuchtungsobjektiv unterstützt werden.Die interne Fokussierung des Abbildungsobjektivs mit einer miniaturisierten Linearführung sollte so erfolgen, daß die Schärfefläche des Abbildungsobjektivs mit der durch das Beleuchtungsobjektiv vorgegebenen Schärfefläche im Objektraum möglichst gut koinzidiert. Möglich ist auch hier die Verwendung eines hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung im Abbildungsobjektiv bewegten optischen Komponenten. Auch ist eine starre Kopplung der bewegten Komponenten der beiden Objektive grundsätzlich möglich.Um die Anforderungen an die Genauigkeit der internen Fokussierung des Abbildungsobjektivs zu verringern, kann das Abbildungsobjektiv etwas stärker abgeblendet werden, da sich dann der Schärfentiefebereich vergrößert. Im Extremfall ist auch eine so starke Abblendung des Abbildungsobjektivs denkbar, daß dann bei einem Objekt mit begrenzter Tiefenausdehnung sowohl auf dessen interne Fokussierung als auch auf eine Bewegung des Empfänger-Arrays - also auf eine Fokussierung im Abbildungsstrahlengang überhaupt - verzichtet werden kann.So wird erfindungsgemäß auch eine Anordnung vorgeschlagen, die mit einem elektronisch steuerbaren Liniengitter als strukturiert leuchtendes Array arbeitet, welches eine Verschiebung der Orte der lokalen Extrema der Leuchtdichte auf dem Empfänger-Array, beziehungsweise bei einer cos2-ähnlichen Leuchtdichteverteilung auf dem strukturiert leuchtenden Array eine Verschiebung der Phasenlage, erzeugt, und das zugehörige Beleuchtungsobjektiv gleichzeitig eine interne Fokussierung aufweist. Dadurch bewegen sich die Orte der Extrema oder die Orte gleicher Phase der Leuchtdichteverteilung auf dem strukturiert leuchtendes Array auch bei der internen Fokussierung auf einer sich im Raum bewegenden Geraden gA.Grundsätzlich ist es möglich, daß die beiden Achsen von Beleuchtungsobjektiv und Abbildungsobjektiv zueinander geneigt sind. Jedoch ist es in diesem Fall von großem Vorteil, wenn der Brennpunkt FOA des Abbildungsobjektivs im Objektraum in der Brennebene des Beleuchtungsobjektivs liegt. Die Lage dieses Brennpunktes FOA definiert den Ort der Geraden gO, die als Bild der Geraden gA definitionsgemäß diesen Brennpunkt FOA enthalten und parallel zur Achse des Beleuchtungsobjektivs liegen muß. Dies führt dazu, daß die Tiefenempfindlichkeit der 3D-Aufnahme-Anordnung in einer zur Achse des Beleuchtungsobjektivs senkrechten Ebene im Objektraum eine Konstante ist, also die Tiefenempfindlichkeit keine laterale Abhängigkeit in der Ebene aufweist.Bei einer gegebenen Anordnung von Beleuchtungs- und Abbildungsobjektiv muß die Richtung der Bewegung der Elemente des strukturiert leuchtenden Arrays parallel zur Geraden gA liegen. Wie bereits dargestellt, ist die Gerade gA dabei so definiert, daß deren Bild im Objektraum, die Gerade gO, den Brennpunkt des Abbildungsobjektivs im Objektraum bei gleichzeitig paralleler Lage zur Achse des Beleuchtungsobjektivs schneidet. Die Anordnung mit zueinander geneigten optischen Achsen der Objektive bringt Vorteile, wenn sich Bereiche des Objektes in besonders geringer Entfernung vom Beleuchtungsobjektiv befinden und diese vom Abbildungsobjektiv bei einer parallelen Anordnung der Objektive nicht mehr aufgenommen werden können. Hierbei ist es von Vorteil, wenn das Abbildungsobjektiv so aus der parallelen Lage herausgedreht ist oder motorisch und rechnergesteuert herausgedreht wird, daß es die Bereiche des Objektes in besonders geringer Entfernung erfassen kann.Weiterhin ist es möglich, daß das Empfänger-Array zusätzlich rechnergesteuert drehbar angeordnet ist, um die Scheimpflugbedingung zu erfüllen, wodurch die Koinzidenz der Schärfeflächen im Objektraum erreichbar ist. Es ist auch möglich, daß die beiden Objektive unterschiedliche Brennweiten aufweisen können, wobei das Abbildungsobjektiv wesentlich kurzbrennweitiger gestaltet ist, wenn sich nur der Brennpunkt des Abbildungsobjektivs in der Brennebene des Beleuchtungsobjektivs im Objektraum befindet.Es ist weiterhin von Vorteil für das Einmessen und Kontrollieren der 3D-Aufnahme-Anordnung, daß eine transparente Platte als permanent verbleibende Referenzplatte achssenkrecht in der Nahdistanz im Objektraum zur Selbsteinmessung zugeordnet ist, wobei auf mindestens einer der beiden Flächen eine schwach lichtstreuende Mikrostruktur aufgebracht ist. Die Mikrostruktur bewirkt eine für die Erfassung der Fläche der Referenzplatte ausreichende Rückstreuung in die 3D-Aufnahme-Anordnung. Die Einmessung kann beliebig oft kontrolliert und gegebenenfalls korrigiert werden, beispielsweise beim Auftreten von Temperaturänderungen. Auch ist es möglich, die Anordnung zu kapseln und thermisch durch eine Temperaturregelung zu stabilisieren, um ein temperaturbedingtes Driften der Phasenlagen zu verhindern. Auch ist zum Einmessen die Verwendung einer Anordnung mit zwei parallel angeordneten transparenten Platten mit Luftspalt im Objektraum möglich, wobei der Luftspalt konstant und dessen Geometrie bekannt ist.Grundsätzlich können die mit einer Referenzplatte gemessenen relativen Phasenwerte ϕRR in einer Rerenzphasen-Matrix abgelegt werden und zur Berechnung der Objektkoordinaten genutzt werden, auch wenn die Referenzplatte bereits wieder entfernt ist.Es ist auch möglich, Verzeichnungen der Objektive und Justierfehler der Anordnung als Phasenbeträge über die Raumkoordinaten zu ermitteln und zu speichern und bei Bedarf zur Korrektur zu verwenden. Die beschriebene Vorgehensweise gestattet grundsätzlich die zeitoptimale Auswertung auf der Basis von straight forward-Algorithmen. Diese Algorithmen können in speziellen Hochgeschwindigkeits-Prozessoren implementiert werden, wodurch eine Echtzeitauswertung von bewegten Objekten und Personen möglich wird.Für ein optimales Signal-Rausch-Verhältnis in den Signalen kann die Helligkeit der Strahlungsquelle in Abhängigkeit von der Position des strukturiert leuchtenden Arrays gesteuert werden. Für die Anpassung an das lateral unterschiedliche Reflexionsvermögen in den einzelnen Objektpunkten kann dagegen in einem elektronisch steuerbaren, strukturiert leuchtenden Array die Lichtintensität pixelweise objektorientiert angepaßt werden. Dabei kann das elektronisch steuerbare strukturiert leuchtende Array lateral bewegt werden, um die Phase zu ändern, aber auch lateral feststehen und elektronisch durch Verschieben der Gitterlinien eine Phasenänderung erzeugen, beispielsweise mit konstanter Phasengeschwindigkeit.Weiterhin kann die Lichtstärke der Objektive verändert werden. Es kann abgeblendet werden, um den Schärfentiefebereich beispielsweise bei schnellen Orientierungsmessungen vergrößern zu können. Dies verringert die Anzahl der notwendigen Bilder, verringert aber auch die Tiefenmeßgenauigkeit. Um dagegen den Schärfentiefebereich verkleinern zu können, werden eine oder zwei Apodisationsblenden angeordnet, eine in der Austrittspupille des Beleuchtungsobjektivs und eine in der Eintrittspupille des Abbildungsobjektivs also jeweils im Objektraum. Diese Blenden sind so gestaltet, daß die achsnahen Strahlen geschwächt oder ausgeblendet werden, um eine stärkere Wirkung der Randstrahlen zu erreichen. Es sind die aus der Spektroskopie bekannten Apodisationsfunktionen, beispielsweise Rechteck, Dreieck- oder Gaußfunktion einsetzbar.Andererseits kann in bestimmten Fällen, beispielsweise für die besonders schnelle 3D-Aufnahme, auch ein Bewegungssystem mit einem rotatorischen Antrieb zur kontinuierlichen, rotatorischen Bewegung eines strukturiert leuchtenden Arrays, vorzugsweise in der Art eines Radialgitters mit mindestens einer Referenzmarke, angeordnet sein, wobei ein Ausschnitt des Radialgittes das Feld des Beleuchtungsobjektivs vollständig ausfüllt. Dem Radialgitter ist ein Gegengitter zur phasenmäßigen Abtastung zugeordnet, welches die Gegenstruktur zur Abtastung enthält, sowie die Beleuchtung, ein Optikmodul und die Auswerte-Elektronik mit Rechnerschnittstelle. Auch auf dem Gegengitter befindet sich außerdem noch eine Referenzmarke für das Gewinnen mindestens eines hochgenauen Nullpunkt-Signals.Weiterhin weist dieses Bewegungssystem eine Linearführung auf, die den rotatorischen Antrieb zur vorzugsweise kontinuierlichen rotatorischen Bewegung des strukturiert leuchtenden Arrays und das Empfänger-Array trägt. Die Bewegungsrichtung der Linearführung liegt parallel zur optischen Achse des Abbildungsobjektivs in zA-Richtung. Durch die Kopplung des Radialgitters mit einem rotatorischen Antrieb wird erreicht, daß das strukturiert leuchtende Array einen kontinuierlichen Lauf erfährt, der durch die phasenmäßige Abtastung hochgenau geregelt werden kann. Bei dieser Lösung tritt wegen der Struktur des Radialgitters eine Variation der Gitterkonstante entlang der Koordinate xA auf. Für Radialgitter mit einem vergleichsweise großen Durchmesser zum Feld des Abbildungsobjektivs ist diese Tatsache in Verbindung mit numerischen Methoden akzeptierbar. Es ist grundsätzlich möglich, für das Beleuchtungs- und das Abbildungsobjektiv rechnergesteuerte Zoom-Objektive einzusetzen, die vorzugsweise jeweils mit der gleichen Brennweiteneinstellung arbeiten.Um vom strukturiert leuchtenden Array weit geöffnete Strahlenbündel ausgehen zu lassen, kann das strukturiert leuchtende Array mit einem speziellen Mikrolinsen-Array gekoppelt sein, beispielsweise kann dieses Mikrolinsen-Array dem strukturiert leuchtendes Array in Lichtrichtung vorgeordnet sein. Es ist auch möglich, das strukturiert leuchtende Array selbst als Zylinderlinsen-Array hoher Apertur auszuführen.Die Kontrolle der Parallelität der optischen Achsen der beiden Objektive kann mit Hilfe des Vergleichs der Phasenlagen zwischen der Phase des am strukturiert leuchtenden Array abgenommenen Signals und der Phase, die im Signal in einem Bildpunkt auf der optischen Achse des Abbildungsobjektivs detektiert werden kann, erfolgen, wenn eine Referenzplatte dabei in der Tiefe verschoben wird und der Verschiebeweg dabei gemessen wird.Es ist mit einem elektronisch gesteuerten, strukturiert leuchtenden Array möglich, die durch Telezentriefehler des Beleuchtungsobjektivs beim Tiefen-Scannen auftretenden Phasenfehler durch Dehnen oder Stauchen des elektronisch gesteuerten strukturiert leuchtenden Arrays auszugleichen.Für das Einmessen und Kontrollieren der Tiefenempfindlichkeit der Anordnung kann eine Stiftplatte verwendet werden. Die Stifte sind sehr präzise und fest an einer Trägerplatte in einem bekannten Raster befestigt und weisen bezogen auf die Trägerplatte zwei unterschiedliche, aber bekannte Stiftlängen auf. Die Abstände der Stifte sind so groß gewählt, daß in einem bestimmten Entfernungsbereich der Platte von der Anordnung auf den Stirnflächen der Stifte keine Abschattung auftritt. So werden zwei Ebenen mit einem sehr genau bekannten Abstand dargestellt. Dieser Abstand kann mit einer hochgenauen Koordinaten-Meßmaschine vermessen werden. In verschiedenen Abständen der Platte von der Anordnung kann so die Tiefenempfindlichkeit dieser Anordnung, aber auch die Verzeichnungen der Objektive bestimmt werden.Um sehr große Objekte teilweise oder rundum vermessen zu können, wird aus einer größeren Zahl von 3D-Aufnahme-Anordnungen ein Schirm aufgebaut. Dieser Schirm kann näherungsweise die Grobform des zu vermessenden Objektes, beispielsweise die Form einer kompletten Automobilkarosserie, aufweisen. Die erfaßten Objekträume der 3D-Aufnahme-Anordnungen überdecken sich teilweise. Das Einmessen kann durch mehrere Referenzkörper, auch Planplatten, gegebenenfalls mit Marken erfolgen, die gleichzeitig von zwei 3D-Aufnahme-Anordnungen im Überdeckungsbereich erfaßt werden.Auch ist es möglich, daß mehrere 3D-Aufnahme-Anordnungen nebeneinander so positioniert sind, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt mit einer jeweils andersfarbigen Strahlungsquelle ab. Dann beleuchten beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt mit rotem Licht und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt mit grünem Licht. Im Abbildungsstrahlengang der 3D-Aufnahme-Anordnungen befinden sich entsprechend schmalbandige Filter, die nur das Licht der eigenen Strahlungsquelle passieren lassen. Denkbar sind auch mehrere Lichtfarben, wodurch mehr als zwei 3D-Aufnahme-Anordnungen den gleichen Teil des Objektes erfassen können.Weiterhin können mehrere Beleuchtungsobjektive einem Abbildungsobjektiv zugeordnet sein, beispielsweise zwei. Dabei kann jedem Beuchtungsobjektiv eine andersfarbige Strahlungsquelle zugeordnet sein, beispielsweise dem ersten eine rote und dem zweiten eine grüne. Dem Abbildungsobjektiv ist ein mechanisch oder elektronisch schaltbares Filter zugeordnet, um jeweils nur Licht einer einzigen Strahlungsquelle auf den Bildempfänger gelangen zu lassen.Andererseits kann auch eine farbtüchtige Kamera angeordnet sein, um gleichzeitig das strukturierte Licht aus den beiden Beleuchtungsobjektiven getrennt zu verarbeiten. So können verschiedene Beleuchtungsrichtungen im Objektraum realisiert werden, um beispielsweise direkte Reflexe von einem speziellen Objektdetail wenigstens bei einer Aufnahme nicht auftreten zu lassen. Auch werden die Schatten der jeweils anderen Aufnahme ausgeleuchtet und so können auch diese Objektteile sichtbar gemacht werden.Möglich ist Trennung der Bilder von verschiedenen Beleuchtungsobjektiven auch mittels drehbarer Polarisatoren und der Verwendung von polarisiertem Licht.Für die Farb-Aufnahmetechnik mit farbsensitiven Bildaufnehmern kann wie folgt vorgegangen werden:
Die Beleuchtung des Objektes oder der Szene erfolgt vorzugsweise mit weißem Licht und mehrere 3D-Aufnahme-Anordnungen sind so positioniert, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereich oder Winkel-Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung der mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt zu jeweils unterschiedlichen Zeiten ab. Zu diesem Zweck sind alle 3D-Aufnahme-Anordnungen von einer Leitstelle aus synchronisiert, so daß das Aufnehmen von Bildern auch synchron erfolgt. Dann erfassen beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt im Hinlauf der bewegten Arrays und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt im Rücklauf der bewegten Arrays und die Objekte sind nur beleuchtet, wenn jeweils die Aufnahme von Bildern erfolgt.Bei Verwendung einer farbtüchtigen Kamera als Bildaufnehmer sind vorzugsweise die jeweils zusammengehörenden farblich sensitiven Elemente, auch als RGB-Sensoren bekannt, linienförmig und in Richtung der Streifen des Liniengitters, also auf Linien gleicher Phase, angeordnet. Dadurch wird erreicht, daß es keine farblich bedingten Phasenlagen in den Signalen gibt. Dagegen kann die Phase zwischen den RGB-Sensoren objektbedingt durchaus verschieden sein.Weiterhin ist es auch möglich, daß ein Roboterarm eine einzige 3D-Aufnahme- Anordnung über das Objekt führt und die Daten nacheinander eingelesen werden. Durch Überdeckung der erfaßten Bereiche der Objektoberfläche erfolgt ein "Weiterhangeln" über die Objektoberfläche, welches grundsätzlich ohne das Vorhandensein von Bezugsmarken auf der Objektoberfläche möglich ist. Die jeweils erfaßten Objekträume werden numerisch zusammengesetzt.Das Abbildungsobjektiv kann fest angeordnet sein. Dabei ist mindestens ein Beleuchtungsobjektiv gemeinsam mit dem strukturiert leuchtenden Array und der kompletten Beleuchtungsanordnung um das Abbildungsobjektiv drehbar oder schwenkbar angeordnet, wobei vorteilhafterweise die optische Achse des Abbildungsobjektivs die Drehachse für das Beleuchtungsobjektiv darstellen kann. Damit ist eine Beleuchtung des Objektes aus verschiedenen Richtungen möglich, um Schatten zu eliminieren. Die Drehbewegung wird rechnergesteuert.Auch ist es möglich, daß sich vor der 3D-Aufnahme-Anordnung ein schwenkbarer Planspiegel befindet, der in den Strahlengang geschwenkt werden kann und so eine fest angeordnete Referenzplatte vermessen und nach erfolgter Vermessung der Planspiegel zurückgeschwenkt wird.Vorteilhaft ist es, wenn zu Beginn eines 3D-Aufnahmeverfahrens in einem Bildaufnahmevorgang ein erster Datensatz gewonnen und gespeichert wird und die errechneten Objektpunkte eliminiert werden, die eine Abweichung vom Modulationsmaximum aufweisen. Anschließend kann das strukturiert leuchtende Array um einen Bruchteil der Gitterperiode verschoben werden und mindestens ein zweiter Datensatz aufgenommen und gespeichert wird, wobei die errechneten Werte ebenfalls eliminiert werden, die sich nicht in unmittelbarer Lage des Modulationsmaximums befinden. Aufgrund der durch die Gitterverschiebung im Bruchteil der Gitterperiode erfolgten Phasenänderung sind die errechneten Objektpunkte der ersten Messung mit denen der zweiten Messung nicht identisch, so daß eine vollständige Erfassung der Mehrzahl der Objektpunkte erreicht wird. Vorzugsweise entspricht die beschriebene Verschiebung des strukturiert leuchtenden Arrays dem Betrag der viertel Gitterperiode. Im folgenden werden weitere Merkmale des Verfahrens und der Anordnung zur 3D-Aufnahme von Objekt oberflächen in Szenen dargestellt.Weiterhin ist in einem Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene mindestens eine elektromagnetischen Strahlungsquelle angeordnet und die Strahlungsquelle ist mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausgebildet.Dabei leuchtet mindestens ein Flächenelement, so daß mindestens ein leuchtendes Flächenelement ge bildet ist. Dabei ist jedes leuchtende Flächenelement FELj des strukturiert leuchtenden Arrays selbst, oder deren Bilder, in einer Leuchtdichteverteilung durch eine zumindest näherungsweise vorbestimmte Leuchtdichte und durch einen zumindest näherungsweise vorbestimmten Ort definiert, welches im weite ren als leuchtendes Flächenelement FELj bezeichnet wird. Der Begriff "Leuchten" wird hier als das Ab strahlen von elektromagnetischer Strahlung verstanden.Das strukturiert leuchtende Array kann auch als ein Sender-Array und die leuchtenden Flächenelemente FEL können als Senderelemente dieses Sender-Arrays verstanden werden. Weiterhin kann das struktu riert leuchtende Array dabei ein Array aus äquidistanten steuerbaren Mikro-Lichtquellen, beispielsweise Mikro-Laser oder auch Mikro-Leuchtdioden darstellen. So ist es auch möglich, ein strukturiert leuchtendes Array beispielsweise mit vertikal abstrahlenden Laserdioden zu erzeugen, die mittels eines Rechners, auch einzeln, angesteuert werden. Beispielsweise kann ein leuchtendes Flächenelement FELj so das 100fache der mittleren Leuchtdichte des Arrays aufweisen, also vergleichsweise intensiv leuchten.Die Strahlungsquelle kann aber auch als eine flächige und unstrukturierte Strahlungsquelle einem struktu rierten Array, welches ein Transmissions- oder ein Reflexionsgitter darstellen kann, vorgeordnet sein. So kann ebenfalls ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte realisiert werden. In jedem Fall stellen die leuchtenden Bereiche des strukturiert leuchtenden Arrays selbst, ein schließlich deren Bilder, leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung mit einer zu mindest näherungsweise vorbestimmten Leuchtdichte in Bezug zur mittleren Leuchtdichte der Leuchtdich teverteilung im strukturiert leuchtenden Array dar.Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an geordnet, welches mindestens einem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordnet ist. So wird eine Abbildung des mindestens einen leuchtenden Flächenelementes FELj reali siert und die Objektoberflächen können zumindest zu einen einzigen Zeitpunkt strukturiert beleuchtet wer den.Es ist weiterhin möglich, daß durch die Überlagerung von kohärenten Lichtbündeln auf den Objektoberflä chen in der Szene eine strukturierte Beleuchtung auf der Basis der Interferenz elektromagnetischer Wel len erzeugt wird. Vorzugsweise können zwei kohärente Lichtbündel zur Interferenz gebracht werden. Vor zugsweise können diese zumindest näherungsweise Ausschnitte aus Kugelwellen darstellen, und es kann ein Streifenmuster gebildet werden. Die Lage der Streifen kann durch die Änderung des optischen Gangunterschiedes zwischen den kohärentem Lichtbündeln verändert werden.Weiterhin ist mindestens ein Abbildungsstrahlengang für die Abbildung von Elementen der mindestens ei nen Objektoberfläche und mindestens ein Empfänger-Array mit mindestens zwei Elementen und minde stens einem dem Empfänger-Array zugeordneten Abbildungsobjektiv angeordnet. Dabei detektieren Ele mente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elementen der mindestens einen beleuchteten Objektoberfläche im Objektraum.Weiterhin werden von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebil det. Die Elemente der mindestens einen Objektoberfläche werden mit mindestens einem Abbildungsob jektiv abgebildet. Mindestens ein leuchtendes Flächenelement FELj des strukturiert leuchtenden Arrays kann eine Verschiebung erfahren. Durch die Abbildung des mindestens einen leuchtenden Flächenele mentes FELj mit dem mindestens einen Beleuchtungsobjektiv wird ein Bild mindestens eines leuchtenden Flächenelementes FELj im Objektraum mit einem geometrisch-optischen Schärfevolumen gebildet.Das Empfänger-Array kann auch einen Film oder eine Platte mit einer Beschichtung darstellen, die für Röntgen-, UV-, VIS- oder IR-Strahlung sensibilisiert ist, und gerastert ausgelesen wird. Die Verwendung eines Targets, welches für UV-, VIS- oder IR-Strahlung empfindlich gemacht ist, ist ebenfalls möglich.Die Detektion von elektromagnetischer Strahlung von den Elementen der mindestens einen Objektober fläche durch die Elemente des Empfänger-Arrays erfolgt mindestens in einem Zeitbereich ΔtB, in welchem auch die Verschiebung mindestens eines leuchtenden Flächenelementes FELj des strukturiert leuchten den Arrays durchgeführt wird, wobei jeweils mindestens ein Signalwert gewonnen wird.Dabei wird innerhalb des Zeitbereichs ΔtB mindestens mit einem leuchtenden Flächenelement FELj des strukturiert leuchtenden Arrays eine zumindest näherungsweise vorbestimmte Verschiebung durchge führt, - einschließlich einer vorbestimmten optischen Verschiebung desselben als Ergebnis einer geome trisch-optischen Weglängenänderung - und so sendet mindestens ein leuchtendes Flächenelement FELj zu unterschiedlichen Zeitpunkten an mindestens zwei unterschiedlichen Orten elektromagnetische Strah lung aus.Dabei werden das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten, leuchten den Flächenelementes FELj des mindestens einen strukturiert leuchtenden Arrays, wobei dieses Schär fevolumen im Objektraum gebildet ist, und das Schärfevolumen mindestens eines Bildes mindestens ei nes vorbestimmten Elementes des Empfänger-Arrays, wobei dieses Schärfevolumen ebenfalls im Objekt raum gebildet ist, und mindestens ein Element der mindestens einen Objektoberfläche zumindest nähe rungsweise einmal aufgrund der Durchführung der vorbestimmten Verschiebung mindestens eines vor bestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays mit zumindest einer Verschiebungskomponente in zA-Richtung im Array-Raum, also mit einer Verschiebungskomponente parallel zur optischen Achse des Beleuchtungsobjektivs, zur Koinzidenz gebracht. So wird im Objektraum zumindest einmal und zumindest näherungsweise die Koinzidenz des Schärfevolumens eines Bildes ei nes vorbestimmten, feuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und des Schärfevolumes eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays und mindestens ei nes Elementes der mindestens einen Objektoberfläche erzeugt. Beim Auftreten der Koinzidenz erfährt zumindest das an dieser Koinzidenz beteiligte Element des Empfänger-Arrays zumindest einmal eine zeit lich veränderte Bestrahlung gegenüber dem Fall der Nichtkoinzidenz und so detektiert dieses Element des Empfänger-Arrays zumindest einmal ein verändertes Signal. So werden durch die Realisierung der Verschiebung nach und nach Elemente der mindestens einen Ob jektoberfläche gleichzeitig zur Koinzidenz mit dem Schärfevolumen eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und dem Schärfevolumen eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays gebracht. Jeweils beim Auftreten der Koin zidenz erfährt das an dieser Koinzidenz jeweils beteiligte Element des Empfänger-Arrays zumindest ein mal eine zeitlich veränderte Bestrahlung und so detektiert dieses Element des Empfänger-Arrays zumin dest einmal ein verändertes Signal.Ein leuchtendes Flächenelement kann fest an eine geometrische Struktur eines Körpers gebunden sein, beispielsweise an ein Transparenzmaximum auf einem verschiebbaren Transmissionsgitter in Verbindung mit einer vorgeordneten Strahlungsquelle.Die feste Kopplung an eine geometrische Struktur eines Körpers muß jedoch nicht sein, denn in einem elektronisch steuerbaren, strukturiert leuchtenden Array, mit zwei Flächenelementen kann sich das leuchtende Flächenelement FELj zu jeweils unterschiedlichen Zeitpunkten sowohl am Ort des ersten, als auch am Ort des zweiten Flächenelementes befinden.Es ist aber auch grundsätzlich in der beschriebenen Anordnung und nach dem beschriebenen Verfahren möglich, daß ein strukturiert leuchtendes Array mit mehreren fest angeordneten leuchtenden Flächenele menten FELj in einer räumlichen vorbestimmten Struktur aufgebaut ist. Im Objektraum entstehen nach Abbildung der fest angeordneten leuchtenden Flächenelementen FEL durch das Beleuchtungsobjektiv an verschiedenen Orten Bilder der fest angeordneten leuchtenden Flächenelementen FEL. In der 3D-Auf nahme-Anordung ist in den optisch konjugierten Orten im Array-Raum des Abbildungobjektivs jeweils mindestens ein Element eines Empfänger-Arrays angeordnet. Bei der exakten Positionierung eines Objek tes im Objektraum, welches genau dort Elemente der Objektoberfläche aufweist, wo sich genau ein Bild der leuchtenden Flächenelemente FEL befindet, detektieren die Elemente des Empfänger-Arrays jeweils einen Signalwert oberhalb eines Schwellwertes.Für die Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Positionen der Bilder der leuchtenden Flächenelemente FEL im Objektraum nach der Newtonschen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs in der 3D- Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs bestimmt und realisiert. Die Ver schiebung erfolgt dabei zum einen vorzugsweise mit konstanter Geschwindigkeit. Andererseits kann die Gegenstandsweite des strukturiert leuchtenden Arrays auch sprunghaft verändert werden.Aus dem Datensatz von einer bekannten Soll-Objektoberfläche kann ein strukturiert leuchtendes Array mit mehreren fest angeordneten leuchtenden Flächenelementen FEL in einer räumlichen Struktur gestaltet werden. Eine 3D-Aufnahme-Anordnung kann mit diesem speziellen, strukturiert leuchtenden Array zur Prüfung von massenhaft gefertigten Ist-Objektoberflächen bei entsprechend genauer Positionierung in der beschriebenen 3D-Aufnahme-Anordnung eingesetzt werden. In diesem Fall erfolgt keine physische Ver schiebung der leuchtenden Flächenelementen FELj im Array-Raum, sondern nur eine parallele Detektion durch die Elemente des Empfänger-Arrays. Dieses Verfahren kann mit einer außerordentlich hohen Ge schwindigkeit durchgeführt werden. Die Begrenzung liegt in der Regel bei der Positionierung. Es ist grundsätzlich eine Prüfung von Objektoberflächen von Werkstücken im Flug oder im freien Fall möglich. Um für das Verfahren zur 3D-Aufnahme einen großen Tiefenschärfebereich bei der Abbildung von Ob jektoberflächen in einer Szene zu erreichen, können die Orte bestimmter relativer Leuchtdichte der struk turierten, leuchtenden Fläche und so auch die Orte lokaler Extrema der Leuchtdichte im Array-Raum auf Bahnkurven verschoben werden. Das strukturiert leuchtendes Array kann ein elektronisch steuerbares, strukturiert leuchtendes Array, beispielsweise ein LCD mit einer vorgeordneten Strahlungsquelle sein, welches durch ein Bewegungssystem geradlinig verschoben wird. Es kann durch die elektronisch gesteu erte laterale Verschiebung der lokalen Extrema der Leuchtdichte auch eine definierte Abweichung der Bahnkurven von der Geradheit erzeugt werden, beispielsweise durch die Verschiebung von transparenten Linien eines sehr feinstrukturierten LCDs mit einer sehr großen Anzahl von Elementen beispielsweise in der Größenordnung 106. So kann die zA-abhängige Verzeichnung des Beleuchtungsobjektivs oder die systematische Abweichung von der Geradlinigkeit des Bewegungssystem so beeinflußt werden, daß sich bei der Verschiebung des strukturiert leuchtenden Arrays die Bilder der Bahnkurven im Objektraum Bah nen mit einer sehr geringen Abweichung von der Geradheit, also Strecken darstellen.Die Bahnkurven können dabei so r 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880ealisiert werden, daß nach deren Abbildung mit dem Beleuchtungsob jektiv aus deren Bildern zumindest näherungsweise im Objektraum ein erstes Streckenbüschel SB1 mit einem Konvergenzpunkt K1 der Strecken gebildet werden kann. Diese Strecken können im Objektraum als Spuren von nacheinander abgebildeten Lichtpunkten verstanden werden, beispielsweise als die ver schobenen Extrema der Leuchtdichte bei einem beleuchtetem Liniengitter im Transparenzmaximum oder die Spur eines Bildes eines beleuchteten Spaltes. Die Spuren der Lichtpunkte können im Objektraum auf einer Objektoberfläche beobachtet werden, wenn das Bild eines Lichtpunktes und der beobachtete Punkt der Objektoberfläche zumindest näherungsweise koinzidieren. Durch den Triangulationseffekt kann bei der Verschiebung des Bildes eines leuchtenden Flächenelementes FELj und des mit diesem koinzidie renden Bild eines Elementes des Empfänger-Arrays ein laterales Auswandern des Bildes des Lichtpunk tes beobachtet werden. Die Ablage von der Ausgangsposition nimmt mit zunehmender Abweichung des beleuchteten Bereiches der Objektoberfläche vom aktuellen Koinzidenzpunkt der beiden Bildern zu, wobei das Element des Empfänger-Arrays ein zunehmend unscharfes Bild des leuchtenden Flächenelementes FELj detektiert, beziehungsweise ein in der Regel ebenfalls unscharfes, leuchtendes Flächenelement FELj+1 in der Nachbarposition von dem ersten leuchtenden Flächenelement FELj auf dem strukturiert leuchtenden Array. Dabei erfolgt die Abbildung des leuchtenden Flächenelementes FELj stets über die Objektoberfläche. Im Falle eines einzelnen leuchtenden Flächenelementes FELj registriert das zugehöri ge Element eines Empfänger-Arrays eine geringere Lichtintensität, so daß beim Abbilden eines einzelnen Lichtspaltes sich ein Signalverlauf mit einer Veränderung der Signalintensität, beispielsweise auch ein Si gnalverlauf mit einem Extremum - in der bereits beschriebenen dreifachen Koinzidenzsituation, ergibt.Dieses Verfahren ermöglicht in einem vorbestimmten Verschiebungsvorgang des strukturiert leuchtenden Arrays und so auch der leuchtenden Flächenelemente FEL in einer Verschiebungsrichtung mit einer Komponente in zA-Richtung, also auch mit einer Komponente parallel zur optischen Achse des Beleuch tungsobjektivs, eine eindeutige Aussage über das Vorhandensein eines Elementes der Objektoberfläche an einem vorbestimmten Ort im Objektraum. Dabei wird der Betrag in zA-Richtung so gewählt, daß die Schärfefläche den Objektraum von einem Nahbereich, welcher der Fläche Fmin entspricht, beispielsweise in der zehnfachen Brennweite des Beleuchtungsobjektivs, bis zu einem Fernbereich, welcher der Fläche Fmax entspricht, beispielsweise in einer Entfernung von der 3D-Aufnahmeanordnung der 100fachen Brennweite, nach und nach durch eine vorbestimmte, beispielsweise eine elektronisch gesteuerte Ver schiebung der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays durchwandert. Da bei liegt der Betrag der Verschiebung der leuchtenden Flächenelemente FEL vorzugsweise in der Größe eines Zehntels der Brennweite des Beleuchtungsobjektivs.Dieses Verfahren wird mit der Gesamtheit der leuchtenden Flächenelemente des strukturiert leuchtenden Arrays und der Gesamtheit der Elemente des Empfänger-Arrays für die Gesamtheit der Elemente der Objektoberflächen im Erfassungsvolumen der 3D-Aufnahmeanordnung durchgeführt.Durch mehrfaches Detektieren und Auslesen während des Verschiebungsvorganges von mindestens ei nem vorbestimmten Element des Empfänger-Arrays kann eine Interpolation zur Verbesserung der Genau igkeit der Bestimmung des Ortes eines erfaßten Elementes der Objektoberfläche durchgeführt werden.Die Öffnungsblende des Abbildungsobjektiv kann hierbei vorzugsweise vergleichsweise klein gemacht sein, beispielsweise kann die relative Öffnung 1 : 22 betragen, so daß das Schärfevolumen des Bildes der Elemente des Empfänger-Arrays eine vergleichsweise große Tiefe besitzt, beispielsweise in der Form ei nes langen Ausschnittes aus einer schlanken Pyramide - bei einem Element mit einer quadratischen Flä che.Die Größe des Schärfevolumens ist im Objektraum von der Entfernung vom zugehörigen Objektiv ab hängig. Bei der Abbildung eines Elementes des Empfänger-Arrays in den Objektraum soll es einen Tie fenbereich aufweisen, in welchem das Bild eines Elementes des Empfänger-Arrays aufgrund der geome trisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert - gegenüber der idea len geometrisch-optischen Abbildung. So weist das Schärfevolumen nach dieser Definition an einem Punkt des Objektraum im Mittel die zweifache Fläche eines Bildes eines Elementes des Empfänger- Arrays auf. Der Tiefenbereich ergibt sich dann als der Bereich, in dem die Bildfläche eines Elementes des Empfänger-Arrays sich unschärfebedingt nicht größer als verdoppelt darstellt.Dagegen kann das Beleuchtungsobjektiv eine vergleichsweise große relative Öffnung besitzen. Bei spielsweise kann die relative Öffnung 1 : 2,0 betragen. Dadurch kann das Schärfevolumen des Bildes von leuchtenden Flächenelementen FEL eine vergleichsweise geringe Tiefe aufweisen, beispielsweise in der Form eines kurzen Ausschnittes aus einer Pyramide.Das Schärfevolumen soll bei der Abbildung eines leuchtenden Flächenelementes FELj in den Objektraum einen Tiefenbereich aufweisen, in welchem das Bild von leuchtenden Flächenelementen FEL aufgrund der geometrisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert. Es gilt das gleiche Kriterium. Bei einem linienförmigen, leuchtenden Flächenelement FELj kann eine Verdoppelung der Breite des Bildes des linienförmigen, leuchtenden Flächenelementes FELj als Unschärfe-Kriterium angenommen werden. So weist ein Schärfevolumen an einem Punkt des Objektraum im Mittel die zweifa che Fläche eines Bildes eines leuchtenden Flächenelementes FELj. Der Tiefenbereich ergibt sich dann auch hier als der Bereich, in dem die Bildfläche eines Elementes des Empfänger-Arrays sich nicht größer als verdoppelt darstellt.Die exakte Definition des jeweiligen Schärfevolumens spielt jedoch hier für die Gewinnung der 3D- Punktwolke keine Rolle, da von der Definition des Schärfevolumens keine Rechenvorschrift abgeleitet wird.Bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes FELj im Array-Raum bewegt sich im hier dargestellten Fall das Schärfevolumen jeweils eines Bildes eines leuchtenden Flächenelemen tes FELj im Schärfevolumen jeweils eines Bildes eines Elementes des Empfänger-Arrays. So kann sich in diesem Fall ein Element der Objektoberfläche permanent im Schärfevolumen eines Bildes eines Empfän gerelementes befinden. Jedoch erst bei der Koinzidenz des Schärfevolumens des Bildes eines leuchten den Flächenelementes mit einem Element der Objektoberfläche erfolgt eine strukturierte Beleuchtung die ses Elementes der Objektoberfläche. So kann durch das - bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes FELj - mehrfach ausgelesene Element eines Empfänger-Arrays bei spielsweise ein Signalverlauf mit einem relativen Maximum zum Zeitpunkt der Koinzidenz detektiert wer den.Die vorbestimmte Verschiebung der leuchtenden Flächenelemente FELj kann elektronisch gesteuert er folgen. Um die mechanische Bewegung des strukturiert leuchtenden Arrays zu vermeiden, können die Orte der lokalen Extrema der Leuchtdichte der strukturierten, leuchtenden Fläche jeweils Verschiebungen auf Bahnkurven im Array-Raum erfahren, die sich aus der elektronisch gesteuerten Veränderung der opti schen Weglänge im Array-Raum und der elektronisch gesteuerten Verschiebung der lokalen Extrema der Leuchtdichte auf dem strukturiert leuchtendes Array ergeben. Zusätzlich kann auch eine elektronisch ge steuerte Veränderung der optischen Weglänge im Raum vor dem Empfänger-Array durchgeführt werden, die zu scheinbaren Verschiebungen der sensitiven Elemente des Empfänger-Arrays entlang von Bahn kurven führen.Weiterhin kann vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der De tektion von Licht in einem Zeitbereich ΔtB zumindest näherungsweise auf je einer Verschiebungsstrecke VSBAj relativ zum Beleuchtungsobjektiv verschoben werden. Durch das Beleuchtungsobjektiv kann dieses leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf eine vorherbestimmte Strecke im Objektraum BSOj abgebildet werden.Der Ort des Bildes des leuchtenden Flächenelementes FELj wird dabei auf der Strecke BSOj nach und nach verändert und so wird das Bild des leuchtenden Flächenelementes FELj mit einer zumindest nähe rungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach durch den Objektraum verschoben. Bei der Verschiebung je eines leuchtenden Flächenelementes FELj werden mehrfach nach einander Signalwerte aus Elementen des Empfänger-Arrays ausgelesen und so wird ein Signalverlauf gebildet, wobei der Ort des jeweils ausgelesenen Elementes des Empfänger-Arrays verändert wird. Die Orte der ausgelesenen Elemente des Empfänger-Arrays liegen auf einer Strecke ASAj und das Bild dieser Strecke ASAj, die Strecke ASOj, ist mit der vorherbestimmten Strecke BSOj der Bilder der leuchtenden Flächenelemente FEL im Objektraum optisch konjugiert. So kann je ein Bild eines Elementes des Emp fänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj zumindest zu einem Zeit punkt ti innerhalb des Zeitintervalls Δti im Zeitbereich ΔtB im Objektraum zur Koinzidenz gebracht sein und so wird je ein Paar mit wechselnden Bildern erzeugt, wobei dieses Paar nach und nach durch den Objek traum geschoben wird. So ist gegeben, daß je ein Schärfevolumen des Bildes eines leuchtenden Flä chenelementes des strukturiert leuchtenden Arrays und je ein Bild eines Elementes des Empfänger- Arrays mit je einem Flächenelement der Objektoberfläche einmal im Verschiebungsvorgang innerhalb ei nes Zeitbereich ΔtB zusammenfallen, wenn sich ein Element der Objektoberfläche auf dem Abbildungs strahl zwischen den Bildern der beiden Flächen Fmin und Fmax im erfaßten Bereich des Objektraum es be findet. Die ausgelesenen Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz einen veränderlichen Signalverlauf vorzugsweise mit mindestens einem relativen Extremum der Signal größe, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zei tintervall Δti im Zeitbereich ΔtB zeitlich eingepaßt werden kann.Vorteilhaft kann auch ein einem mechanisch feststehendem Empfänger-Array verwendet werden, bei spielsweise eine CCD-Kamera, die nicht senkrecht zur optischen Achse des Abbildungsobjektivs steht. Dies ermöglicht ausgewählte Elemente der Objektoberflächen aus unterschiedlichen Tiefen des Objek traum scharf abzubilden. Es kann auch ein räumlich strukturiertes Empfänger-Array eingesetzt werden.Dieser Ansatz ist besonders für kleine oder für flache Meßvolumina mit geeignet. Vorzugsweise kann das leuchtende Array auch einen beleuchteten Einzelspalt darstellen. Andererseits kann beispielsweise auch ein Direct Mirror Device oder einem LCD-Array als steuerbares Array in Verbindung mit einer im Beleuch tungsstrahlengang vorgeordneten Lichtquelle eingesetzt werden.Ein beleuchteter Einzelspalt kann beispielsweise linear verschobenen werden. Der Abbildungsstrahl, wo bei die Lage dieses Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwerpunk tes des gerade ausgelesenen Elementes des Empfänger-Arrays und den Ort des Zentrums der Öff nungsblende des Abbildungsobjektivs bestimmt ist, wandert dabei zunächst über die nicht vom Bild des Lichtspaltes beleuchteten Flächenelemente der Objektoberfläche. Der Lichtspalt wird erst in der Koinzi denzsituation vom Bild des leuchtendem Flächenelementes, vom Bild des Elementes des Empfänger- Arrays und vom Element der Objektoberfläche vom Element des Empfänger-Arrays detektiert. Jedoch fällt je ein Bild eines leuchtenden Flächenelementes FELj, z. B. ein Spaltbild, stets mit dem Bild eines Elemen tes des Empfängers für das Zeitintervall Δti zusammen, sozusagen immer in der "Erwartung" der Objekto berfläche. Im nächsten Zeitintervall Δti+1 kommt das nächste Element des Empfängers mit einem Bild ei nes leuchtenden Flächenelementes zur "Paarbildung". So bildet ein bestimmtes leuchtendes Flächenele mentes FELj mit Bildern wechselnder Elemente des Empfänger-Arrays für das Zeitintervall Δti jeweils ein Paar, wobei durch die getrennten Pupillen des Beleuchtungsobjektivs und des Abbildungsobjektivs ein Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem Hauptabbildungstrahl besteht, so daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenelement detektieren kann, wenn gleichzeitig, also im Zeitintervall Δti, auch noch ein Element der Objektoberfläche zumindest nähe rungsweise mit dem gerade, also im Zeitintervall Δti, bestehenden Bildpaar koinzidiert, also auch das Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flächenelementes zusammenfällt. So besteht ein Tripel. In dieser Position detektiert das Element des Empfänger-Arrays das Lichtspaltbild auf der Objektoberfläche. Weit außerhalb des Schärfevolumen detektiert es dagegen nur die undurchlässigen Bereiche der Maske auf der gegebenenfalls vorhandenen Objektoberfläche. Dazwischen besteht ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger-Arrays, die innerhalb eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf mit einem Maximum, der dem von konfokalen 3D-Meßmikroskopen entspricht.Dabei kann sich auch stets das gleiche leuchtende Flächenelement FELj auf den Punkten der Verschie bungsstrecke befinden. Dies entspricht dem realen mechanischen Verschieben des leuchtenden Flä chenelementes FELj. Dies muß nicht immer so sein, da andererseits auch der Aufenthalt eines beliebi gen, leuchtendes Flächenelementes FELj zum Zeitpunkt ti innerhalb des Zeitintervalls Δti genügt.Dabei kann das strukturiert leuchtende Array auch aus zumindest näherungsweise punktförmigen oder linienhaften Strahlungsquellen in einer gerasterten Struktur bestehen. So kann ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte gebildet sein. Weiterhin können auch leuchtende Flä chenelemente FEL mit lokalen Extrema der Leuchtdichte verschoben werden. Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort kann mit mechanischen Mit teln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch gesteuerte Verschie bung möglich.Leuchtende Flächenelemente FEL können in einer Leuchtdichteverteilung mit einer zumindest nähe rungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zeitlich nacheinander an unter schiedlichen Orten elektromagnetische Strahlung aussenden und gleichzeitig erfolgt die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitinter valls Δti.Es wird weiterhin vorgeschlagen, die strukturierte Beleuchtung mit einem Beleuchtungsobjektiv mit einer vergleichsweise großen Pupillenöffnung und mit einem strukturiert leuchtendes Array, welches ein parallel zur optischen Achse des Beleuchtungsobjektivs verschobenes Liniengitter, beziehungsweise eine Punkt- oder eine Schlitzmaske sein kann, und die Abbildung mit einem Abbildungsobjektiv mit einer vergleichs weise besonders kleinen Pupillenöffnung durchzuführen. Die kleine Pupillenöffnung führt zu einem größe ren Tiefenschärfebereich und so wird erreicht, daß ein Objekt mit einer größeren Tiefenausdehnung er faßt werden kann, ohne daß das strukturiert leuchtendes Array bewegt werden muß. Da auch miniaturi sierte Objektive eingesetzt werden können, ergibt sich so eine besonders kompakte Anordnung. Wenn das Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können so bei der Aufnahme in den Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten Frequenz und ei nem Modulationsmaximum gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erheblichen Reduzierung der Rechenzeit bei der Bestimmung der absoluten Phase und führen. Bei der Verwendung von einer Punkt- oder Schlitzmaske entstehen dagegen in den Elementen des strukturiert leuchtenden Arrays Signale mit einem einzelnen Maximum. Aus der Lage des Maximums kann in der bekannter Weise die zugehörige zO-Position des Objektpunktes bestimmt werden.Weiterhin kann bei einem Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorzugswei se je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion in einem Zeitbereich ΔtB zumindest näherungsweise auf je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuch tungsobjektiv verschoben werden und durch das Beleuchtungsobjektiv abgebildet sein. Dabei bedeutet die Formulierung "relativ", daß auch die Position des leuchtenden Flächenelementes FELj ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Beleuchtungsobjektivs bewegen. Dieses leuchtende Flächenelement FELj wird zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf eine Strecke BSOj auf einen vorherbestimmten Abbildungsstrahl ABSO, im Objektraum abgebil det. Die Strecke BSOj kann dann auch das Bild der Verschiebungsstrecke VSBAj darstellen und sich der Ort des Bildes des leuchtenden Flächenelementes FELj auf der Verschiebungsstrecke VSBAj zumindest näherungsweise kontinuierlich - innerhalb eines Zeitbereich ΔtB - ändern und so das Bild des leuchtenden Flächenelementes FELj mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach auf der Strecke BSOj durch den Objektraum verschoben werden. Außerdem wird eine zumindest näherungsweise geradlinige, relative Verschiebung des Empfänger-Arrays zum Ab bildungsobjektiv und parallel zur optischen Achse des Abbildungsobjektivs durchgeführt, wobei die For mulierung "relativ" bedeutet, daß auch die Position des Empfänger-Arrays ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Abbildungsobjektivs bewegen. Bei der Verschiebung können mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels eines einzelnen Empfängerelementes gebildet werden, wobei der Ort je ei nes Elementes des Empfänger-Arrays zumindest näherungsweise kontinuierlich ändert. Die geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des Abbildungsobjektivs wird vorzugsweise so durchgeführt, daß je ein Bild eines Elementes des Empfänger- Arrays mit dem Bild eines leuchtenden Flächenelementes FELj mit einer zumindest näherungsweise vor herbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des Zei tintervalls Δti im Objektraum zur Koinzidenz gebracht ist und so ein Paar von Bildern erzeugt wird, wel ches und nach durch den Objektraum geschoben wird.Dabei fallen vorzugsweise Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flä chenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitin tervalls ΔtB zusammen und die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzi denz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße. Der Zeitbereich ΔtB kann dabei größer als das Zeitintervall Δti gemacht sein und so wird mindestens ein Zeitintervall Δti im Zeitbereich ΔtB zeitlich eingepaßt.Hier wird der Fall mit einem bewegten Empfänger-Array dargestellt. Dieser ist ein sehr relevanter Fall, da so auch Objekte mit vergleichsweise großer Tiefenausdehnung vermessen werden können. Außerdem sind einseitig telezentrische Systeme mit einem geringen Bauvolumen in der Regel nicht extrem lichtstark, so daß für das Erreichen einer hinreichend schmalen Einhüllenden, um die Ordnung eines Streifens identifizieren zu können, beide Systeme hohe relative Öffnungen aufweisen sollten.Dabei ist die Lage des Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwer punktes eines Elementes des Empfänger-Arrays und einen optisch konjugierten Ort des effektiven Zen trums der Öffnungsblende des Abbildungsobjektivs bestimmt.Auch ein beleuchteter Spalt kann als leuchtendes Array - im Sinne einer leuchtenden Struktur - eingesetzt werden. So fällt je ein Bild eines vorbestimmten beleuchteten Flächenelementes, z. B. ein Spaltbild, stets mit dem Bild eines vorbestimmten Elementes des Empfänger-Arrays zusammen und bildet so ein Bild paar. Durch die zumindest um einen kleinen Abstand getrennten Pupillen des Beleuchtungs- und des Abbildungsobjektivs besteht ein Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem Hauptabbildunggstrahl, so daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenele ment detektieren kann, wenn auch noch ein Element der Objektoberfläche mit dem Bildpaar koinzidiert, also auch das Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flä chenelementes zusammenfällt. Dann detektiert das Element des Empfänger-Arrays das Lichtspaltbild. Weit außerhalb des Schärfevolumen werden nur die undurchlässigen Bereiche der Maske detektiert. Da zwischen besteht jedoch ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger- Arrays, die innerhalb eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf mit einem Maximum, der dem von konfokalen Meßanordnungen entspricht. Der Abstand zwischen den Pupillen des Beleuchtungs- und des Abbildungsobjektivs kann dabei beispielsweise im Minimum nur ein Achtel der Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist die Tie fenempfindlichkeit auch nur sehr gering. Andererseits kann der Abstand zwischen den Pupillen des Be leuchtungs- und des Abbildungsobjektivs im Objektraum dabei beispielsweise das Bfache der mittleren Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist das Tiefenauflö sungsvermögen hier etwa um zwei Größenordnungen gegenüber dem vorherigen Beispiel vergrößert.Dieses Verfahren ist auch für die Anwendung von vollflächigen, strukturiert leuchtenden Arrays und Emp fänger-Arrays geeignet. So kann auch ein bewegtes, beleuchtetes Transmissionsgitter als strukturiert leuchtendes Array eingesetzt werden. Die detektierbaren Signale entsprechen in ihrer Charakteristik in diesem Fall denen der Kurzkohärenz-Interferometrie.Bei mehreren teildurchlässigen Objektoberflächen in Richtung der Hauptachse des Abbildungsstrahls mit einer jeweils geringen Lichtstreuung bringt jede Objektoberfläche ein eigenes relatives Extremum im Si gnalverlauf.Die permanente Koinzidenz vom Bild eines leuchtenden Flächenelementes FELj mit dem Bild eines Empfängerelemente im Objektraum kann, muß aber nicht bestehen. Im Fall der permanenten Koinzidenz bewegt sich das Bild eines leuchtenden Flächenelementes stets direkt auf einer Strecke auf dem Abbil dungsstrahl.Das leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungswei se vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbestimmten Wellenlängenspek trum kann monochromatisches, quasi-monochromatisches oder polychromatisches Licht im sichtbaren oder im unsichtbaren Spektralbereich aussenden.Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort kann mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elek tronisch gesteuerte Verschiebung möglich.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion von Licht in einem Zeitbereich ΔtB zumindest näherungsweise an je einem eigenen Ort OABj im strukturiert leuchtenden Array relativ zum Beleuchtungsobjektiv angeordnet und durch Ansteuerung zum Leuchten gebracht werden und durch das Beleuchtungsobjektiv abgebildet wird und dieses leuchtende Flä chenelement FELj zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf einen vorher bestimmten Ort im Objektraum OOBj abgebildet wird. Dieser Bildort OOBj eines jeweils leuchtenden Flä chenelementes FEL wird im Objektraum durch eine Ansteuerung verändert, indem ein jeweils anderes, vorbestimmtes Flächenelement angesteuert und zum Leuchten gebracht wird, so daß das Bild je eines leuchtenden Flächenelementes FELj auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsinkre menten AIO der Bilder der Abstände AIA der leuchtenden Flächenelementes FEL im Array-Raum, durch den Objektraum geschoben wird - im Sinne des gesteuerten Einnehmens vorherbestimmter, unterschied licher Positionen. In jeder Position nach der Verschiebung - um mindestens ein ganzzahliges Vielfaches n, einschließlich n = 1, des Abstandsinkrementes AIO - wird mindestens ein Signalwert aus einem Empfän gerelement detektiert und ausgelesen und so wird aus mehreren Vorgängen des Detektierens und Ausle sens von Elementen des Empfänger-Arrays ein Signalverlauf gebildet. So wird der Ort des detektierten und ausgelesenen Elementes des Empfänger-Arrays kontinuierlich verändert. Die Orte der detektierten und ausgelesenen Elemente des Empfänger-Arrays liegen an Orten OAAj im Empfänger-Array und das Bild dieses Ortes OAAj, der Bildort OOAj, ist mit dem vorherbestimmten Bildort OOBj des leuchtenden Flä chenelementes FELj im Objektraum optisch konjugiert. So ist je ein Bild eines detektierten und ausgele senen Elementes des Empfänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti im Objektraum zur Koinzidenz gebracht und so wird je ein Paar von Bildern mit wechselnden Bildern erzeugt, welches und nach verschiedene Positionen im Objektraum einnimmt. Der Objektraum wird so in der Tiefe nach und nach durch derartige Paare durchsetzt. Dabei fallen Schärfevolumina des Bildes je eines leuchtenden Flächenelementes FELj mit je einem Flächenelement der Objektoberfläche mindestens einmal im Zeitbereich ΔtB in einem Zeitin tervall ΔtB zusammen und die detektierten und die ausgelesenen Elemente des Empfänger-Arrays weisen im Zeitintervall Δti der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Si gnalgröße auf, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti in den Zeitbereich ΔtB zeitlich eingepaßt wird.Dieses Verfahren kann auch ohne jede Bewegung eines Arrays realisiert werden, also vollständig elek tronisch. Das strukturiert leuchtende Array und das Empfänger-Array können in sich starre, vorzugsweise dreidimensionale Strukturen darstellen, beispielsweise kann das leuchtende Array Luminiszenzdioden oder vertikal abstrahlende Laserdioden in einer 3D-Anordnung aufweisen. Diese können vorzugsweise in einer Kompaktanordnung und starr miteinander gekoppelt sein. Nach und nach werden einzelne Flä chenelemente elektronisch angesteuert und zum Leuchten gebracht.Dabei kann auch ein beleuchteter Mikrospiegel eines zweidimensionalen oder dreidimensionalen Direct Mirror Device DMD oder ein beleuchtetes LCD-Element oder ein vertikal abstrahlendes Mikro- Laserelement oder eine Mikro-Luminiszenzdiode in der dreidimensionalen Struktur zur Anwendung kom men. Durch die Ansteuerung von vorherbestimmten, leuchtenden Flächenelementen und das Auslesen von Elementen eines Empfänger-Arrays, wobei deren Bilder im Objektraum ein Bildpaar darstellen, wird genau dann ein Extremum im Signalwert eines Elementes des Empfänger-Arrays gewonnen, wenn das Bildpaar mit einem Element der Objektoberfläche zumindest näherungsweise koinzidiert. Das ist der Fall, wenn das Schärfevolumen des Bildes des leuchtenden Flächenelementes das Element der Objektoberflä che durchsetzt.Das Verfahren kann auch als optoelektronische Abfrage des Vorhandenseins von Elementen einer Objekt oberfläche verstanden werden. Besonders gut möglich ist damit die Anwesenheitskontrolle von Bauele menten in einer komplexen, dreidimensionalen Struktur mit einer vergleichsweise großen Tiefenausdeh nung.Ein leuchtendes Flächenelement repräsentiert durch seine feste Position im Verbund des strukturiert leuchtenden Arrays und durch die Parameter seiner Abbildung in den Objektraum stets ein kleines Volu menelement. Durch das Auslesen genau des Elementes eines Empfänger-Arrays, welches im Objektraum ein Bild besitzt, welches zumindest mit dem Bild des leuchtenden Flächenelementes optisch konjugiert ist, erfolgt eine Abfrage des Vorhandenseins eines Elementes der Objektoberfläche in diesem Volumenele ment. Es kann hier durch eine Triggerschwelle eine ja/nein-Entscheidung getroffen werden. Dies ist bei Oberflächen ohne Textur ein gangbarer und schneller Weg. Besser ist es für die Genauigkeit der Orts bestimmung des jeweiligen Elementes der Objektoberfläche, mehrere Elemente des Empfänger-Arrays auszulesen und aus dem gebildeten Signalverlauf den Ort des relativen Extremums oder den Schwer punkt des Signalverlaufes zu bestimmen. Aus diesem kann bei Kenntnis der Geometrie der optischen An ordnung der Ort eines Elementes der Objektoberfläche bestimmt werden.Dabei kann der Wert der relativen Leuchtdichte eines leuchtenden Flächenelementes vorzugsweise nur zwei Werte annehmen, ein Minimum und ein Maximum, gleichbedeutend mit dem logischen 0 und L. Je doch kann wegen der Anpassung an den Reflexionsgrad des Elementes der Objektoberfläche, beispiels weise als Ergebnis einer zuvor durchgeführten Überblicksmessung, und der Berücksichtigung der Entfer nung des Elementes der Objektoberfläche vom Beleuchtungsobjektiv eine Veränderung des absoluten Wertes der Leuchtdichte vorgenommen werden.Weiterhin bilden die Abstandsinkremente, die zu den Bildern der leuchtenden Flächenelemente FELj ge hören, im Objektraum vorzugsweise Strecken auf einer Geraden, die zu einem Streckenbündel SB1 mit einem Konvergenzzentrum K1 gehören, vorzugsweise mit dem Konvergenzzentrum K1 in der Brennebene des Beleuchtungsobjektivs. So ist die Eindeutigkeit der Signalgewinnung gegeben, da sich die Strecken des Streckenbündels SB1 im Objektraum nicht überkreuzen.Bei Anwendung einer nachgeschalteten Abbildungsstufe im Beleuchtungsstrahlengang kann das Konver genzzentrum des Streckenbündels auch im Unendlichen liegen. Dies entspricht dem telezentrischen Fall. Vorteilhaft ist, wenn das Konvergenzzentrum in der Pupille eines Abbildungsobjektivs für die Aufnahme der Objektoberfläche liegt.Bei a priori-Kenntnissen über die Objektoberfläche können aus Abstandsinkrementen auch einzelne Bahnkurven oder Teilstrecken zusammengesetzt werden. So wird durch die Ansteuerung verschiedener leuchtender Flächenelemente FEL reale Verschiebung eines leuchtenden Flächenelemente FELj nach gebildet. Grundsätzlich kann das leuchtende Array sogar in seiner mechanischen Gestaltung ein verklei nertes 3D-Flächen-Modell der zu untersuchenden Objektoberfläche oder der prüftechnisch relevanten Be reiche derselben darstellen und die einzelnen leuchtenden Flächenelemente werden gleichzeitig oder nacheinander auf die Objektoberfläche abgebildet. Analog gilt dies auch für die Struktur des Empfänger- Arrays. Auch dieses kann eine objektangepaßte 3D-Struktur aufweisen. Universeller sind durch die Mög lichkeiten der Steuerung jedoch strukturiert leuchtende Arrays mit lateral äquidistanten Abständen der leuchtenden Flächenelemente FEL Empfänger-Arrays mit lateral äquidistanten Abständen der Elemente des Empfänger-Arrays in einer Fläche. Sowohl das leuchtende Array als auch das Empfänger-Array kön nen in der Tiefe mehrere aktive Flächen mit leuchtenden Elementen, beziehungsweise empfangenden, Elementen aufweisen, so daß die Erfassung von dreidimensionalen Objektoberflächen vergleichsweise großer Tiefe ohne jede mechanische Verschiebung möglich ist. So können mit diesen rechnergesteuerten leuchtenden Arrays und Empfänger-Arrays auch in einem definierten Meßvolumen völlig unbekannte Ob jektoberflächen erfaßt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuchtungsobjektiv verschoben werden.Die leuchtenden Flächenelemente FEL weisen dabei in einer Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende, relative Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb eines Zeitintervalls Δti auf. Weiterhin werden die leuchtenden Flächenelemente FEL auf einer B-Strecke BSAj positioniert, wobei die B-Strecke BSAj die Sollorte für die leuchtenden Flä chenelemente FEL zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti darstellen.Die Bilder dieser B-Strecken BSAj sind im Objektraum durch Abbildung mit mindestens einem Beleuch tungsobjektiv vorzugsweise stets zu einem Streckenbüschel SB1 mit einem Konvergenzpunkt K1 geformt. Dabei ist der Konvergenzpunkt K1, mindestens in einem Abstand dK1 min von der optischen Achse des Be leuchtungsobjektivs vom 16ten Teil. Dementsprechend ist die Tiefenempfindlichkeit auch nur sehr gering. Maximal beträgt der Abstand dK1 max das 16fache des Abstandes d des Pupillenzentrums PZOB des Be leuchtungsobjektivs vom Pupillenzentrum des am weitesten entfernten Abbildungsobjektivs. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente auf Ver schiebungsstrecken VSBAj werden jeweils genau ein Bild von einem Empfängerelement und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest zu einem einzigen Zeit punkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert.So wird vorzugsweise zumindest zu diesem Zeitpunkt ti aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare erzeugt und diese derartigen Paare werden durch den Objektraum geschoben. Dabei fallen Schärfevolumina von Bildern der leuchtenden Flächenelemente FELj mit Flächenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls ΔtB zusammen. Am Ort dieser Paare ist im Schwerpunkt des aktuellen Schnittvolu mens des Schärfevolumens der beiden Bilder so zu diesem Zeitpunkt ti ein aktueller Koinzidenzpunkt Koj i gebildet, der durch den Objektraum geschoben wird. Dabei kann der aktuelle Koinzidenzpunkt Koj i mit konstanter Geschwindigkeit, aber auch sprunghaft verschoben werden.Die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz vorzugsweise einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti im Zeitbereich ΔtB zeitlich ein gepaßt wird. So werden die leuchtenden Flächenelemente FELj des strukturiert leuchtenden Arrays und die Elemente des Empfänger-Arrays jeweils zumindest zu einem Zeitpunkt ti innerhalb eines Zeitintervalls Δti, also stets zur gleichen Zeit, im Objektraum aufeinander abgebildet.Bei der Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Positionen der Elemente des Empfänger-Arrays stets nach der Newtonschen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs und der Lage des Abbildungsobjektivs in der 3D-Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs bestimmt und realisiert. So werden im Objektraum sowohl die leuchtenden Flä chenelemente FEL des strukturiert leuchtenden Arrays als auch die Elemente des Empfänger-Arrays zu mindest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet.Typisch für dieses Verfahren ist vorzugsweise der Abstand dk1 = d. Es kann ein einmaliger oder mehrma liger Durchgang durch oder auch ständiger Aufenthalt eines leuchtenden Flächenelementes FELj auf ei ner B-Strecke BSAj erfolgen. Vorteilhaft ist hier die Verwendung eines vollflächigen und mechanisch be wegten, strukturiert leuchtenden Arrays. Dabei kann das Empfänger-Array auch fest angeordnet sein.Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL einen anderen Ort kann mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch gesteuert Verschiebung möglich.A-priori-Kenntnisse über Lage der Objektoberfläche sind nicht notwendig, wenn eine große Anzahl von Zeitintervallen Δti nacheinander durchfahren wird. Deshalb ist dieses Verfahren für völlig unbekannte Ob jektlagen und Objektformen sehr geeignet. Bei a-priori-Kenntnissen über die Lage der Objektoberfläche und deren Tiefenausdehnung kann der Zeitbereich ΔtB - zumindest bei Objekten mit einer geringen Tie fenausdehnung - in der Regel kleiner gemacht werden, im Vergleich zu einer Situation mit einer völlig un bekannten Szene. Die Verschiebungsstrecken VSBAj stellen die Ist-Strecken, also die Ist-Orte oder die Ist- Positionen der photometrischen Schwerpunkte der leuchtenden Flächenelemente FELj 3A dar und die B- Strecken BSAj stellen die Soll-Orte dar, die zumindest zum Zeitpunkt ti des Zeitintervalls Δti eingenommen sein sollten. Nur zum Zeitpunkt der Detektion, d. h. nur zu einem Zeitpunkt ti im Bereich des Zeitintervalls Δti müssen die Ist- und Soll-Orte übereinstimmen und die Verschiebungsstrecken VSBAj sich mit den B- Strecken BSAj schneiden. Natürlich können die Verschiebungsstrecken VSBAj-Strecken mit den B- Strecken BSAj auch permanent im gesamten Verschiebungsvorgang zusammenfallen.Der Konvergenzpunkt K1 der Bilder der B-Strecken BSAj kann mindestens in einem Abstand dK1 min von der optischen Achse des Beleuchtungsobjektivs vom 16ten Teil des Abstandes d des Pupillenzentrums PZOB des Beleuchtungsobjektivs vom Pupillenzentrum PZO des Abbildungsobjektivs positioniert werden. Dieser kleine Abstand ist für strahlteilergekoppelte Strahlengänge für schnelle Messungen mit vergleichsweise geringer Tiefenauflösung sehr geeignet.Der maximale Abstand dK1 max kann das 16fache des Abstandes d des Pupillenzentrums PZOB des Be leuchtungsobjektivs vom Pupillenzentrum PZOA des Abbildungsobjektivs betragen. Dieser ist typisch für 3D-Aufnahme mit einer höheren Geschwindigkeit, beispielsweise mit kontinuierlich rotierenden Gittern. In diesem Fall erfolgt die Bestimmung der Phasenverschiebung ϕ auf der Basis eines Trägerfrequenzverfah rens zu einer von der Bewegung des strukturiert leuchtenden Arrays direkt abgeleiteten Trägerfrequenz im Sinne einer Referenzfrequenz. Dieses Verfahren ist auch geeignet, um Streifen im Objektraum auf grund der hohen Geschwindigkeit für Beobachter unsichtbar werden zu lassen. Bei einem begrenztem Szenenvolumen kann das durch die höhere Geschwindigkeit vergleichsweise geringere Einschaltverhält nis der Empfängerelemente akzeptiert werden.Vorzugsweise wird der Wert dk1 = d realisiert. In diesem Fall entspricht die im Signalverlauf auftretende Phasenveränderung der Ablage der detektierten Elemente der Objektoberfläche von einer vorbestimmten Position. Verfahrenstechnisch bringt ein größeres dk1 als d deshalb keinen Vorteil, da dieser für die Aus wertung sehr wichtige quantitative Zusammenhang verloren gehen kann. Außerdem muß im Fall mit ei nem größeren dk1 - bei der Bewegung der leuchtenden Flächenelemente FEL mit der gleicher Geschwin digkeit in z-Richtung wie für den Fall dk1 = d - die Kamera besonders schnell ausgelesen werden muß. Für sehr viele größere Werte für dK1 als d weist dieses Verfahren die Merkmale eines Trägerfrequenzverfah rens auf.Das dargestellte Verfahrensmerkmal ist auch sehr geeignet für die Aufnahme mit zwei zentralperspektivi schen Objektiven sein. Auch können die Hauptebenen derselben koinzidieren. Dabei ist das Empfänger- Array vorzugsweise feststehend. Hierbei wird davon ausgegangen, daß leuchtende Flächenelemente FEL der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte sich nicht wirklich auf einer B-Strecke BSAj bewegen müssen, sondern die Verschiebungs strecken VSBAj der leuchtenden Flächenelemente FEL schneiden nur zu einem Zeitpunkt ti, also kurzzei tig die B-Strecken BSAj, wobei vor und nach diesem Zeitpunkt ti die Elemente des Empfänger-Arrays be reits Licht detektieren, so daß sich leuchtende Flächenelemente FEL nur kurzzeitig auf den B-Strecken BSAj befinden.Ein zumindest näherungsweise kontinuierliches Verschieben bedeutet, eine Kurve oder eine Treppen funktion um eine Strecke oder Gerade als mittlere Lage zu erzeugen. Das Verschieben von Orten kon stanter, relativer Leuchtdichte einer Leuchtdichteverteilung bedeutet hier, daß vorzugsweise genau die Orte verschoben werden, die eine bestimmte gleichbleibende relative Leuchtdichte aufweisen, beispiels weise von 70%. Diese Orte mit einer relativen Leuchtdichte von 70% werden vorzugsweise entlang einer Strecke verschoben und die Leuchtdichte bleibt dabei stets 70%, bezogen auf das gesamte leuchtende Array oder einen Teilbereich desselben.Aus dem Signalverlauf kann auch die mittlere Objektpunkthelligkeit und die Farbinformation bei Verwen dung einer Farbkamera gewonnen werden. Dabei kann die Objektoberfläche mit weißem Licht oder mit farbigem Licht beleuchtet werden.Es ist weiterhin möglich, durch eine Verschiebung des Objektes oder eine schwingende Bewegung eine Mittelwertbildung über einen beliebigen Oberflächenbereich durchzuführen und so einen Anfangsphasen wert in jedem Element des Empfänger-Arrays zu bestimmen.Weiterhin wird vorzugsweise ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vor geschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchten des Flächenelement FELj auf je einer B-Strecke BSAj positioniert wird. Die B-Strecken BSAj werden dabei auf das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet, so daß der Konvergenz punkt K1 zumindest annähernd im Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positio niert ist. Weiterhin ist der Konvergenzpunkt K1 auch in der Pupillenebene des Beleuchtungsobjektivs posi tioniert und so werden während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerele ment und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest nähe rungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert.So kann aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet werden und so im Objektraum derarti ge Paare von Bildern erzeugt werden und während des Verschiebungsvorganges der leuchtenden Flä chenelemente FELjeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchten den Flächenelement FELj im Objektraum einmal zumindest näherungsweise zur Koinzidenz gebracht werden.Hierbei ist der Fall mit zwei zentralperspektivischen Objektiven mit koinzidierenden Hauptebenen einge schlossen. Dabei kann das Empfänger-Array feststehend und so eingestellt sein, daß der "durchlaufende" Schärfebereich oder die Schärfeebene, des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebe ne des Abbildungsobjektivs zusammenfällt. Dagegen ist es von Vorteil, wenn die "durchlaufende" Schär feebene des Beleuchtungsobjektivs stets im durch starke Abblendung vergleichsweise groß gemachten Tiefenschärfebereich des Abbildungsobjektivs verbleibt. Hierbei wird davon ausgegangen, daß die leuch tenden Flächenelemente FEL der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte sich wirklich auf einer B-Strecke bewegen, wobei diese B- Strecke, wie alle B-Strecken in diesem Fall, auf das Pupillenzentrum PZOA im Array-Raum zielt.Dieser Ansatz ist beispielsweise realisierbar mit elektronischen Gittern mit einer sehr hohen Pixelzahl, beispielsweise von mindestens einer Million Pixeln. Elektronische Gitter können im Verschiebungsvorgang kontinuierlich gedehnt oder gestaucht werden, um die Bedingung der Konvergenz des Streckenbündels zu erfüllen. Im Ergebnis kann das Bild jedes leuchtenden Flächenelementes FELj zumindest näherungs weise mit einem Bild eines Empfängerelementes zur Koinzidenz gebracht werden, so daß ein aktueller Koinzidenzpunkt gebildet wird, der sich durch den Objektraum bewegt.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele ment FEL zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke BSAj positio niert wird. Dabei wird wobei der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Be leuchtungsobjektivs im Objektraum und zusätzlich im Pupillenzentrum PZOA der Pupille eines Abbildungs objektivs im Objektraum positioniert. Während des Verschiebungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FEL im Objek traum zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so zumindest zu diesem Zeitpunkt ti werden aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flä chenelementes FELjeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objek traum derartige Paare mit fester Zuordnung erzeugt. Während des Verschiebungsvorganges der leuch tenden Flächenelemente FEL werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum genau einmal zumindest näherungsweise zur Koinzidenz gebracht. Die B-Strecken BSAj werden dabei parallel einer zu Geraden gAP positioniert, wobei die Gerade gAP den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und der Brennweite fB des Beleuchtungsobjektivs aufweist, wo bei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.Es können zwei zentralperspektivische Objektive mit zueinander geneigten Achsen eingesetzt werden. Das Empfänger-Array kann vorzugsweise feststehend und so eingestellt sein, daß die "durchlaufende" Schärfeebene des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebene des Abbildungsobjek tivs in einem Schnitt, zusammenfällt. Wenn das Abbildungsobjektivs stark abgeblendet wird, kann der Tiefenbereich der 3D-Aufnahme vergleichsweise groß gemacht werden. Dieser Fall kann als ein Stan dardfall mit einem starren Gitter angesehen werden.Hierbei wird vorzugsweise davon ausgegangen, daß die leuchtenden Flächenelemente FEL von einem Starrkörpergitter sich nicht wirklich auf einer B-Strecke bewegen müssen. Es ist möglich, daß sich die Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL bei einem starren, beleuchteten Gitter nur zu einem Zeitpunkt ti, also kurzzeitig, die B-Strecken BSAj, schneiden. Dabei detektieren die Elemente des Empfänger-Arrays vorzugsweise sowohl vor als auch nach diesem Zeitpunkt ti Licht. So be finden sich die leuchtende Flächenelemente FEL von Starrkörpergittern nur kurzzeitig auf den B-Strecke. Der Vorteil liegt darin, daß so für die mechanische Verschiebung der Starrkörpergitter ein kürzerer Stell weg realisiert werden kann. Dies dient der Erhöhung der Aufnahmegeschwindigkeit.Für elektronisch steuerbare Gitter hat die Einschränkung der Detektion auf einen Bereich innerhalb des Zeitintervalls Δti keine praktische Bedeutung, da diese "masselosen Gitter" stets so gesteuert werden können, daß im gesamten Intervall Δti der Detektion die Bedingung der Koinzidenz der Strecken VSBAj und BSAj ohne Probleme zu erfüllen ist. Damit kann grundsätzlich im Vergleich zu starren Gittern ohne die Realisierung der Koinzidenz der Strecken VSBAj und BSAj, eine höhere relative Integrationszeit erreicht werden. Dies setzt jedoch eine entsprechend hohe Dynamik der elektronischen Gitter voraus.Hierbei können grundsätzlich für die strukturierte Beleuchtung der Objektoberfläche ein arrayseitig tele zentrisches Objektiv und für die Abbildung derselben ein arrayseitig telezentrisches Objektiv eingesetzt werden.Um die Konvergenzbedingung zu erfüllen, kann in diesem Fall ein Starrkörper-Gitter verwendet werden, da durch die Lage des Konvergenzzentrums K1 keine Dehnung im Array notwendig ist. Z. B. kann, um Verschiebeweg für das Starrkörper-Gitter bei der Generierung von +270°-Phasenschritten für ein Sub- Nyquist-Verfahren zu sparen, ein beleuchtetes Liniengitter in x-Richtung mit entgegengesetztem Rich tungssinn verschoben werden, um dann -90°-Phasenschritte zu realisieren. Denn wie bereits ausgeführt, nur zum Zeitpunkt der Detektion von Licht muß die Bedingung der Position des Gitters erfüllt sein. Die kürzeren Verschiebungswege bringen, die hier im Beispiel nur ein Drittel betragen, eine höhere Dynamik.Dieses Verfahren kann besonders vorteilhaft für eine Zeile, bzw. für einen eingeschränkten Tiefenbereich eingesetzt werden. Der besondere Vorteil liegt in der einfachen Anordnung und im hohen Tiefenauflö sungsvermögen, aufgrund des vergleichsweise großen Triangulationswinkels von beispielsweise 30°.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Verschiebungsstrecken VSBAj und die B-Strecken BSAj im Verschiebungsvorgang zumindest näherungsweise im Zeitintervall Δtk koinzidieren, wobei das Zeitintervall Δtk zumindest die Län ge des Zeitintervalls Δti und maximal die Länge des Zeitbereiches ΔtB aufweist. Während des Verschie bungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FEL im Objektraum zumindest zeitweilig und zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird aus dem Bild von einem Empfän gerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein perma nentes Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern er zeugt.Während des Verschiebungsvorganges im Zeitbereich ΔtB der leuchtenden Flächenelemente FEL werden vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest näherungsweise einmal zur Koinzidenz gebracht, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δtk gemacht wird und das Zeitintervall Δtk in den Zeitbereich ΔtB eingepaßt ist und die leuchtenden Flächenelemente in einer gerasterten Struktur mit äquidistanten Abständen verschoben werden.Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL sich wirklich auf einer B- Strecke bewegen, und die Verschiebungsstrecken der leuchtenden Flächenelemente FEL mit den B- Strecken BSAi. Dies ist mit einem beleuchteten Liniengitter zu realisieren. Natürlich kann auch ein elektro nisches Gitter so angesteuert werden. Das Empfänger-Array kann dabei feststehen, so daß der Tiefen meßbereich begrenzt ist. Durch die Wahl einer kleinen Blende für das Abbildungsobjektiv sind sehr viele Meßaufgaben mit einem vergleichsweise großen Tiefenmeßbereich, bezogen auf den mittleren Abstand des Meßvolumens von der 3D-Aufnahmeanordnung, lösbar. Da für das Beleuchtungsobjektiv eine sehr große Blendenöffnung gewählt werden kann, wird die Szene gut strukturiert ausgeleuchtet, so daß das Umgebungslicht weitgehend für die 3D-Aufnahme unschädlich ist.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise durch die Steuerung der Dauer eines jeden Zeitintervalls Δti und durch die Steuerung der relativen Einschaltzeiten in Bezug zur Dauer eines jeden Zeitintervalls Δti der einzelnen leuchtenden Flächenelemente FEL, die über die Objektoberfläche jeweils ein Empfängerelement beleuchten und durch die Steuerung der Leuchtdichte der leuchtenden Flächenelemente, photometrisch der Fall der Verschie bung von leuchtenden Flächenelementen mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf B-Strecken BSAj nachgebildet wird. So werden vorzugsweise effektiv leuchtende Flä chenelemente FEL mit ihrem jeweiligen effektiven Schwerpunkt auf B-Strecken BSAj verschoben, wobei der Konvergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs und im Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positioniert ist, und die B-Strecken BSAj auf das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet sind.Es können zwei zentralperspektivische Objektive in einer Anordnung mit koinzidierenden Hauptebenen eingesetzt werden. Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL auf grund eines zu "groben" Rasters des strukturiert leuchtenden Arrays nicht genau genug auf einer B- Strecke bewegen können, sondern erst in der photometrischen Wirkung eine bessere Annäherung er reicht wird. So wird der Fall nachgebildet, daß sich zu einem Zeitpunkt die Verschiebungsstrecken der leuchtenden Flächenelemente FEL mit den B-Strecken BSAj schneiden. Für vergleichsweise kleine Meß volumina ist die kurze relative Detektionszeit kein Nachteil. Der besonders Vorteil besteht darin, daß ohne ein "dehnbares", strukturiert leuchtendes Array benutzen zu müssen, der Fall der Verschiebung auf den B-Strecken BSAj nachgebildet werden kann.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele ment FELj eines strukturiert leuchtenden Arrays mit äquidistanten Abständen der leuchtenden Flä chenelemente zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte aufje einer B-Strecke BSAj positioniert wird. Da bei wird der Konvergenzpunkt K1 mit dem Brennpunkt FOA mindestens eines Abbildungsobjektivs im Ob jektraum zumindest annähernd zur Koinzidenz gebracht. Zumindest annähernd wird dabei eine geradlini ge relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des Abbildungsobjektivs durchgeführt und bei der Verschiebung werden mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen und so wird je ein Signalverlauf mittels einem ein zelnen Empfängerelement gebildet und bei Abbildung von mehrfach so erzeugten Verschiebungsstrecken ASAj von Elementen des Empfänger-Arrays mit dem Abbildungsobjektiv wird aus deren Bildern im Objek traum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Brennpunkt FOA des Abbildungsobjektivs gebildet. Die geradlinige Verschiebung des Empfänger-Arrays wird parallel zur optischen Achse des Abbildungsobjektivs so durchgeführt, so daß während des Ver schiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj zur Koinzidenz gebracht und verschoben werden und so aus dem Bild von je einem Element des Empfänger-Arrays und dem Bild je eines leuchtenden Flächenelementes FELj jeweils zumindest zu diesem Zeitpunkt ti ein Paar mit fester Zuordnung gebildet wird und so im Objektraum Paare von Bildern erzeugt werden.Da jedes Element des Empfänger-Arrays die Gewinnung eines eigenen Signalverlaufs ermöglicht, ist die Möglichkeit der Parallelverarbeitung mit einem Parallelrechner-System für die einzelnen Elemente eines Empfänger-Arrays gegeben. Es besteht die Möglichkeit einer sehr hohen Verarbeitungsgeschwindigkeit.Weiterhin ist das Erreichen eines sehr großen Tiefenmeßbereiches bei der 3D-Aufnahme möglich, da das Empfänger-Array so nachgeführt wird, daß die Schärfeflächen im Objektraum gemäß der bekannten Ab bildungsgleichungen zumindest näherungsweise zusammenfallen, beispielsweise bei einer Anordnung mit parallelen Achsen der Objektive.Es können je ein Bild eines leuchtenden Flächenelementes und je ein Bild eines Empfängerelementes in der gesamten Tiefe des Raumes koinzidieren. Es muß jedoch keine permanente Koinzidenz zwischen dem Bild eines leuchtenden Flächenelementes und dem eines Empfängerelementes bestehen.Weiterhin kann auch das Abbildungsobjektiv relativ zum Empfänger-Array verschoben werden, beispiels weise auch durch eine Innenfokussierung desselben. Deshalb kann es sich hierbei auch um eine relative Verschiebung handeln. Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Element eines Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flä chenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj permanent zur Koinzidenz gebracht und verschoben werden. Die permanente Koinzidenz führt zu einem hohen relativen Detektionsverhältnis, beispielsweise von 90% bei 90°-Phasenschritten.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise der Konvergenzpunkt K1 des Streckenbüschels SB1 gemeinsam mit dem Konvergenz punkt K2 des Streckenbüschels SB2 im Objektraum sowohl mit dem Brennpunkt FOA als auch mit dem Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zumindest annähernd zur Koinzidenz gebracht werden, wobei das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils arrayseitig zumindest nähe rungsweise telezentrisch ausgeführt sind. Die leuchtenden Flächenelemente FEL werden zumindest an nähernd parallel zu einer Geraden gA auf Verschiebungsstrecken VSBAj verschoben. Die Gerade gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum. Für die Gerade gA ist der An stieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand d des Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea lisiert, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch tungsobjektivs bezogen ist und wegen der Telezentrie des Abbildungsobjektivs im Array-Raum in diesem Fall die Gerade gA mit der Geraden gAP koinzidiert.Dieses Verfahren ermöglicht die 3D-Aufnahme in einem sehr großen Tiefenmeßbereich, wobei eine An ordnung mit parallelen und zumindest näherungsweise baugleichen Objektiven mit Vorteil gewählt werden kann. Die detektierten Signale weisen bei einer Bewegung des strukturiert leuchtenden Arrays, beispiels weise eines Liniengitters mit äquidistanten Linienabständen, eine konstante Frequenz auf. Die Schärfeflä chen werden durch das synchrone Stellen des strukturiert leuchtenden Arrays und des Empfänger-Arrays zur Koinzidenz gebracht. Dabei ist ein starre Kopplung des strukturiert leuchtenden Arrays und des Emp fänger-Arrays von Vorteil.Um für eine gute Ausleuchtung des Objektes ein Abbildungsobjektiv mit einer hohen relativen Öffnung einsetzen zu können und dennoch eine große Tiefenausdehnung bei der 3D-Aufnahme erreichen zu kön nen, wird eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil dungsobjektivs durchgeführt. Bei der Verschiebung werden nacheinander Signalwerte aus einzelnen, ne beneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen Signalwerten wird ein Signalverlauf gebildet. Dabei werden zur Bildung eines einzelnen Signalverlaufes jedoch nur Elemente ausgewählt aus deren Orten zumindest näherungsweise jeweils eine Strecke erzeugt werden kann, die im Zentrum der Austrittspupille des Abbildungsobjektivs im Objektraum konvergiert. Die Abbildung dieser Strecke mit dem Abbildungsobjektiv liefert ein Bild, welches zumindest annähernd zu einem zweiten Streckenbüschel mit einem Konvergenzpunkt K2 der Strecken im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum gehört. Dieses Verfahren führt zu einem Signal mit einer zuminde stens näherungsweise konstanter Frequenz beim Verschieben des Liniengitters mit konstanter Ge schwindigkeit in zA-Richtung.Bei Objekten mit vergleichsweise großen Abmessungen und mit einer großen Tiefenausdehnung ist für die technische Realisierung folgendes von Vorteil: Die strukturierte Beleuchtung erfolgt vorzugsweise mit einem im Array-Raum telezentrischen Beleuchtungsobjektiv und einem beleuchteten Liniengitter sowie die Abbildung mit einem im Array-Raum telezentrischen Abbildungsobjektiv. Für das Empfänger-Array wird eine geradlinige Verschiebung parallel zur optischen Achse des Abbildungsobjektivs durchgeführt. So wird für jedes Element des Empfänger-Arrays eine eigene Verschiebungsstrecke erzeugt. Bei Abbildung dieser Verschiebungsstrecken mit dem Abbildungsobjektiv entsteht aus den Bildern dieser Verschiebungsstrec ken ein zweites Streckenbüschel mit einem Konvergenzpunkt K2 der abgebildeten Strecken im Objek traum im Brennpunkt FOA des Abbildungsobjektivs. Weiterhin werden der Konvergenzpunkt K1 und der Brennpunkt FOA des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht, so daß auch der Konvergenzpunkt K2 mit dem Konvergenzpunkt K1 zusammenfallen. Dabei wird der Kon vergenzpunkt K1 der Strecken im Objektraum so gebildet, indem die Orte bestimmter relativer Leuchtdich te des beleuchteten Liniengitters, beispielsweise die Maxima der Transmission des Liniengitters, auf Ver schiebungsstrecken zumindest annähernd parallel zu einer Geraden gA verschoben werden. Die Gerade gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum, wobei für die Gerade gA der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea lisiert wird, und dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch tungsobjektivs bezogen ist. Da das Beleuchtungsobjektiv und das Abbildungsobjektiv vorzugsweise je weils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sind, fallen im Objektraum der Brenn punkt FOA und das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zusammen. So werden auch der Konvergenzpunkt K1 und der Konvergenzpunkt K2 im zusammenfallenden Pupillenzentrum PZOA und Brennpunkt FOA des Abbildungsobjektivs zur Koinzidenz gebracht. Weiterhin ist wesentlich, daß während des gesamten Verschiebungsvorganges jeweils ein Bildelement eines Ortes bestimmter relativer Leucht dichte des beleuchteten Liniengitters und jeweils ein Bildelement eines Elementes des Empfänger-Arrays im Objektraum wenigstens näherungsweise zur Koinzidenz gebracht werden und so im Objektraum flä chendeckend feste Paare von einander unveränderlich zugeordneten Bildelementen erzeugt werden. Dies bedeutet, daß im Objektraum die Schärfeflächen des Beleuchtungs- und des Abbildungsobjektivs stets zumindest teilweise koinzidieren. In den Elementen des Empfänger-Arrays können bei diesem Verfahren periodische Signale mit einem Modulationsmaximum detektiert werden, aus denen die Information über die absolute Phase eines Objektpunktes im Zusammenhang mit der Anordnung gewonnen werden kann.Wenn das beleuchtete Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können bei der Aufnahme in den Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten Frequenz gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erhebli chen Reduzierung der Rechenzeit führen.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zumindest näherungsweise eine geradlinige Verschiebung des Empfänger-Arrays durchgeführt wird und bei der Verschiebung nacheinander Signalwerte aus einzelnen, auch nebeneinan der liegenden Elementen des Empfänger-Arrays ausgelesen werden und Signalverläufe auch durch ge wichtete Summierung der Signale einzelner Elemente des Empfänger-Arrays, so daß Signale von virtuel len Elementen gebildet werden. Zur Bildung eines einzelnen Signalverlaufes werden so Signalwerte von virtuellen Elementen des Empfänger-Arrays verwendet, wobei diese virtuellen Elemente des Empfänger- Arrays beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschie bungsstrecke ASAj im Array-Raum liegen, deren Verlängerung das Zentrum der Austrittspupille des Abbil dungsobjektivs schneidet. Bei Abbildung von mehrfach so erzeugten Strecken wird mit dem Abbildungsob jektiv aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet und während des Verschiebungsvorganges der Elemente des Empfänger-Arrays werden diese mehrfach nacheinander ausgelesen.Innerhalb des Verschiebungsvorganges werden vorzugsweise jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu mindest während eines Zeitintervalls Δti innerhalb des Verschiebungsvorganges zumindest näherungs weise zur Koinzidenz auf B-Strecken BSAj gebracht. So wird aus dem Bild von einem Empfängerelement und dem Bild von einem leuchtenden Flächenelement FELj, welches auch als ein aktueller Koinzidenz punkt angesehen werden kann, jeweils ein Paar mit fester Zuordnung gebildet und so werden im Objek traum derartige Paare erzeugt.Hier durch wird erreicht, daß bei Verwendung von Arrays mit großen Pixelzahlen ein effektiv leuchtendes Flächenelement und ein virtuelles Empfängerelement so gebildet werden, daß diese für die Dauer eines Zeitintervalls der Detektion von Licht von einem Element der Objektoberfläche im Objektraum koinzidie ren. Das ist die Nachbildung des Falles, daß bei einer Anordnung mit zwei zumindest näherungsweise baugleichen zentralperspektivischen Objektiven in paralleler Lage und mit koinzidierenden der Hauptebe nen sowohl ein reales, leuchtendes Flächenelement FELj als auch ein reales Empfängerelement auf ei ner Verschiebungsstrecke in Richtung des Pupillenzentrums des Abbildungsobjektivs bewegt werden. Dies ist ein kostengünstiger Fall für die optischen Komponenten, da Standardobjektive eingesetzt werden können.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie bungsstrecken VSBAj durchgeführt werden und bei Abbildung der erzeugten, parallelen Verschiebungs strecken VSBAj mit dem Beleuchtungsobjektiv aus deren Bildern zumindest näherungsweise mindestens ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 im Objektraum im Brennpunkt FOB des Beleuch tungsobjektivs gebildet wird. Zusätzlich eine geradlinige Verschiebung des Empfänger-Arrays, die syn chronisiert mit den Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie bungsstrecken VSBAj durchgeführt wird, werden während der Verschiebung nacheinander Signalwerte aus einzelnen, nebeneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen wer den Signalverläufe gebildet. Zur Bildung eines einzelnen Signalverlaufes werden nebeneinander liegende Elemente des Empfänger-Arrays ausgewählt, deren Orte beim Verschieben des Empfänger-Arrays zu mindest näherungsweise jeweils auf einer A-Strecke ASAj im Array-Raum liegen und die Verlängerung der A-Strecke ASAj jeweils auf das Pupillenzentrum PZAB des Beleuchtungsobjektivs im Array-Raum zielt. Bei Abbildung von mehrfach so erzeugten parallelen A-Strecken ASAj mit dem Abbildungsobjektiv wird aus de ren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konver genzpunkt K2 im Pupillenzentrum PZOB der Pupille des Beleuchtungsobjektivs gebildet. Die A-Strecken ASAj werden parallel zu einer Geraden gAA ausgerichtet und die Gerade gAA schneidet den Brennpunkt FAA des Abbildungsobjektivs im Array-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Ab stand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs auf, wobei dieser Anstieg der Ge raden gAA auf die Achse des Beleuchtungsobjektivs bezogen ist. Während des synchronisierten Verschie bungsvorganges der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays werden die Elemente des Empfänger-Arrays mehrfach nacheinander ausgelesen. Jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Ob jektraum werden innerhalb des Verschiebungsvorganges zumindest während eines Zeitintervalls Δti in nerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz gebracht und so wird aus dem Bild von einem des Empfängerelement und dem Bildpunkt jeweils ein verschiebbares Paar mit fester Zuordnung gebildet und so werden im Objektraum verschiebbare Paare erzeugt.Dabei kann die Geraden gAA den Durchstoßpunkt einer zur Achse des Beleuchtungsobjektivs parallelen Geraden, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum enthält, durch die array-seitige Hauptebene des Beleuchtungsobjektiv schneiden.Dieser Ansatz stellt eine Möglichkeit für schnelle Überblicksmessungen ohne die Notwendigkeit der latera len Verschiebung eines beleuchteten Liniengitters dar. Sowohl das beleuchtete Liniengitter als auch das Empfänger-Array bewegen sich vorzugsweise synchron und parallel zu den parallelen Achsen der beiden Objektive. Dabei koinzidieren die Schärfeflächen des Beleuchtungs- und des Abbildungsstrahlenganges im Objektraum. Bei einem hochgeöffneten Abbildungsobjektiv ist die Verschmierung der Abbildung durch das laterale Bewegen der Abbildungsstrahlen über die Objektoberfläche für eine Überblicksmessung in der Regel zu tolerieren.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den Geometriedaten der optischen Anordnung errechnet. Dadurch ergibt sich im Ergebnis dieser Rechenope ration eine absolute Objektphase ϕObj für jeden Objektpunkt, die auf einen Referenzpunkt im Objektraum bezogen ist, wobei Informationen aus dem Signalverlauf des zugehörigen Referenzpunktes abgespeichert werden.Dabei kann die Position der Referenzplatte zOR im Objektraum vor der Messung der Objektoberfläche oder der Szenen zumindest im Nahbereich mehrfach gemessen werden und die gegebenenfalls ortsab hängige Zuordnung der jeweiligen Phasenlage des Signals zum Modulationsmaximum bestimmt werden. Dies stellt eine Möglichkeit dar, um Phasenkorrekturwerte zu gewinnen. Diese Veränderung der jeweiligen Phasenlage des Signals zum Modulationsmaximum resultiert beispielsweise aus den ortsabhängigen Verzeichnungen der Objektive. Dieser Phasengang wird in Abhängigkeit vom Ort bestimmt und für die rechnergestützte Korrektur tabelliert. Weitere Details hierzu wurden bereits im ersten Teil der Offenbarung dargestellt.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im Ergebnis dieser Rechenoperation eine absolute Objektphase ϕObj für jeden Objektpunkt ergibt, die auf einen Referenzpunkt im Objektraum bezogen ist,
und aus dem Signalverlauf des zugehörigen Referenzpunktes der absolute Referenzphasenwert berech net und als absoluter Referenzphasenwert abgespeichert wird.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden Ar rays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des verschobenen strukturiert leuchtenden Arrays zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe renzgitters so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des mitverschobenen Referenzgitters zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Refe renzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des verschobenen strukturiert leuchtenden Arrays ϕR zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe renzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Re ferenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π- Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des mitverschobenen Refe renzgitters ϕR zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zusätzlich über den Beleuchtungsstrahlengang eine Bildaufnahme des Objektes oder der Szene mit einem zusätzlichen Empfänger-Array durchgeführt wird und die Bildelemente des zusätzli chen Empfänger-Arrays dabei jeweils eine geradlinige Verschiebung im Array-Raum erfahren.Die Realisierung einer zweiten Beobachtungsrichtung ermöglicht eine bessere Erfassung der Szene. So kann die Schattenbildung verringert werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zusätzlich eine Beleuchtung des Objektes oder der Szene durchgeführt wird mit einem zusätzlichen, strukturiert leuchtenden Array mit leuchtenden Flächenelementen mit Extrema der Leucht dichte und diese Extrema dabei jeweils parallel zu einer Geraden gAP2, die spiegelsymmetrisch zur Gera den gAP ist, auf Verschiebungsstrecken im Array-Raum verschoben werden.Die Realisierung einer zweiten Beleuchtungsrichtung ermöglicht eine bessere Ausleuchtung der Szene und reduziert gegebenenfalls Schatten auf den Objektoberflächen.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Verschiebung des strukturiert leuchtenden Arrays durch optische Kopplung mit einer gerasterten Struktur als Gegengitter und einem Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase abgeleitet wird.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Bewegung einer starr mit dem strukturiert beleuchteten Array gekoppelten Referenzstruktur abgeleitet wird. Dabei ist die ser ein Auswertesystem und ein Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase zugeordnet.Der Referenzstruktur, beispielsweise am Umfang einer rotierenden Scheibe; ist vorzugsweise ein Auswer tesystem und ein Nullpunktgeber zugeordnet, um die Information der Referenzstruktur auswerten zu kön nen. So kann, von einem Nullpunkt beginnend, die absolute, lateral invarianten Objektphase bestimmt werden. Aber es kann auch allgemein in grundsätzlich beliebigen Einheiten, beispielsweise in einer Län geneinheit oder in der Form von Zählimpulsen, die Weginkremente verkörpern können, ein Referenzwert gewonnen werden, welcher ein Äquivalent für die absolute, lateral invariante Objektphase darstellt.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das Auslesen der Elemente des Empfänger-Arrays bei veränderlichen Werten der Referenzphase mod 2π durchgeführt wird, also asynchron zur Referenzphase ϕGitter durchgeführt wird, wobei der jeweils aktuelle Triggerimpuls für das Detektieren von Licht der Elemente des Empfänger- Arrays im Zeitintervall Δti bei einer gegebenen präzisonsmechanisch-optischen Anordnung zur 3D- Aufnahme sich in Abhängigkeit von deren Geometrie der Anordnung sowie der Lage der Konvergenz punkte K1 und K2 und in Abhängigkeit vom aktuellen Wert der absoluten Referenzphase ϕGitter für jedes Element berechnet wird und in einer Phasenkorrekturwert-Tabelle vorliegt. So wird in jedem Element des Empfänger-Arrays ein Signalverlauf mit zumindest näherungsweise konstanter Ortsfrequenz erzeugt. Da bei erfolgt das Auslesen der Elemente des Empfänger-Arrays in aufeinanderfolgend zumindest annähernd gleichen Phasenschritten ΔϕEmpfänger der Phase ϕEmpfänger in jedem Element des Empfänger-Arrays und die im Verhältnis zur Phasenschrittweite ΔϕEmpfänger selbst kleineren Abweichungen ΔΔϕ zwischen der Refe renzphase und der in einem Element des Empfänger-Arrays sich ergebenden Phase ϕEmpfänger als von der Referenzphase ϕGitter abhängige Phasenkorrekturwerte ΔΔϕ werden mindestens einmalig für jedes Ele ment des Empfänger-Arrays errechnet. Diese von der Referenzphase ϕGitter abhängige Phasenkorrektur werte ΔΔϕ und liegen so in einer Phasenkorrekturwert-Tabelle vor und werden gespeichert. Die Phasen korrekturwerte ΔΔϕ werden sowohl für die Bestimmung des jeweiligen Abtastpunktes als auch bei der Be rechnung der absoluten Phase verwendet. Weiterhin werden Verschiebungen der leuchtenden Flä chenelemente FEL durchgeführt, wobei die Bilder der Verschiebungsstrecken VSBAj ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 bilden.Hierbei wird bei Kenntnis der Geometrie der Anordnung, der Lage der Konvergenzpunkte K1 und K2 und der Kenntnis der Lage der realen Verschiebungsstrecken der Zeitpunkt des Abtastintervalls Δti verscho ben, um zumindest annähernd ein Signal mit einer konstanten Frequenz zu erhalten, das sehr schnell ausgewertet werden kann.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise leuchtende Flächenelemente FEL - und so auch leuchtende Flächenelemente FEL mit lokalen Extrema der Leuchtdichte - im Array-Raum auf Verschiebungsstrecken VSBAj verschoben werden, die mit den B-Strecken BSAj koinzidieren, und die B-Strecken BSAj mittels einer zweistufigen Abbildungs stufe abgebildet werden. Gleichzeitig erfolgt die Detektion von Licht von den Elementen der Objektober flächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays. Diese werden ausgelesen und so wird jeweils ein Signalwert gewonnen und so wird jeweils ein leuchtendes Flä chenelement FELj auf je einer B-Strecke BSAj positioniert, und die Bilder dieser B-Strecken BSAj werden nach der ersten Abbildung mit einem Beleuchtungsobjektiv zu einem Streckenbüschel SB1 mit einem Konvergenzpunkt K1 geformt und ein zum Konvergenzpunkt K1 optisch konjugierter Punkt K1konj wird in den Objektraum in das Zentrum der Pupille PZOA des Abildungsstrahlenganges im Objektraum abgebildet. Während des Verschiebungsvorganges von strukturiert leuchtendem Array und Empfänger-Array werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtendes Flächenelement konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche im Objektraum zumindest nähe rungsweise gemeinsam auf das Bild einer B-Strecke BSAj gebracht und so werden aus dem Bild von ei nem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt.Bei diesem Verfahren ist der telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum ein geschlossen, d. h. die Pupille im Objektraum kann jeweils auch im Unendlichen liegen. Die Beobachtung kann mit einer Kamera von oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und das Empfänger-Array bewegt werden, nicht jedoch ein Objekt. Dieses Verfahren ist deshalb beispielswei se für das 3D-Aufnahmeverfahren bei chirurgischen Operationen geeignet, da der in sich bewegliche Pa tient und auch das schwere 3D-Aufnahmegerät in Ruhe verbleiben können. Weiterhin ist von Vorteil, daß bei einem telezentrischen Strahlengang die effektive Wellenlänge im gesamten Objektraum konstant ist.Die leuchtenden Flächenelemente FEL können sich hierbei ständig auf den B-Strecken BSAj befinden. Dabei sind keine Kenntnisse über die Lage und Form der Objektoberfläche notwendig, wenn ein großer Tiefenbereich im Objektraum gewählt wird. Bei A-priori-Kenntnissen über die Lage und Grobform der Ob jektoberfläche kann der Zeitbereich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist, wo sich die Objektoberfläche befindet und die an die Objektoberfläche angrenzende Tangentialebene zumindest näherungsweise senkrecht zur optischen Achse des Beleuchtungsobjektivs steht.Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die B-Strecken BSAj mittels eines afokalen Beleuchtungsstrahlenganges mit einem in neren Brennpunkt FBi abgebildet werden und die Objektoberflächen mit einem afokalen Abbildungsstrah lengang mit einem inneren Brennpunkt FAi abgebildet werden und im Objektraum der Brennpunkt des afo kalen Beleuchtungsstrahlenganges und des afokalen Abbildungsstrahlenganges zusammenfallen. Gleich zeitig erfolgt die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitin tervalls Δti durch die Elemente des Empfänger-Arrays und diese werden ausgelesen und so wird jeweils ein Signalwert gewonnen. Der Konvergenzpunkt K1 wird in einem Abstand dK1 von der optischen Achse des Beleuchtungsobjektivs positioniert, wobei der Abstand dK1 dem halben Abstand vom inneren Brenn punkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht. Dabei sind das Beleuch tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil dungsstufen zumindest näherungsweise telezentrisch ausgeführt. So werden leuchtende Flächenelemen te FEL und so auch die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung mit lokalen Ex trema der Leuchtdichte zumindest annähernd parallel zu einer Geraden gA auf Verschiebungsstrecken VSBAj verschoben. Die Gerade gA durchstößt dabei den Brennpunkt FAB des Beleuchtungsobjektivs im Ar ray-Raum und für die Gerade gA ist der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Be leuchtungsobjektivs und Abstand dk1 realisiert, wobei der Anstieg auf die Hauptebene des Abbildungsob jektivs bezogen ist. Zumindest annähernd wird eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs mit der gleichen Geschwindigkeit wie das leuchten de Array durchgeführt und bei der Verschiebung der beiden Arrays werden mehrfach nacheinander Signalwerte aus je einem einzelnen Element des Empfänger-Arrays ausgelesen. So wird je ein Signalver lauf aus einem einzelnen Element des Empfänger-Arrays gebildet und bei Abbildung mit einer Abbil dungsstufe von mehrfach so erzeugten Verschiebungsstrecken von Elementen wird aus deren Bildern im Raum nach der Abbildungsstufe zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im inneren Brennpunkt FAi des Abbildungsobjektivs gebildet. Während des Verschiebungsvorganges von einem strukturiert leuchtendem Array und einem Empfänger- Array werden vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild BSOj einer B-Strecke BSAj zur Koinzidenz gebracht und gemeinsam verschoben. So wird aus dem Bild von einem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils ein Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern ver schoben.Dieses Verfahren stellt den telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum dar, d. h. die Pupille im Objektraum liegt jeweils im Unendlichen. Die Beobachtung kann mit einer Kamera von oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und das Empfänger-Array bewegt werden müssen. Die leuchtenden Flächenelemente FEL befinden sich vorzugsweise ständig auf den B- Strecken BSAj. Dabei sind keine Kenntnisse über die Lage und die Form der Objektoberfläche notwendig. Bei A-priori-Kenntnissen über die Lage und Grobform der Objektoberfläche kann in der Regel der Zeitbe reich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist, wo sich die Objektoberfläche befindet.Der Abstand dK1 entspricht dem halben Abstand vom inneren Brennpunkt FBi der afokalen Abbildungsstu fe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges. Dies ist gleichbedeutend mit der Tatsache, daß der Konvergenzpunkt K1 im Durchstoßpunkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbil dungsstrahlenganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt.Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Elemente des Empfänger-Arrays im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und die zwei Empfänger- Arrays, die zur Aufnahme der strukturiert beleuchteten Objektoberflächen in einer Szene im Objektraum verwendet werden, beim Aufnahmevorgang gleichzeitig im Array-Raum auf Verschiebungsstrecken ASA1 und ASA2 verschoben werden, die einen Winkel zueinander aufweisen.Dabei sind für die 3D-Aufnahme des Hintergrundes der Szene mindestens zwei Abbildungsstrahlengänge für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbildungsstrah lengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet, wobei die Abbildungsobjektive räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv mit mindestens je einem Empfänger-Array mit Elementen oder einem Bild desselben zugeordnet ist. Die Brennebenen der Abbildungsstrahlengänge schneiden sich im Objektraum, wobei die Schnittgerade SG senkrecht auf der Symmetrielinie SL im Hauptschnitt steht, und die Bilder der Verschiebungsstrecken ASA1 und ASA2 die Strecken ASO1 und ASO1, annähernd auf der Symmetrielinie zwischen den beiden Ach sen der Objektive zur Konvergenz gebracht werden und dort in einem Koinzidenzpunkt K0 konvergieren.Im Konvergenzpunkt K0 werden das Streckenbüschel S21 der Bilder der Verschiebungsstrecken ASA1j der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken ASO1j, mit dem Konvergenzpunkt K21 und das Streckenbüschel S22 der Bilder der Verschiebungsstrecken ASA2j der einzelnen Elementes des zweiten Empfänger-Arrays, der Strecken ASO2j, mit dem Konvergenzpunkt K22 zur Koinzidenz gebracht. Die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfän ger-Arrays werden im Objektraum für den Zeitbereich ΔtB paarweise zumindest näherungsweise zur Ko inzidenz gebracht und die paarbildenden Elemente der beiden Empfänger-Arrays stellen jeweils korre spondierende Elemente dar.Die Signalverläufe S1 des ersten Empfänger-Arrays werden durch Auslesen von je einem Element wäh rend der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und die Verschiebung des ersten Empfänger-Arrays wird parallel zu einer Geraden gA1P durchgeführt und so wer den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf Verschiebungsstrecken ASA1j verschoben. Die Signalverläufe S2 des zweiten Empfänger-Arrays werden durch Auslesen von je einem Element während der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke AS2j gebildet und die Verschiebung des zweiten Empfänger-Arrays erfolgt gleich zeitig mit der des ersten Empfänger-Arrays und die Verschiebung des zweiten Empfänger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben. Die Gerade gA1P wird in einem Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 in der Hauptebene des Abbildungsobjektivs zum Schnitt gebracht, wobei zusätzlich die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs enthält und die Ge rade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im A 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880rray-Raum enthält. Dabei liegt der Punkt PA1 im Durchstoßpunkt einer Geraden durch die Hauptebene des ersten Abbildungsobjektivs im Array-Raum, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält. Der Punkt PA2 liegt im Durchstoßpunkt einer Geraden durch die Hauptebene des zweiten Abbildungsobjektivs im Array-Raum, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält.Bei Schärfeeinstellungen auf eine große Entfernung von der 3D-Aufnahmeanordnung, dies entspricht ei ner Positionierung der leuchtenden Flächenelemente FEL der strukturierten Beleuchtung in der Nähe der Brennebene des Beleuchtungsobjektivs im Array-Raum, beispielsweise auf den Hintergrund einer Szene, können die abgebildeten leuchtenden Flächenelemente FEL der strukturierten Beleuchtung nicht mehr detektiert werden. Die gegebene Beleuchtung und die strukturierte Beleuchtung, wenn diese noch einen detektierbaren Beitrag leistet, werden ohnehin vermischt. So kann die absoluten Phaseabs nicht mehr zu verlässig bestimmt werden. Hier kommt deshalb vorzugsweise dieses nachstehend Auswerteverfahren zur Anwendung.Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je weils zugehörigen Elementes der Objektoberfläche bestimmt werden.Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger- Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt koinzidieren. So bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemein samen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender Elemente.Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und S2j entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j und S2j aus den Fenstern gebildet. Vorteilhaft sind Fensterlängen mit einer Länge von beispielsweise 8 oder 16 Signalwerte, andere, auch größere Werte sind möglich.Es erfolgt synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem In krement der Verschiebung der Empfänger-Arrays entspricht, über jeden dieser beiden Signalverläufe S1j und S2j und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, wird je ein Signalstück S1 teil Position k j und S2 teil Position k j gebildet.Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be gonnen wird.Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal- Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.Die Invertierung ist notwendig um korrelierbare Signale zu erhalten, da die Abbildungsstrahlen der Ele mente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der Szene im Verschiebungsvorgang entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinander zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D- Aufnahmeanordnung.Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m be stimmt wird. Aus den m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei in die ser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt wird und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete Maxi malwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann eine Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der weiteren Verarbeitung ausgeschlossen werden. Das Maximum der Maximalwert-Kurve kann auch über eine Schwerpunktbildung erfolgen. Dabei können Interpolationsmethoden angewendet werden.So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array- Raum definiert.Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D- Aufnahmeanordnung bekannten ist. So können die Positionen von den Elementen einer Objektoberfläche, von welchen Signalverläufe aufgenommen werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschie bung, der beiden Empfänger-Arrays vorbestimmt sind.Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In terpolationsmethoden angewendet werden.Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objekt oberfläche bezeichnet werden. Es wird darauf in der Offenbarung unter dieser Bezeichnung auf dieses Korrelationsverfahren mit zwei gefensterten Signalverläufen noch weiter Bezug genommen.Weiterhin werden vorzugsweise für die Bestimmung der mittleren Beleuchtungsstärke von Elementen der Objektoberfläche zumindest die Elemente des Empfänger-Arrays im Verschiebungsvorgang der Empfän ger-Arrays ausgelesen, die im Verschiebungsvorgang zumindest näherungsweise je auf einer Strecke lie gen im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist.Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL und die der Empfänger- Arrays an einen anderen Ort kann mit mechanischen oder mit mikromechanischen Mitteln erfolgen.Die beiden Achsen der Abbildungsobjektive können zueinander geneigt sein. Bei einer parallelen Anord nung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der Punkt PA2 im Punkt PA zu sammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen der Empfänger-Arrays übereinstimmen und die Abbildungsobjektive zumindest näherungsweise baugleich sind und die Empfän ger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befinden bilden alle Elemente der beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Verschiebungen der beiden Emp fänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bilder ASO1 und ASO2 im Objek traum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y-Verfahren gesprochen werden kann. Bei der Bestimmung der 3D-Punktwolke kann im Vordergrund der Szene das bereits beschriebene Ver fahren mit der Verschiebung der leuchtenden Flächenelemente FEL und der Bestimmung der absoluten Phase eingesetzt werden. Für den Hintergrund wird das soeben beschriebene Korrelationsverfahren ein gesetzt. Es ist dabei ein Übergangsbereich notwendig. Gegebenenfalls müssen die Verfahren zeitlich nacheinander angewendet werden, um einen Übergangsbereich ohne Informationsverluste überbrücken zu können. Dies ist notwendig, da bei dem Verfahren zur Bestimmung der absoluten Phase sich in der Regel die Elemente des Empfänger-Arrays auf ASAj-Strecken, also parallel zu den Achse des jeweiligen Abbildungsobjektivs bewegen. Dagegen erfolgt die Verschiebung der Empfänger-Arrays beim 3D-Y- Verfahren vorzugsweise auf anderen Strecken, den beiden oberen Y-Ästen. Dies erfordert eine jeweils andere mechanische Bewegung und somit auch der Steuerung der Empfänger-Arrays. Für das 3D-Y- Verfahren mit der beschriebenen Bestimmung des Korrelationsmaximums Mj findet die Verschiebung der leuchtenden Flächenelemente FEL auf Strecken parallel zu der Achse des jeweiligen Beleuchtungsobjek tivs statt.Im phasenauswertenden Verfahren kann aus dem Signalverlauf, der von einem Element der Objektober fläche gewonnen werden kann, die mittlere Beleuchtungsstärke eines Elementes der Objektoberfläche und auch gegebenenfalls dessen Farbe, durch den Einsatz farbsensitiver Elemente des Empfänger- Arrays aus dem detektierten Signalverlauf bestimmt werden. Dies ist für das hier beschriebene Korrelati onsverfahren jedoch nicht ohne weiteres möglich, da ein verschobenes Element des Empfänger-Arrays nicht an einen ortsfesten Abbildungsstrahl gebunden ist, sondern an einen Abbildungsstrahl, der über die Objektoberfläche "wandert", beziehungsweise an unterschiedliche Abbildungsstrahlen von verschiedenen Elementen der Objektoberfläche oder der Szene.Deshalb werden zusätzlich für das Korrelationsverfahren zur Bestimmung der mittleren Beleuchtungsstär ke von Elementen der Objektoberfläche vorzugsweise genau die Elemente des Empfänger-Arrays im Verschiebungsvorgang der Empfänger-Arrays ausgelesen, die zumindest näherungsweise je auf einer Strecke im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist, wobei ein ortsfester Abbildungsstrahl im Objektraum durch ein feststehendes Element der Objektoberflä che oder der Szene und das Pupillenzentrum des zugehörigen Abbildungsobjektivs vorbestimmt ist. Das heißt, bereits vor und nach dem Durchgang der Schärfevolumens durch die Elemente der Objektoberflä che wird von einem Element derselben mindestens ein Signalwert gewonnen. So kann der Einfluß des strukturierten Lichtes in den Elementen der Objektoberfläche durch dessen unscharfe Abbildung für die Bestimmung der mittleren Beleuchtungsstärke eliminiert werden und so auch die Farbe, beziehungsweise die spektrale Zusammensetzung des reflektierten Lichtes von einem Element der Objektoberfläche be stimmt werden. So kann auch von einer Freiraumszene mit einem Vordergrund die 3D-Punktwolke be stimmt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Gerade gA1P in einem Punkt PA in der Hauptebene des Abbildungsobjektivs und im Durchstoßpunkt der Symmetrielinie SL im Array-Raum und die Gerade gA2P im gleichen Punkt PA zum Schnitt gebracht werden, wobei die optischen Achsen der beiden Abbildungsstrahlengänge parallel ange ordnet sind, und die Gerade gA1P zusätzlich den Brennpunkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum enthalten. Bei dieser parallelen Anordnung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der Punkt PA2 im Punkt PA zusammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen der Empfänger-Arrays übereinstimmen sowie die Abbildungsobjektive zumindest näherungsweise bau gleich sind und die Empfänger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befin den, bilden alle Elemente der beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Ver schiebungen der beiden Empfänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bil der ASO1 und ASO2 im Objektraum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y- Verfahren gesprochen werden kann.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Empfängerelemente im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und beim Aufnahmevorgang die zwei Emp fänger-Arrays gleichzeitig und parallel zu jeweiligen optischen Achsen der parallelen Abbildungsobjektive, deren Hauptebenen zusammenfallen, verschoben werden. Dabei sind für die 3D-Aufnahme des Hinter grundes der Szene mindestens zwei parallele, zumindest näherungsweise baugleiche Abbildungsstrah lengänge für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbil dungsstrahlengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet und die Abbildungsobjektive weisen räumlich getrennten Öffnungsblenden auf. Jedem Abbildungsobjektiv ist mindestens je ein Empfänger-Array mit Elementen oder ein Bildes desselben zugeordnet und das Si gnal S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß es dem bei einer realen Verschiebung parallel zu einer Geraden gA1P entstehenden Signal S1 zumindest annähernd entspricht, und das Signal S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß dieses Signal S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zu mindest annähernd entspricht. Die Gerade gA1P wird in einem Punkt PA in der Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird im gleichen Punkt PA in der Hauptebene des zweiten Abbildungsobjektivs, die mit der Hauptebene des ersten Abbildungsobjektivs zumindest nä herungsweise zusammen fällt, zum Schnitt gebracht und zusätzlich enthält die Gerade gA1P den Brenn punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P enthält den Brennpunkt FA2 des Abbil dungsobjektivs im Array-Raum, wobei Verschiebungen der leuchtenden Flächenelemente FEL durchge führt werden und die zugehörigen Verschiebungsstrecken VSBAj parallel zur Symmetrielinie SL der beiden optischen Achsen ausgerichtet sind und der Punkt PA im Durchstoßpunkt der Symmetrielinie SL durch die zusammenfallenden Hauptebenen der beiden Abbildungsobjektive liegt. Aus den Bildern der Verschie bungsstrecken VSBAj wird ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 auf der Symmetrielinie SL gebildet, der mit dem Konvergenzpunkt K0 zusammenfällt.Der Vordergrund der Szene wird strukturiert beleuchtet. Der entfernte Hintergrund der Szene wird nicht mehr von der strukturiert leuchtenden Flächenelementen ausgeleuchtet. Hier wird anstelle der Bestim mung absoluten Phase ϕabs dann das Korrelationsprinzip zur Bestimmung der zO-Positionen der Elemente der Objektoberlläche angewendet. Von Vorteil ist, daß keine laterale Bewegung der leuchtenden Flä chenelemente notwendig ist. Dieses Verfahren ist auch für eine Freiraumszene geeignet. Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebe ne des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So können der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden Punkte PA1 und PA2 zur Koinzidenz gebracht werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL relativ zum Beleuchtungsobjektiv verschoben werden und dabei zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf einer B-Strecke BSAj positioniert werden, wobei die B-Strecken die Sollorte für die leuchtenden Flächenelemente FEL zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti darstellen und die B-Strecken die Achse des Beleuchtungsobjektivs stets unter einem rechten Winkel schneiden. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente werden jeweils genau ein Bild von einem feststehenden Element eines feststehenden Empfängers und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu mindest zu einem einzigen Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird zumindest zu diesem Zeitpunkt ti aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelemen tes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet. Der Zeitpunkt ti für mindestens ein Element eines Empfänger-Arrays wird aus dem Durchgang mindestens eines leuchtenden Flächenele mentes durch einen vorbestimmten Referenzort abgeleitet. Die Elemente des Empfänger-Arrays detektie ren im Zeitintervall Δti der Koinzidenz einen periodischen Signalverlauf und die Phase diese Signalverlau fes wird in Bezug zur Phase am Referenzort ausgewertet.Dies ist ein Ansatz, bei dem nur der vorhandene Schärfentiefebereich im Abbildungsstrahlengang ausge nutzt wird. Es erfolgt keine Verschiebung der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays in zA-Richtung im Array-Raum. Dieses Verfahren ermöglicht die Detektierung einer sich schnell ändernden Form einer Objektoberfläche oder deren Verformung, beziehungsweise die Detektion von Schwingungen der Elemente einer Oberfläche.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise mit einer von einer Strahlungsquelle beleuchteten Objektoberflächen mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse eines ersten Abbildungsobjek tivs für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungsobjektivs für die Abbildung der Objektoberflächen ausgerichtet ist, und so zwischen den beiden Achsen der beiden Abbil dungsobjektive eine Symmetrielinie SL gebildet ist. Jedem Abbildungsstrahlengang ist mindestens ein zu geordneten Empfänger-Array zugeordnet und die beiden Empfänger-Arrays weisen jeweils Empfängere lemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Ob jektoberflächen im Objektraum detektieren und
die beiden Abbildungsobjektive weisen mindestens einen Abstand d von einem Achtel der Ausdehnung der Öffnungsblende des ersten Abbildungsobjektivs auf und die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine Verschiebung an einen anderen Ort. So werden auch die einzelnen Empfängerelemente verschoben und so detektieren die Empfängerelemente dabei an unter schiedlichen Orten elektromagnetische Strahlung. Zumindest näherungsweise erfolgt gleichzeitig die De tektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays und die Elemente des Empfänger-Arrays werden anschließend ausgele sen, wobei jeweils Signalwerte gewonnen werden.Die optischen Achsen der beiden Abbildungsstrahlengänge sind vorzugsweise parallel angeordnet. Es ist vorzugsweise eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und gege benenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei raumszene, gegeben.Beim Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen op tischen Achsen der Abbildungsstrahlengänge, deren Brennebenen im Objektraum zusammenfallen, auf Verschiebungsstrecken ASA1 und ASA2 verschoben. Die Bilder der Verschiebungsstrecken ASA1 und ASA2, die Strecken ASO1 und ASO2, werden im Objektraum zumindest annähernd auf der Symmetrielinie zwi schen den beiden Achsen der Objektive positioniert.Aus dem Streckenbüschel SB21 der Bilder der Verschiebungsstrecken ASA1j der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken ASO1j wird ein Konvergenzpunkt K21 gebildet und aus dem Strec kenbüschel SB22 der Bilder der Verschiebungsstrecken AS2j der einzelnen Elementes des zweiten Emp fänger-Arrays, die Strecken ASO2j, wird ein Konvergenzpunkt K22 gebildet und der Konvergenzpunkt K22 und der Konvergenzpunkt K22 werden auf der Symmetrielinie SL zur Koinzidenz gebracht und bilden auf der Symmetrielinie SL den Konvergenzpunkt K0 und die beiden Empfänger-Arrays werden so verschoben, daß deren Bilder zumindest teilweise im Objektraum zusammenfallen, so daß die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfänger-Arrays im Objektraum paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemen te der beiden Empfänger-Arrays jeweils korrespondierende Elemente darstellen. So wird vorzugsweise jeweils ein aktueller Koinzidenzpunkt aus diesen zwei Bildern von Elementen gebildet, der durch den Ob jektraum verschoben wird. Dies erfolgt vozugsweise mit allen Elementen der Empfänger-Arrays. Es wer den vorzugsweise Signalverläufe S1 des ersten Empfänger-Arrays durch Auslesen der Elemente während der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und es wird die Verschiebung des ersten Empfänger-Arrays parallel zu einer Geraden gA1P durchgeführt und so wer den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf Verschiebungsstrecken ASA1j verschoben.Weiterhin werden Signalverläufe S2 des zweiten Empfänger-Arrays durch Auslesen der Elemente wäh rend der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke ASA2j gebildet und die Verschiebung des zweiten Empfänger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben, wobei die Verschiebung des zweiten Empfänger-Arrays zumindest näherungsweise gleichzeitig mit der des ersten Empfänger-Arrays erfolgt. Die Gerade gA1P wird in einem Punkt PA1 auf der Symmetrielinie SL und in der Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 auf der Symmetrielinie SL und in der Hauptebe ne des zweiten Abbildungsobjektivs zum Schnitt gebracht, wobei die Gerade gA1P zusätzlich den Brenn punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjek tivs im Array-Raum enthält.Aus den beiden Signalverläufen S1j, S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger- Arrays wird durch das vordem bereits beschriebene Korrelationsverfahren mit zwei gefensterten Signal verläufen und einem dabei invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung be rechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von Objektober flächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Ver schiebungen der Empfänger-Arrays vorbestimmt sind.Bei der Verschiebung der Empfänger-Arrays kann es sich um eine elektronisch gesteuerte, mechanische Bewegung handeln. Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array- Raum und die Hauptebene des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So ist gegeben, daß der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symme trielinie SL liegt und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrie linie SL liegt und so die beiden Punkte PA1 und PA2 in einem Punkt PA zur Koinzidenz gebracht werden.Hierbei handelt es sich um das 3D-Y-Verfahren mit einer realen Verschiebung der beiden Empfänger- Arrays auf ASA1- und ASA2-Strecken, also auf den beiden oberen Y-Ästen. So kann von Freiraumszenen bei Tageslicht - einschließlich direktem Sonnenlicht - von Objektoberflächen auch im Hintergrund der Szene die 3D-Punktwolke gewonnen werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise beleuchtete Objektoberflächen mit einem ersten und mindestens einem zweiten Abbil dungsstrahlengang abgebildet werden. Dabei ist die Achse eines ersten Abbildungsobjektivs im Abbil dungsstrahlengang für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungs objektivs im Abbildungsstrahlengang für die Abbildung der Objektoberflächen ausgerichtet. So ist zwi schen den beiden Achsen der beiden Abbildungsobjektive eine Symmetrielinie SL gebildet.Jedem Abbildungsstrahlengang ist mindestens je ein Empfänger-Array zugeordnet und die beiden Emp fänger-Arrays weisen jeweils Elemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren, und die beiden Abbildungsob jektive weisen einen Abstand d des Pupillenzentrums PZOB des ersten Abbildungsobjektivs vom Pupillen zentrum PZOA des zweiten Abbildungsobjektivs im Objektraum von mindestens einem Achtel der Ausdeh nung der Öffnungsblende des ersten Abbildungsobjektiv auf.Die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine elektronisch ge steuerte, mechanische Verschiebung im array-Raum und so werden auch die einzelnen Empfängerele mente verschoben und so detektieren dabei die Empfängerelemente an unterschiedlichen Orten elektro magnetische Strahlung.Die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays erfolgt zumindest näherungsweise gleichzeitig. Die Elemente des Empfänger-Arrays werden anschließend ausgelesen, und es werden jeweils Signalwerte gewonnen und im Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der parallelen, zumindest näherungsweise baugleichen Abbildungsstrahlengänge, de ren Hauptebenen zusammenfallen, verschoben, wobei die Objektoberflächen in der Szene beleuchtet sind.Der Signalverlauf S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen des ersten Empfänger-Arrays während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung benutzt werden, die auf Strecken ASA1 liegen, die parallel zu einer Geraden gA1P ausgerichtet sind und die den Punkt PA1 in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet. So entspricht der gebilde te Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden gA1P entstehenden Signal verlauf S1 zumindest annähernd und der Signalverlauf S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger- Arrays in Richtung der optischen Achsen so gebildet, daß jeweils genau die Elemente des Empfänger- Arrays zur Signalbildung benutzt werden, die auf Strecken ASA2 liegen, die parallel zu einer Geraden gA2P ausgerichtet sind und die den Punkt PA2 in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet.So entspricht der gebildete Signalverlauf S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zumindest annähernd. So wird zumindestens jeweils zu einem Zeitpunkt ti in einem Zeitintervall Δti ein aktueller Koinzidenzpunkt von Elementen der beiden Empfänger-Arrays gebil det, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektrau mes gebildet wird.Die Gerade gA1P wird in einem Punkt PA1 im Durchstoßpunkt der Symmetrielinie SL durch die Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 im Durch stoßpunkt der Symmetrielinie SL durch die Hauptebene des zweiten Abbildungsobjektivs zum Schnitt ge bracht und zusätzlich enthält die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P enthält den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum.Aus den beiden Signalverläufen S1j, S2j von zwei zumindestens jeweils zu einem Zeitpunkt korrespondie renden Elementen der Empfänger-Arrays wird durch das vordem bereits beschriebene Korrelationsverfah ren mit zwei gefensterten Signalverläufen und einem dabei invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objek toberfläche berechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von Objektoberflächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vorbestimmt sind.Die optischen Achsen der beiden Abbildungsstrahlengänge sind auch in diesem Fall vorzugsweise paral lel angeordnet. Es ist eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und gegebenenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei raumszene, gegeben.Die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebene des Abbildungsobjektivs können in einer gemeinsamen Ebene zusammenfallen. So kann der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden Punkte PA1 und PA2 in ei nem Punkt PA zur Koinzidenz gebracht werden. Auch kann es sich bei der Verschiebung der Empfänger- Arrays um eine elektronisch gesteuerte, mechanische Bewegung handeln.Es erfolgt keine reale Verschiebung der beiden Empfänger-Arrays auf den oberen Y-Ästen, sondern eine Verschiebung parallel zu den optischen Achsen der beiden Abbildungsobjektive. So wird durch das Aus leseverfahren der Elemente der Fall des Bewegens auf den oberen Y-Ästen nachgebildet.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdich te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen verschiedenfarbigen Flächenelemente entspricht.Nach einem Zeitbereich, der zumindest näherungsweise dem Zeitbereich ΔtB entspricht, wird das struktu riert farbig leuchtende Array um den 1,5fachen Abstand der einzelnen farbigen Flächenelemente, dies entspricht der halben Wiederholungsperiode WP lateral weiterverschoben, wobei Elemente des Empfän ger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö sung, da durch die in der Regel höhere Anzahl von lichtempfindlichen Elementen bei farbsensitiven Emp fänger-Arrays, eine grundsätzlich höhere Streifendichte verwendet werden kann, wenn jedes leuchtende Flächenelement FELj in einer Richtung als Farbstreifen einzeln gezählt wird. Es werden die Signale in den einzelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektier tes Element einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielswei se in der Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf. Die zu diesem rotempfindlichen Element unmittelbar benachbarten Elemente mit einer nicht rotempfindli chen Charakteristik registrieren dann nur ein sehr schwaches oder gar kein Signal.Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den vorzugsweise 1,5fachen Abstand der einzelnen farbigen Flächenelemente wird erreicht, das die zuvor nicht vom einer vorbestimmten Farbe ausgeleuchteten Elemente der Objektoberfläche nun ausgeleuchtet werden. Dabei wird davon ausgegangen, daß durch die Abbildung der farbig leuchtenden Flächenelemente FEL eine Verbreiterung auf der Objektoberfläche stattfindet, so daß keine Lücken zwischen den Farbstreifen. Mit diesem Verfahren können auch verschiedenfarbige Elemente in der Objektoberfläche erfaßt werden.Es ist aber auch grundsätzlich möglich, die Signalauswertung mit dem bereits beschriebenen phasenaus wertenden Verfahren, beispielsweise im Nahbereich der Szene, durchzuführen. In diesem Fall werden die farbig leuchtenden Flächenelemente FEL auf den bereits beschriebenen Verschiebungsstrecken VBSAj bewegt und die Auswertung für die farbsensitiven Elemente des Empfänger-Arrays durchgeführt. Aus der Verrechnung der Signalintensitäten in den drei Farben oder Wellenlängenspektren kann in der aus der Farbfernsehtechnik bekannten Art und Weise das Farb- und das Helligkeitssignal für jedes erfaßte Ele ment der Objektoberfläche gewonnen werden. So kann für jedes Element der Objektoberfläche die Infor mation über die mittlere Helligkeit, beziehungsweise Beleuchtungsstärke oder Leuchtdichte, und die zu mindest näherungsweise spektrale Zusammensetzung, also die Farbe, und der zO-Wert gewonnen wer den. Aus der bekannten, vorbestimmten Lage der Elemente der mindestens zwei Empfänger-Arrays und der bekannten Geometrie der 3D-Aufnahmeanordnung können so auch die zO-, die xO- und die yO- Raumkoordinaten für die Gesamtheit der detektierten Elemente der Oberflächen in einer Szenen eindeu tig bestimmt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY J unterschiedlicher Leuchtdich te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen, farbig leuchtenden Flächenelemente FEL entspricht.Nach einem Zeitbereich ΔtB, wird das strukturiert farbig leuchtende Array um den einfachen Abstand der einzelnen, farbig leuchtenden Flächenelemente FEL, welcher einem Drittel der Wiederholungsperiode WP entspricht, lateral weiterverschoben, wobei die Elemente des Empfänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö sung, da durch die höhere Anzahl von Elementen bei farbempfindlichen Empfänger-Arrays, eine grund sätzlich höhere Streifendichte verwendet werden kann. Es werden vorzugsweise die Signale in den ein zelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektiertes Ele ment einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielsweise in der Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf.Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den einfachen Ab stand der einzelnen farbigen Flächenelemente wird erreicht, daß die zuvor nicht von einer vorbestimmten Farbe ausgeleuchteten Elemente der Objektoberfläche nun vollständig ausgeleuchtet werden. Dies ist vorteilhaft, wenn als Beleuchtungsobjektiv ein Präzisionsobjektive mit einer sehr guten Modulationsüber tragung verwendet wird. Dadurch ergibt sich im Aufnahmevorgang eine gleichmäßige Ausleuchtung der Objektoberfläche, und es können so auch Elemente in verschiedenen Farben der Objektoberfläche erfaßt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene mit mindestens ei ner Strahlungsquelle vorgeschlagen, die als ein strukturiert leuchtendes Array mit Bereichen unterschied licher Leuchtdichte ausgebildet ist. Weiterhin ist vorzugsweise mindestens eine elektromagnetische Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenelementen FEL ausgebildet.Dabei kann vorzugsweise auch ein strukturiertes Array in der Art eines Liniengitters mit einer vorgeordne ten Strahlungsquelle zur Anwendung kommen. Weiterhin kann im Array-Raum ein strukturiert leuchtendes Array angeordnet sein, welches als ein von der Strahlungsquelle beleuchtetes klassisches Liniengitter, als strukturiertes Array, aber auch als elektronisch steuerbares Liniengitter ausgeführt sein kann. Das Lini engitter kann dabei ein symmetrisches Transparenzprofil mit einer cos2-Verteilung oder auch ein stark un symmetrisches Transparenzprofil mit einem Rechteckprofil aufweisen, wobei letzteres vergleichsweise nur wenige Linien oder nur eine einzelne Linie besitzt. Der letztgenannte Fall sichert bei einem einfachen Auswertealgorithmus die Eindeutigkeit der Gewinnung von Meßpunkten. Die Strahlungsquelle und das strukturierte Array bilden gemeinsam das strukturiert leuchtende Array. Die Orte bestimmter relativer Leuchtdichte des strukturiert leuchtenden Arrays und auch die der lokalen Extrema der Leuchtdichte die ses strukturiert leuchtenden Arrays können elektronisch verschiebbar gemacht sein. Die leuchtenden Flä chenelemente FEL können sich dabei an den Orten der Phase ϕ = 0, als Ort der maximalen Transparenz befinden.Die Strahlungsquelle kann für elektromagnetische Strahlung im sichtbaren und im unsichtbaren Spektral bereich ausgelegt sein, beispielsweise im Spektralbereich von 750 nm bis 900 nm. Auch elektromagneti sche Strahlung im infraroten Spektralbereich mit Wellenlängen größer als 900 nm kann zur Anwendung kommen.Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an geordnet. Dem Beleuchtungsobjektiv ist das strukturiert leuchtende Array zugeordnet. Es kann aber auch ein Bild des strukturiert leuchtenden Arrays dem Beleuchtungsobjektiv zur Abbildung zugeordnet sein. Dabei weist das Beleuchtungsobjektiv eine effektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB auf. Das strukturiert leuchtende Array und das Beleuchtungsobjektiv dienen zur strukturierten Beleuchtung der Objektoberflächen in der Szene.Weiterhin ist mindestens ein Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die Abbil dung der Elemente der Objektoberflächen in der Szene angeordnet. Diesem Abbildungsobjektiv ist min destens ein Empfänger-Array zugeordnet. Das Abbildungsobjektiv weist zur Abbildung der Elemente der Objektoberflächen eine effektive Öffnungsblende mit einem Blendenzentrum BZA auf. Diesem Abbil dungsobjektiv ist mindestens ein Empfänger-Array mit Elementen, die im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren, zugeordnet. Dabei beträgt der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzen trums BZB im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzen trums BZA im Objektraum, mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuch tungsobjektivs.Dabei wird aus einem leuchtenden Flächenelement in einer Leuchtdichteverteilung mit einer vorzugsweise zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbe stimmten Wellenlängenspektrum, wobei diese im weiteren als leuchtende Flächenelemente FEL bezeich net werden, durch Abbildung mit dem Beleuchtungsobjektiv ein Bild eines leuchtenden Flächenelementes FEL im Objektraum gebildet.Speziell bei kleinen Objekten können der Beleuchtungs- und der Abbildungsstrahlengang ein gemeinsa mes Frontobjektiv besitzen.Weiterhin ist ein Bewegungssystem mit vorzugsweise mindestens einer beweglichen Komponente ange ordnet, welches dem strukturiert leuchtenden Array dieses Bewegungssystem zugeordnet ist. Die Ver schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL im Array-Raum und sind vorzugsweise aus der mechanischen Bewegung des strukturiert leuchtenden Arrays gebildet. Es ist aber auch möglich, daß zeitgleich eine elektronische Verschiebung der leuchtenden Flächenelemente FEL, beispielsweise in lateraler Richtung stattfindet und das Bewegungssystem mit mindestens einer beweglichen Komponente eine Bewegung des strukturiert leuchtenden Arrays parallel zur optischen Achse des Beleuchtungsobjek tivs realisiert.Nach Abbildung dieser Verschiebungsstrecken VSBAj durch das Beleuchtungsobjektiv in den Objektraum, ist deren Bild zumindest näherungsweise als mindestens ein Streckenbüschel SB1 mit einem Konver genzpunkt K1 gebildet. Der Konvergenzpunkt K1 weist dabei vorzugsweise einen minimalen Abstand dK1 min von der Achse des Beleuchtungsobjektivs vom 16ten Teil und einen maximalen Abstand dK1 max vom 16fachen des Abstandes d auf.Die Pupillen des Beleuchtungs- und des Abbildungsstrahlenganges sind stets räumlich getrennt. Jedoch fallen die Schärfebereiche des Beleuchtungsstrahlenganges im Objektraum mit Schärfebereichen des Abbildungsstrahlenganges zumindest teilweise zusammen. Die Beleuchtungsstrahlen und die Abbil dungsstrahlen schließen im Objektraum miteinander einen Winkel, den Triangulationswinkel, ein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit der Kon vergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel ange ordnet sein und so der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungs objektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Konver genzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungsobjektivs und im Brennpunkt des Abbildungsobjektivs im Objektraum positioniert sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der das leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Linien und der Linienbreite ausgebildet sein. Dabei können die Linien senkrecht zum Hauptschnitt angeordnet sein und die Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL und so auch der leuchten den Flächenelemente FEL mit lokalen Extrema der Leuchtdichte im Array-Raum - als Resultat der me chanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des struktu riert leuchtenden Arrays im Array-Raum gebildet sein. Aus diesen Verschiebungsstrecken VSBAj kann im Array-Raum im Hauptschnitt und in jeder zum Hauptschnitt parallelen Schnittebene zumindest nähe rungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt K1 gebildet sein und dabei der Konvergenzpunkt K1 einen minimalen Abstand dK1 min von der Achse des Beleuchtungsobjektivs vom 16ten Teil des Abstandes d aufweisen. Der Konvergenzpunkt K1 kann dabei einen maximalen Abstand dK1 max von der Achse des Beleuchtungsobjektivs vom 16fachen des Abstandes d aufweisen und zwischen Pupillenebene und Brennebenen des Beleuchtungsobjektivs im Objektraum angeordnet sein. Weiterhin kann der Konvergenzpunkt K1 des Streckenbüschels im Hauptschnitt im Pupillenzentrum PZAA des Abbil dungsobjektivs im Array-Raum angeordnet sein und die Konvergenzpunkte in den zum Hauptschnitt paral lelen Schnitten gemeinsam mit dem Konvergenzpunkt K1 des Hauptschnittes auf einer Geraden senkrecht zum Hauptschnitt angeordnet sein. Das Pupillenzentrum PZOA des Abbildungsobjektivs und das Pupillen zentrum PZ0B des Beleuchtungsobjektivs im Objektraum können gemeinsam auf einer Geraden angeord net sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist.Bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsob jektivs werden vorzugsweise nur Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke ASAj im Array- Raum angeordnet sind, deren Verlängerungsgerade jeweils mit einer Geraden senkrecht zum Haupt schnitt, die das Zentrum der Austrittspupille des Abbildungsobjektivs enthält, zum Schnitt gebracht ist, wobei bei der Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren Bil dern im Objektraum im Hauptschnitt zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das leuch tende Array als elektronisch steuerbares Gitter ausgebildet sein und vorzugsweise die Verschiebungs strecken der Orte konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche und so auch der Orte lokaler Extrema der Leuchtdichte im Array-Raum als Resultat der mechanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden Arrays im Array-Raum ausgerichtet sein und aus diesen Verschiebungsstrecken im Array-Raum kann zumindest näherungsweise mindestens ein Streckenbündel mit einem Konvergenzpunkt KA1 gebildet sein. Der Kon vergenzpunkt KA1 des Streckenbündels kann im Pupillenzentrum PZAA, des Abbildungsobjektivs im Array- Raum angeordnet sein und so kann der Konvergenzpunkt K1 im Objektraum im Pupillenzentrum PZ0A des Abbildungsobjektivs angeordnet sein. Das Pupillenzentrum PZ0A des Abbildungsobjektivs und das Pupil lenzentrum PZ0B des Beleuchtungsobjektivs können im Objektraum gemeinsam auf einer Geraden ange ordnet sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist. Bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs können nur die Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet und zur Bildung eines ein zelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger- Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils das Zentrum der Austrittspupille des Abbildungsobjektivs schneidet, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel zu einer definierten Geraden gAP angeordnet sein. Dabei weisen die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende relative Leuchtdichte auf. Die Gerade gAP schneidet den Brennpunkt FAB des Beleuchtungsobjektivs im Ar ray-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und Brennweite fB des Beleuchtungsobjektivs auf, wobei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, dem eine Komponente des Bewegungssystems dem Empfänger-Array zugeordnet ist, und so bei der mechani schen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke A5 dessen Elemente Verschie bungsstrecken ASAj auf parallelen Geraden zugeordnet sein, wobei vorzugsweise aus den Bildern ASOj dieser Strecken ASAj bei Abbildung durch das Abbildungsobjektiv zumindest näherungsweise mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet sein kann. Dabei kann der Konvergenzpunkt K1 und der Konvergenzpunkt K2 mit dem Brennpunkt FOA und dem Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Achse des Beleuchtungsobjektivs und die Achse des Abbildungsobjektivs parallel zueinander angeordnet sind und das Abbildungsobjektiv auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine Kom ponente des Bewegungssystems dem Empfänger-Array zugeordnet sein und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke AS dessen Elemente Verschiebungs strecken ASAj auf parallelen Geraden zugeordnet sein, wobei aus den Bildern dieser Strecken bei Abbil dung durch das Abbildungsobjektiv zumindest näherungsweise mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet ist. Der Konvergenzpunkt K1 und der Konvergenz punkt K2 können mit dem Brennpunkt FOA und dem Pupillenzentrum PZOA der Pupille des Abbildungsob jektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein und das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein. So können die Achsen des Beleuchtungsobjektivs und des Abbildungsobjektivs parallel zueinander angeord net sein und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der die Komponenten des Bewegungssystem so angeordnet sein, daß im Array-Raum mit dem Brennpunkt FAB des Beleuchtungsobjektivs als Bezugspunkt für das leuchtende Array eine Gesamtbewegungsrichtung zumindest annähernd parallel zu einer Geraden gA im Array-Raum realisiert ist, so daß die Elemente des strukturiert leuchtenden Arrays sich auf parallelen Geraden zur Gerade gA bewegen und diese Gerade gA mit dem Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum zum Schnitt gebracht ist und den Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Abstand d des Brennpunktes FAA des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs auf weist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch tungsobjektivs bezogen ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe gungssystem aus zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung dem Emp fänger-Array zugeordnet sein und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Abbildungsobjektivs justiert sein und die zweite Linearführung der ersten Linearführung und dem strukturiert leuchtenden Array zugeordnet sein und die Bewegungsrichtung der zweiten Linearführung zumindest annähernd senkrecht zur optischen Achse des Beleuchtungsobjektivs justiert sein, so daß als Resultat der linearer Einzelbewegungen der beiden Linearführungen das struktu riert leuchtende Array zumindest annähernd parallel zur Geraden gA bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe gungssystem, bestehend aus einer einzigen Linearführung mit einem Schlitten und einer Basis, im Raum des strukturiert leuchtenden Arrays und Empfänger-Array angeordnet sein und die Linearführung wenig stens dem strukturiert leuchtenden Array fest zugeordnet sein und die Bewegungsrichtung für das struk turiert leuchtende Array zumindest annähernd parallel zur Geraden gA im Array-Raum ausgerichtet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe gungssystem aus mindestens zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung beweglichen Komponenten des Beleuchtungsobjektivs zur Innenfokussierung und beweglichen Kompo nenten des Abbildungssobjektivs zur Innenfokussierung fest zugeordnet sein und die zweite Linearfüh rung dem strukturiert leuchtenden Array zur Bewegung senkrecht zur optischen Achse des Beleuchtungs objektivs fest zugeordnet sein. Bei der Verwendung von präzisen Linearführungen kann so eine hochdy namische 3D-Aufnahme-Anordnung realisiert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe gungssystem aus einer Linearführung aufgebaut und diese dem Empfänger-Array zugeordnet sein und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Ab bildungsobjektivs angeordnet sein und ein rotatorischer Antrieb der Linearführung zuordnet sein und das strukturiert leuchtende Array wiederum dem rotatorischen Antrieb zugeordnet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu riert leuchtende Array als Gitter mit einer spiralförmigen Figur als Archimedische Spirale mit mindestens einem Gang ausgebildet und drehbar angeordnet sein und mindestens ein Ausschnitt des Gitters mit der spiralförmigen Figur als strukturiertes Array benutzt werden, wobei vorzugsweise in Verbindung mit der Strahlungsquelle das strukturiert leuchtende Array gebildet ist, und die Drehachse des Gitters mit der spi ralförmigen Figur parallel zur Achse des Beleuchtungsobjektivs angeordnet und außerdem ein rotatori scher Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet ist. Um eine kontinuierliche Aufnahme von bewegten Objekten mit einer hohen Geschwindigkeit erreichen zu können und dabei gleichzeitig die störende Wirkung von impulsförmigen Reaktionskräften auf die 3D- Aufnahme-Anordnung zu vermeiden, kann ein Gitter mit einer spiralförmigen Figur als Archimedische Spi rale mit mindestens einem Gang ausgebildet und drehbar angeordnet sein. Das Gitter mit der spiralförmi gen Figur ist dabei bezüglich seiner Drehachse sorgfältig ausgewuchtet. Es wird eine Präzisionslagerung verwendet. Ein Ausschnitt des rotierenden Gitters mit der spiralförmigen Figur dient als strukturiert leuch tendes Array. Die Drehachse des Gitters mit der spiralförmigen Figur ist dabei vorzugsweise parallel zur Achse des Beleuchtungsobjektivs angeordnet. Es wird für die Erzeugung der Drehbewegung ein rechner gesteuerter rotatorischer Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet. Die Phase des Gitters mit der spiralförmigen Figur kann mit einer radial angeordneten, schnell auslesbaren Foto- Diodenzeile bestimmt werden. Es kann auch eine CCD-Zeile mit einer Bildauslesefrequenz im 10 KHz- Bereich eingesetzt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Abbil dungsobjektiv gemeinsam mit dem Empfänger-Array und den zugeordneten Komponenten des Bewe gungssystems um eine Achse, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs durchstößt, im Objektraum drehbar angeordnet sein. So können die Objektflächen in einer Szene aus unterschiedlichen Richtungen beobachtet werden, ohne daß die durch die Beleuchtung vorgegebene ab solute Phase verändert wird.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Be leuchtungsobjektiv gemeinsam mit dem strukturiert leuchtenden Array und den zugeordneten Komponen ten des Bewegungssystems und der Strahlungsquelle um eine Achse, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs durchstößt, im Objektraum drehbar angeordnet sein. So können die Objektflächen in einer Szene aus unterschiedlichen Richtungen beleuchtet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu riert leuchtende Array eine gerasterte Struktur mit äquidistanten Abständen aufweisen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem Lini engitter ein Gegengitter mit der gleichen Gitterkonstante und ein Nullpunktgeber zugeordnet sein. Da durch ist eine besonders präzise Gewinnung der absoluten IstphaseGitter möglich. So kann die für das Auswerteverfahren benötigte Information über die absolute, lateral invariante Objektphase durch optische Bestimmung der absoluten IstphaseGitter direkt aus der Bewegung des beleuchteten Liniengitters durch optische Kopplung des Liniengitters mit einem Gegengitter und einem Nullpunktgeber unter Verwendung eines elektronischen Auswerte-Moduls mit einem Rechnerinterface für die Berechnung der absoluten, la teral invarianten Objektphase abgeleitet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine trans parente optische Platte der 3D-Aufnahme-Anordnung als permanent verbleibende Referenzplatte in der Nahdistanz zugeordnet sein, wobei vorzugsweise auf mindestens einer der beiden Flächen der optischen Platte eine schwach lichtstreuende Mikrostruktur aufgebracht ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Beleuch tungsstrahlengang mit einem afokalen System mit einem inneren Brennpunkt FBi aufgebaut sein und der Abbildungsstrahlengang mit einem inneren Brennpunkt FAi und im Objektraum der Brennpunkt des afoka len Beleuchtungsstrahlenganges und der Brennpunkt des afokalen Abbildungsstrahlenganges zumindest näherungsweise zusammenfallen und der Konvergenzpunkt K1 in einem Abstand dK1 von der optischen Achse des Beleuchtungsobjektivs angeordnet sein, wobei der Abstand dK1 dem halben Abstand vom inne ren Brennpunkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlen ganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht, wobei das Beleuch tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil dungsstufen zumindest näherungsweise telezentrisch ausgeführt sind.Das Bewegungssystem kann mit mindestens einer beweglichen Komponente so angeordnet sein, daß dessen Bewegungsrichtung zumindest annähernd parallel zu einer Geraden gA justiert ist und so leuch tende Flächenelemente FEL auf Verschiebungsstrecken VSBAj verschoben werden und die Gerade gA kann den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum durchstoßen und für die Gerade gA kann der Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Ab stand dK1 realisiert sein, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs bezogen ist, und eine zur optischen Achse des Abbildungsobjektivs zumindest annähernd parallele Verschiebung des Empfänger-Arrays besteht.Weiterhin kann mindestens ein feststehender Umlenkspiegel dem Abbildungsobjektiv zugeordnet sein und so strukturiert leuchtendes Array und Empfänger-Array in zueinander parallelen Ebenen liegen und so nur ein einziger z-Schlitten für das leuchtende Array und das Empfänger-Array angeordnet ist.Diese Anordnung ist für 3D-Aufnahmen im Makro-Raum sehr geeignet. Dabei können die beiden Objekti ve im afokalen System auch sehr unterschiedliche Brennweiten aufweisen. Von Vorteil ist weiterhin, daß die effektive Wellenlänge im gesamten Objektraum konstant ist. Die leuchtenden Flächenelemente FEL befinden sich ständig auf den B-Strecken BSAj.Der Abstand dK1 entspricht vorzugsweise dem halben Abstand vom inneren Brennpunkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brenne bene Fi des Beleuchtungsstrahlenganges. Dies bedeutet, daß der Konvergenzpunkt K1 im Durchstoß punkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbildungsstrahlen ganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt. Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse wählbar, so daß sowohl eine senkrechte Beobach tung und Schrägbeleuchtung als auch eine senkrechte Beobachtung und Schrägbeobachtung möglich sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf der Verschiebungstrecke ASA1 und die Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungstrecke ASA2 stattfindet. Die Ver schiebungsstrecken ASA1 und die Verschiebungstrecke ASA2 können sich in einem Punkt PA in der zu sammenfallenden array-seitigen Hauptebene schneiden, wobei sich die Elemente des ersten Empfänger- Arrays auf den Verschiebungsstrecken ASA1j und sich die Elemente des zweiten Empfänger-Arrays auf den Verschiebungsstrecken ASA2j bewegen.Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken ASA1j, die Strecken ASO1j, des ersten Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder der Verschiebungsstrecken ASA2j, die Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuchtungsstrahlenganges können im Koinzi denzpunkt KO zusammenfallen. Zu den beiden parallelen Abbildungsstrahlengängen kann mittig und symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf der Verschiebungsstrecke VSAP ver schiebbaren strukturiert leuchtenden Array mit linienhaften Elementen in der Ebene der beiden Empfän ger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig und symmetrisch angeordnet sein, also mit einer zu den beiden Abbildungsstrahlengängen parallelen optische Achse, und dessen array seitiger Hauptpunkt HAB kann mit dem Punkt PA zusammenfallen. Der objektseitige Brennpunkt FOB des Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen, und es kann ein be leuchtetes Liniengitter als strukturiert leuchtendes Array angeordnet sein.Die Empfänger-Arrays bewegen sich hierbei vorzugsweise real auf den Verschiebungsstrecken ASA1 und ASA2 und die Elemente der Empfänger-Arrays auf den Verschiebungsstrecken ASA1j und ASA2j.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse und die Verschiebung des zweiten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse stattfindet. Die Elemente der beiden Empfänger-Arrays können so ausgele sen werden und Signale gebildet werden, als ob sich die Empfänger-Arrays auf Verschiebungsstrecken ASA1 befinden würden und die Verschiebungstrecke ASA2 sich in einem Punkt PA in der zusammenfallen den array-seitigen Hauptebene schneiden. Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken ASA1j, die Strecken ASO1j, des ersten Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder der Verschiebungsstrecken ASA2j, die Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuch tungsstrahlenganges können im Koinzidenzpunkt KO zusammenfallen. Zu den beiden parallelen Abbil dungsstrahlengängen kann mittig und symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf der Verschiebungsstrecke VSAP verschiebbaren strukturiert leuchtenden Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig und symmetrisch angeordnet sein, also mit einer zu den beiden Abbildungsstrahlengängen parallelen op tische Achse, und dessen arrayseitiger Hauptpunkt HAB mit dem Punkt PA zusammenfällt. Der objektseiti ge Brennpunkt des Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen und es kann ein strukturiert leuchtendes Array angeordnet sein.Die Empfänger-Arrays bewegen sich vorzugsweise nicht real auf den Verschiebungsstrecken ASA1 und ASA2, sondern es werden die Elemente der Empfänger-Arrays ausgelesen, die in Zusammenwirken mit der Parallelverschiebung den Effekt ergeben, als ob diese sich auf den Verschiebungsstrecken ASA1j und ASA2j bewegen würden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise baugleich sein und deren Brennebenen können im Objektraum koinzidieren. Das leuchtende Array kann mit leuchtenden Farbstreifen gebildet sein, die zumindest näherungsweise lückenlos aneinandergereiht sind, wobei das leuchtende Array aus transmittierenden Mikroelementen und aus reflektierenden Mikro elementen aufgebaut ist, und dem strukturierten Array kann eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet sein, wobei das Licht mindestens einer Lichtquelle das strukturierte Array in einer fokussierenden Struktur durchsetzt und das Licht von mindestens zwei Lichtquellen auf Mikro spiegelelemente trifft.Die beiden Empfänger-Arrays und das strukturierten Array können mit einem Bewegungssystem zur prä zisen, synchronen Bewegung verbunden sein, wobei die optisch aktiven Ebenen der beiden verschiebba ren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebene gehalten werden können, wodurch die optisch konjugierten Ebenen im Objektraum stets koinzidie ren.Dadurch wird erreicht, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung ver lustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Die Strah lungsquellen können dabei als Laserlichtquellen, farbige Lichtquellen oder als konventionelle weiße Licht quellen mit Farbfiltern gebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein farbig leuchtendes Array als Gitter mit einem asymmetrischen Furchenprofil gebildet sein. Dieses besteht aus Dreieckprofilen, die Makro-Profilflächen aufweisen, und besitzt eine auf dem gesamten Gitter zumindest näherungsweise gleichbleibenden Gitterkonstante zwischen 0,01 mm und 2 mm, die als Makro- Gitterkonstante bezeichnet wird. Dem Gitter ist mindestens eine Strahlungsquelle zur Beleuchtung zuge ordnet.Auf der Oberfläche des Gitters können zumindest näherungsweise Dreieckprofile gebildet sein und auf den Makro-Profilflächen derselben jeweils zusätzlich ein Mikrofurchenprofil mit einer innerhalb einer Ma kro-Profilfläche veränderlichen Gitterkonstante des Mikrofurchenprofils und einer mittleren Mikro- Gitterkonstante desselben zwischen 0,0005 mm und 0,01 mm ausgebildet sein. So besteht für das einfal lende Licht eine fokussierende Wirkung verbunden mit einer Farbaufspaltung zumindest in die drei Farb bereiche blau grün rot. Hierbei kann auch ein diffraktives Reflexionsgitter eingesetzt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Mi krofurchenprofil auf den Makro-Flächen als ein asymmetrischen Mikro-Dreieckprofil ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter als Transmissionsgitters mit einem asymmetrischen Furchenprofil mit Makro-Dreieckprismen ausgebildet sein, Dabei ist vorzugsweise das Mikroprofil auf den Hauptflächen der Makro-Dreieckprismen als ein asymmetrischen Mikro-Dreieckprofil mit Mikroprismen ausgebildet.Dabei können je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, re flektierende Elemente zugeordnet sein. Dem Transmissionsgitters können eine Rotlichtquelle, eine Grün lichtquelle und eine Blaulichtquelle zugeordnet sein, wobei vorzugsweise das Licht einer Lichtquelle das leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von mindestens zwei separa ten Lichtquellen auf die reflektierenden Elemente trifft.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise baugleich sein und deren Brennebenen im Objektraum koinzidieren. Das strukturiert leuchtende Array ist dabei aus transmittierenden und gleichzeitig fokussierenden Mikroelementen und aus reflektierenden Mi kroelementen gebildet, wobei je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, reflektierende Elemente zugeordnet sind. Dem strukturiert leuchtende Array ist eine Rot lichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet, wobei vorzugsweise das Licht einer Lichtquelle das leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von minde stens zwei separaten Lichtquellen unter einem Einfallswinkel von mindestens 10° auf die reflektierenden Elemente trifft. So kann mit drei einzelnen Lichtquellen mit vergleichsweise wenig Lichtverlusten ein farbig leuchtendes Array realisiert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die beiden Empfänger-Arrays und das leuchtende Array mit einem Bewegungssystem zur präzisen, synchronen Be wegung verbunden sein, wobei vorzugsweise die optisch aktiven Ebenen der beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebe ne gehalten sind, wodurch die optisch konjugierten Ebenen im Objektraum permanent zur Koinzidenz ge bracht sind.So ist gegeben, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung besonders verlustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Ein gro ßer Anteil des transmittierten Anteils kann das leuchtende Array passieren und trägt so zur Ausleuchtung der Objektoberfläche bei. Weiterhin wird dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumindest nähe rungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem struk turierten Array ein steuerbarer Stellmechanismus zur lateralen Bewegung zugeordnet sein.Dieser Stellmechanismus am strukturierten Array dient vorzugsweise der vergleichsweise langsamen late ralen Bewegung, um im Aufnahmevorhang nach und nach jedes Element einer Objektoberfläche mit den Farben rot, grün und blau beleuchten zu können. Dieser Stellmechanismus zur lateralen Bewegung kann sich dabei schrittweise vorwärts und rückwärts bewegen. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberllächen in einer Szene das struktu riert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdichte und mit leuchtenden Flä chenelemente FEL mit Mikro-Farbteilern ausgebildet sein, so daß vorzugsweise eine nahezu planare Struktur gebildet ist. Dies führt zu einem sehr guten Lichtwirkungsgrad.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu riert leuchtende Array mit Bereichen LBARRAY j mit zumindest näherungsweise gleichem Abstand der leuchtenden Flächenelemente FEL in einer Ebene in den Farben rot, grün und blau gebildet sein, wobei vorzugsweise die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen verschieden farbigen Flächenelemente entspricht und vorzugsweise Elemente des Empfänger-Arrays farbsensitiv und auf das Wellenlängenspektrum der leuchtenden Flächenelemente abgestimmt FEL sind.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu rierte Array zumindest auf einem Teilbereich einer Scheibe ausgebildet sein, der vorzugsweise eine rota torische Präzisionslagerung mit einer Welle mit einem rotatorischen Präzisionsmotor zugeordnet ist, so daß eine rotierende Scheibe gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu riert leuchtende Array auf einer rotierenden Scheibe als ein rotationssymmetrisches Transmissions-Gitter ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene an einem äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsystem zur Erfassung der axialen Ablage eines Teilbereiches der rotierenden Scheibe von einer axialen Sollposition angeordnet sein.Dabei ist das Meßsystem in seiner messenden Funktion vorzugsweise einem kreisringförmigen Bereich der rotierenden Scheibe zugeordnet, so daß jeweils die axiale Ablage in einem kreisringförmigen Bereich derselben, verursacht durch Axialschlag und Taumelschlag der rotierenden Scheibe hochgenau und hochdynamisch gemessen werden kann.Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Das Meß systems befindet sich in unmittelbarer Nähe des jeweils abgebildeten Ausschnittes des strukturierten Ar rays auf der Kreisscheibe. Für die optische Messung befindet sich auf der Scheibe dazu vorzugsweise auf einer stetigen Planfläche ein zumindest teilweise reflektierender Bereich. Das Meßsystem befindet sich vorzugsweise in einem Rachen des hochstabilen Gestells aus einem Werkstoff mit einem vorzugsweise geringen Temperaturausdehnungskoeffizienten wie beispielsweise Keramik oder eine Eisen-Nickel- Legierung.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises der rotierenden Scheibe zuge ordnet ist, so daß die axiale Ablage eines Sektors, verursacht durch Axialschlag und Taumelschlag bei der Rotation der Kreisscheibe, hochdynamisch ausgeregelt und so vorzugsweise jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage zumindest eines Teilbereiches des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann als Piezo- Steller als Komponente eines Lage-Regelkreises ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises ausgebildet und der rotieren den Welle zugeordnet ist, so daß vorzugsweise die axiale Ablage eines Teilbereiches der rotierenden Scheibe, verursacht durch Taumelschlag bei der Rotation derselben, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann auch Komponenten des Beleuchtungsobjektivs zugeordnet sein, so daß im Objektraum das Bild des strukturiert leuchtenden Ar rays sich stets in der gleichen Position befindet.Das Stellsystem kann als Piezo-Steller als Komponente eines Lage-Regelkreises ausgebildet sein. Im Effekt werden sowohl der Axialschlag als auch ein gegebenenfalls vorhandener Taumelschlag der rotie renden Scheibe ausgeregelt. Es ist auch möglich, daß die rotierende Scheibe keine sehr hohe Steifigkeit aufweist und das Stellsystem durch eine elastische Deformation die axiale Sollposition realisiert, bei spielsweise durch die Wirkung magnetischer Kräfte.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsy stem zur Erfassung der radialen Ablage von einer Sollposition eines Teilbereiches der rotierenden Schei be angeordnet sein, welches vorzugsweise der rotierenden Scheibe zugeordnet ist, so daß in einem Kreisring der rotierenden Scheibe jeweils die radiale Ablage derselben, verursacht durch Radialschlag bei der Rotation der Kreisscheibe, hochdynamisch und hochgenau gemessen werden kann.Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Im Fall der Anwendung eines optischen Meßverfahrens kann sich eine Referenzspur in Form eines konzentrischen Kreises in unmittelbarer Nachbarschaft, beispielsweise in einem mittleren Abstand maximal 10 mm, zum strukturiert leuchtenden Array auf der rotierenden Scheibe befinden. Diese Referenzspur kann mit einer Genauigkeit von 0,1 µm zu einer Referenz- oder Symmetrielinie des strukturiert leuchtenden Arrays posi tioniert sein. Es kann auch ein präziser Ringspalt als Referenzspur gebildet sein, so daß das transmittierte Licht für die Bestimmung der radialen Ablage ausgewertet wird.Als Basiswerkstoff kann aus Gründen der Invarianz gegenüber Temperaturänderungen Quarzglas für die rotierenden Scheibe eingesetzt werden. Für nichttransparente Bereiche der Scheibe kann auch ein faser verstärkter Werkstoff eingesetzt werden. Der abgebildete Ausschnitt des strukturierten Arrays befindet sich vorzugsweise in unmittelbarer Nähe des Meßsystems. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Steilsystem zur Be einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange ordnet sein. Dieses Steilsystem ist vorzugsweise als Komponente eines Lage-Regelkreises der rotieren den Welle der rotierenden Scheibe zugeordnet, so daß die radiale Ablage eines Teilbereiches, verursacht durch Radialschlag bei der Rotation der rotierenden Scheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe mit dem strukturiert leuchtenden Array in der radialen Sollposition gehalten und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten werden kann. So kann vorzugsweise auch der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays im Array-Raum konstant gehalten werden kann.Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum jeweils unabhängig vom Radialschlag konstant gehalten und die genaue laterale Zuordnung zwischen ei nem vorbestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flä chenelementes FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich ΔtB erhalten. Dies ist für die Genauigkeit bei phasenauswertenden Verfahren wichtig.Das Stellsystem kann als Piezo-Steller als Komponente eines Lage Regelkreises ausgebildet sein, der gemeinsam mit dem Meßsystem eine Komponente eines Lage-Regelkreises darstellt. Als Kriterium für die Lageregelung gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenelementes FELj und eines vorbestimmten Element des Empfänger-Arrays während der Rotation der rotierenden Scheibe konstant gehalten werden soll, so daß gegebenenfalls auftretender Radialschlag gemessen und durch das Stellsy stem ausgeregelt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange ordnet sein. Das Stellsystem ist vorzugsweise als Komponente eines Lage-Regelkreises dem Empfänger- Array im Abbildungsstrahlengang zugeordnet, so daß die laterale Lage des Empfänger-Arrays hochdy namisch geregelt und so und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten und so der laterale Abstand der Lage eines vorbestimmten Elementes des Emp fänger-Arrays und eines vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchten den Arrays im Array-Raum konstant gehalten werden kann.Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum jeweils unabhängig vom Radialschlag gehalten und die genaue laterale Zuordnung zwischen einem vor bestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich tB erhalten. Das Stellsystem kann als Pie zo-Steller ausgebildet sein, der gemeinsam mit dem Meßsystem eine Komponente eines Lage- Regelkreises darstellt. Als Kriterium gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenele mentes FELj des strukturiert leuchtenden Arrays von einem vorbestimmten Element des Empfänger- Arrays während der Rotation der Scheibe konstant gehalten werden soll, so daß eine gegebenenfalls auf tretende Abweichung vom Sollabstand des Empfänger-Arrays vom strukturiert leuchtenden Array gemes sen und durch das Stellsystem, welches die laterale Position des Empfänger-Arrays bestimmt, ausgere gelt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren de Scheibe mit mindestens zwei Sektoren ausgebildet sein und die Sektorenflächen die Stufenflächen ei ner Wendeltreppe darstellen.So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge bracht werden, wobei sich deren geometrisch-optische Weglänge zum Beleuchtungsobjektiv definiert än dert, und so deren Bild in unterschiedliche Tiefen des Objektraumes abgebildet wird.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto renflächen jeweils die Begrenzungsflächen einer transparenten Platte darstellen, wobei diese so gestalte te rotierenden Scheibe im weiteren als Wendeltreppenscheibe bezeichnet wird.So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge bracht werden, wobei sich die axiale Gegenstandsweite der unterschiedlichen Bereiche des strukturierten Arrays im Beleuchtungsstrahlengang durch die Dicke der Platte ändert, und so deren Bilder in unter schiedliche Tiefen des Objektraumes abgebildet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel treppenscheibe mit zumindest näherungsweise regelmäßigen, gleichflächigen Stufenflächen als vollflächi ge Wendeltreppenscheibe mit Stufenabsätzen mit Stufenhöhen Δhj gebildet sein und auf die gleichflächi gen Stufenflächen der Sektoren der transparenten Platte je ein strukturiertes Array aufgebracht sein und vorzugsweise das Licht der Strahlungsquelle erst nach dem Passieren der Fläche des strukturierten Ar rays die Platte passiert. Weiterhin können die Stufenflächen zumindest näherungsweise senkrecht zur Drehachse ausgerichtet sein und vorzugsweise mindestens ein einziger Absatz auf der Wendeltreppen scheibe mit mindestens der zweifachen Stufenhöhe ausgebildet sein. Die Wendeltreppenscheibe kann dabei eine zumindest näherungsweise mittlere Steigung pro Umdrehung von maximal einem Zwanzigstel des Radius' der Wendeltreppenscheibe aufweisen.Vorzugsweise kommt auf der Wendeltreppenscheibe nur die Fläche einer Stufe, beziehungsweise eines Sektors in den optischen Strahlengang zu einem Zeitpunkt zur Wirkung. Es ist aber auch möglich, daß mehrere Sektorenflächen, wenn diese sehr schmal ausgeführt sind, im optischen Strahlengang zur Wir kung kommen. In diesem Fall detektieren die Bereiche eines Empfänger-Arrays zu unterschiedlichen Zeiten Signalwerte von verschiedenen Sektorenflächen.So kann der mittlere geometrisch-optische Abstand eines strukturierten Array, die Gegenstandsweite, dem jeweils eine Strahlungsquelle zugeordnet ist, vom zugeordneten Beleuchtungsobjektiv bei der Rotati on der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt durch die geometrisch-optische Weglängenänderung durch die Stufenwirkung verändert werden. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel treppenscheibe als ein in sich hochstabiler Körper aus gebildet sein und die Sektorenflächen der transpa renten Platten auf einer Seite der Wendeltreppenscheibe können in einer gemeinsamen Ebene liegen und so eine Fläche bilden. So kann die geometrisch-optische Weglänge der transparenten Platten den Stufe zu Stufe vorbestimmt verändert werden, indem vorzugsweise verschieden dicke, transparente Platten gebildet sind.So kann der mittlere geometrisch-optische Abstand, die Gegenstandsweite, eines strukturierten Array dem jeweils eine Strahlungsquelle und das Beleuchtungsobjektiv zugeordnet ist, vom zugeordneten Be leuchtungsobjektiv bei der Rotation der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt durch die geometrisch-optische Weglängenänderung durch die verschieden dicken transparenten Platten verändert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in den Stu fenflächen der vollflächigen Wendeltreppenscheibe je ein weiterer transparenter und unstrukturierter Sektorenbereich für den Abbildungsstrahlengang angeordnet sein.So kann für den Abbildungsstrahlengang ebenfalls sehr schnell und auch synchron sowie hochgenau und vorbestimmt eine geometrisch-optische Weglängenänderung im Zeitbereich ΔtB realisiert werden und so können bei zumindest näherungsweise baugleicher Ausführung, paralleler Achslage und entsprechender Justierung sowohl der Beleuchtungsstrahlengang als auch der Abbildungsstrahlengang auf die jeweils gleiche Schärfeebene fokussiert sein. Die Rotationsbewegung der Wendeltreppenscheibe wird so mit dem Auslesen der Elemente des Empfänger-Array synchronisiert, daß in der Integrationszeit beispielsweise einer Matrixkamera eine bewegte Segmentfläche die Fläche der Matrixkamera vollständig überdeckt, wo bei die Segmentfläche größer als die Fläche der Matrixkamera ist. Es ist jedoch auch eine gesteuerte teil weise Überdeckung möglich. In diesem Fall können die Elemente der Matrixkamera zeilenweise oder in Gruppen von Zeilen ausgelesen werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk turierten Arrays auf den Stufenflächen der zugehörigen Platten in der Art eines als Tangentialgitters auf gebracht sein. So kann über der Rotation der Scheibe eine nur vergleichsweise geringe oder gar keine Phasenänderung in einem Feld eines strukturiert leuchtenden Arrays erzeugt werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk turierten Arrays auf den Stufenflächen der zugehörigen Platten der Wendeltreppenscheibe in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet sein. So kann die Phase von einem Signal, welches aus einem Feld eines strukturiert leuchtenden Arrays bei der Rotation innerhalb eines Zeitintervalls gewonnen wird, beispielsweise des Zeitintervalls der Inte gration zumindest eines Bereiches des Empfänger-Arrays, beispielsweise einer Zeile, konstant gehalten werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter mit äquidistanten konzentrischen Kreisen von Stufenflächen zu Stufenflächen der Wendeltreppenscheibe einen Sprung in der Struktur dieses Gitter in radialer Richtung in der Art eines Phasensprunges aufwei sen. So besteht die Möglichkeit, die Phasenlage bei der Rotation der Wendeltreppenscheibe im Beleuch tungsstrahlengang in definierten Schritten zu verändern.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem ganzzahligen Vielfachen eines Viertels der mittleren Gitterkonstanten des Gitters betragen. So können bekannte Phasen- Auswerte-Algorithmen eingesetzt werden, die vorzugsweise mit einem ganzzahligen Vielfachen von 90° arbeiten, wobei der Wert von 90° eingeschlossen ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem Dreiviertel der mittleren Gitterkonstanten des Gitters betragen. So können bekannte Sub-Nyquist-Phasen-Auswerte-Algorithmen eingesetzt werden, die insgesamt weniger Stützstellen benötigen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den Stufenflächen der Wendeltreppenscheibe zumindest in Teilbereichen auf der planen Fläche der Wendel treppenscheibe ein Referenzgitter aufgebracht sein. So kann die Rotation und die aktuelle Winkellage der Wendeltreppenscheibe gemessen werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe renzgitter auf der planen Fläche der Wendeltreppenscheibe zumindest näherungsweise eine Radialstruk tur aufweisen. So kann die Rotation und die aktuelle Winkellage der Wendeltreppenscheibe hochgenau gemessen werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe renzgitter zumindest näherungsweise eine Radialstruktur mit einer cos2-Transparenz-Verteilung und eine Ortsfrequenz aufweisen, die vorzugsweise der Ortsfrequenz entspricht, die aus der mittleren Phasenän derung des strukturierten Arrays auf einer konzentrischen Bahn der Wendeltreppenscheibe über dem Vollkreis resultiert. So kann mittels geeignetem optoelektronischem Zubehör und Auswerte-Modulen ein cos2-ähnliches Signal als Referenzsignal gewonnen werden, in welches der detektierte Signalverlauf, der zumindest näherungsweise ein cos2-Signal darstellen kann, phasenmäßig eingepaßt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, daß an der vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Beispielsweise kann die Referenzmarke am Ort des maximalen geometrisch-optischen Abstandes der leuchtenden Flä chenelemente FEL von der zugeordneten Brennebene des Beleuchtungsobjektivs aufgebracht sein, bei spielsweise auch am Umfang oder auf der planen Fläche. Dann beginnt an der Referenzmarke das Ein zählen von Impulsen in einen Zähler und gleichzeitig detektieren die Elemente des Empfänger-Arrays vor zugsweise periodische Signale mit einer Modulation und ein Signal mit einem Maximum, wenn sich ein Oberflächenelement im Schärfevolumen des Bildes eines leuchtenden Flächenelementes FELj und gleichzeitig im Schärfevolumen des Bildes eines Elementes des Empfänger-Arrays befindet. Der Impuls, der dem Ort des absoluten Signalmaximums entspricht, wird zur Berechnung der zO-Position benutzt.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den gleichflächigen Stufenflächen der Platten je ein weiterer lichtdurchlässiger Teilbereich für den Abbil dungsstrahlengang mit einem Farbfilter angeordnet sein. Dieser lichtdurchlässige Teilbereich kann als Farbfilter und vorzugsweise auch einen Farbteiler aufweisen, wobei vorzugsweise die Anteile der ge wünschten Farbe transmittieren. So kann ein Filterrad gebildet sein und eine Farbfilterung des Lichtes von den Elementen der Objektoberflächen in einer Szene realisiert und so die Farbinformation gewonnen werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in jedem Sektor der vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Da durch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächen 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880elemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto ren eine geringere Ausdehnung in tangentialer Verschiebungsrichtung aufweisen als die Ausdehnung des Empfänger-Arrays und so vorzugsweise das Empfänger-Array streifenweise ausgelesen wird. Die strei fenweise Auslesung, im speziellen sogar die zeilenweise Auslesung, ermöglicht eine hohe Anzahl von Segmenten. Dadurch ist gegebenenfalls eine Verringerung der Umfangsgeschwindigkeit der Wendeltrep penscheibe möglich. So wird für die Wendeltreppenscheibe der stetige Fall angenähert. Durch das An wenden von Auftragetechniken für die Segmente der Wendeltreppenscheibe können Dickenzuwächsen z. B in 5 µm-Schritten von Segment zu Segment einer Platte realisiert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene gleichflä chige Stufenflächen mit der Anzahl 2 Exponent n auf der vollflächigen Wendeltreppenscheibe angeordnet sein. Dies ist für die schnelle numerische Auswertung oft von Vorteil.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome trisch-optischer Dicke ausgebildet sein. Durch eine Ausführung der Scheibe in Kunststoff ist so eine Low cost-Realisierung möglich. Ein auftretender Axialschlag kann gegebenenfalls im Elastizitätsbereich der Scheibe ausgeregelt werden. Es können dazu magnetische, elektrostatische, elektromagnetische Kraft wirkungen zur Anwendung kommen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome trisch-optischer Dicke ausgebildet sein. Die Platten können dabei Planparallelplatten darstellen. Es kann die geometrische Dicke von Flügel zu Flügel verändert sein. Möglich ist auch der Einsatz unterschiedli cher Brechungsindizes für den Optikwerkstoff. So kann eine geometrisch-optischen Weglängenänderung im Beleuchtungsstrahlengang und für die leuchtenden Flächenelemente eine axiale Gegenstandsver schiebung erreicht werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren de Scheibe als Keilscheibe ausgebildet sein. So kann ebenfalls eine geometrisch-optische Weglängenän derung im Beleuchtungsstrahlengang und für das auf die Taumelscheibe aufgebrachte strukturierte Array eine axiale Gegenstandsverschiebung erreicht werden. Im Abbildungsstrahlengang kann so eine axiale Bildverschiebung für die abgebildeten Elemente der mindestens einen Objektoberfläche realisiert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu rierte Array auf der Oberfläche einer Keilscheibe mit einer planen Unterfläche ausgebildet sein, wobei vor zugsweise jedoch nur ein Teilbereich der Keilscheibe als strukturiertes Array zur Anwendung kommt und der Keilscheibe eine rotatorische Präzisionslagerung mit einer Drehachse mit einem rotatorischen Präzisi onsmotor zugeordnet ist. So kann das strukturiertes Array auf einer Planfläche aufgebracht sein. Dies ist für dessen Herstellung vorteilhaft.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil scheibe als transparenter Körper ausgebildet ist und eine Fläche der Keilscheibe senkrecht zur Drehach se ausgebildet sein. Dies ist für die Justierung der 3D-Aufnahme-Anordnung und zur Vermeidung eines variablen lateralen Versatzes bei der Rotation der Scheibe von Vorteil.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil scheibe eine Dickenänderung von maximal einem Zwanzigstel des Radius' der Keilscheibe aufweisen, wobei jedoch vorzugsweise nur ein Ausschnitt der Keilscheibe als strukturiertes Array zur Anwendung kommt.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein Refe renzgitter auf der vollflächigen Keilscheibe zumindest näherungsweise eine Radialstruktur aufweisen. Diese kann optisch hochgenau erfaßt werden und zur Bestimmung eines Referenzwertes, beispielsweise als Referenzphase verwendet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll flächigen Keilscheibe mindestens eine Referenzmarke aufgebracht sein. Diese kann optisch hochgenau erfaßt werden und zur Bestimmung eines absoluten Wertes der Referenzphase verwendet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Keil scheibe mehrere strukturierte Arrays in einzelnen Sektoren aufgebracht sind. Diese strukturierte Arrays werden beleuchtet bei der Rotation der Scheibe nacheinander vom Beleuchtungsobjektiv in den Objek traum abgebildet.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk turierten Arrays in der Art eines Tangentialgitters aufgebracht sein. Diese strukturierte Arrays in der Art eines Tangentialgitters ermöglichen auch bei einer vergleichsweise hohen Drehgeschwindigkeit eine ver gleichsweise geringe Veränderung der Phase.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die einzel nen Tangentialgitter von Sektor zu Sektor einen Sprung in der Gitterstruktur in radialer Richtung in der Art eines Phasensprunges aufweisen. So kann die für die Auswertung benötigte Veränderung der Phase im Signalverlauf realisiert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Sektor zu Sektor ein Viertel der Periode des Tangentialgitters betragen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren de Scheibe als Taumelscheibe ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu rierte Array auf der Oberfläche eines Teilbereiches einer Taumelscheibe mit einem Taumelschlag und mit einer planen Unterfläche ausgebildet sein. Auch ein Taumelschlag erzeugt bei der Rotation einer Scheibe eine geometrisch-optische Weglängenänderung für das auf die Taumelscheibe aufgebrachte strukturierte Array somit eine axiale Gegenstandsverschiebung bei der Abbildung desselben.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Taumel scheibe als vollflächige Scheibe und als transparenter Körper ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Axial schlag der Taumelscheibe maximal ein Zwanzigstel des Radius der Taumelscheibe aufweisen, wobei vor zugsweise jedoch nur ein Ausschnitt der Taumelscheibe als strukturiertes Array zur Anwendung kommt.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zumindest auf einem Teilbereich der Taumelscheibe ein strukturiertes Array aufgebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu rierte Array als Gitter in der Art einer Archimedischen Spirale mit mindestens einem Gang aufgebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe zumindest in Teilbereichen ein Referenzgitter aufgebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe renzgitter auf der Taumelscheibe zumindest näherungsweise eine Radialstruktur aufweisen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll flächigen Taumelscheibe mindestens eine Referenzmarke aufgebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe mehrere strukturierte Array in einzelnen Segmenten aufgebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk turierten Arrays in der Art eines Tangentialgitters aufgebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Tan gentialgitter von Sektor zu Sektor einen Sprung in der Struktur in der Art eines Phasensprunges aufwei sen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase mindestens einen ganzzahligen Teil von einem Viertel der Periode des Tangentialgit ters betragen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht sein, wobei vorzugsweise der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet ist und vorzugsweise die Gitterstruktur von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweist und der Sprung in der Phase von Sektor zu Sektor ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. Dadurch wird erreicht, daß sich zumin dest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenele mente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren de Scheibe als Schraubenfläche ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das rotati onssymmetrisches Transmissionsgitter auf einer Schraubenfläche einer beleuchteten, rotierenden Schei be mit maximal einem Gang, also mit einem Kreisausschnitt von maximal 360° ausgebildet sein, und so mindestens einen Absatz aufweisen, und das rotatorische Transmissionsgitter kann als Schraubenfläche eine Steigung pro Umdrehung von maximal einem Zehntel des Durchmessers der beleuchteten, rotieren den Scheibe aufweisen, wobei vorzugsweise jedoch nur ein Ausschnitt des Transmissionsgitters als strukturiertes Array im Beleuchtungsstrahlengang zur Anwendung kommen. Dabei kann der Absatz vor zugsweise einen zumindest näherungsweise radialen Verlauf aufweisen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Steigung der Schraubenfläche und die Anzahl der Gänge der Spirale in der Schraubenfläche so gewählt werden, daß bei der Drehung der schraubenförmigen Gitterfläche die leuchtenden Flächenelementen FEL sich auf Verschiebungsstrecken VSAj befinden, die vorzugsweise zumindest näherungsweise parallel zu einer Ge raden gA angeordnet sind.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem rotati onssymmetrischen Transmissionsgitter auf einer Schraubenfläche zur Bestimmung der Referenzphase eine Baugruppe mit einem Laser und einem Kollimator zugeordnet sein und mindestens eine feine Markie rung als Referenzmarke auf der Schraubenfläche aufgebracht sein, wobei der Baugruppe vorzugsweise ein Gitter mit einer Teilungskonstanten, welche beispielsweise dem mittleren Abstand der leuchtenden Flächenelemente FEL entsprechen kann, nachgeordnet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Schraubenfläche mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistan ten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet sein die Gitterstruktur von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweisen und der Sprung in der Phase von Sektor zu Sektor vorzugsweise ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. Um bei Rotation der Schraubenfläche die Referenzpha se hochgenau zu bestimmen und die dabei auftretenden unterschiedlichen Abstände auszugleichen zu können, wird mittels einem Laser und einem nachgeordnetem Kollimator eine Planwelle erzeugt. Diese trifft entweder auf ein ebenfalls miniaturisiertes Interferometer oder ein Gitter mit einer Teilungskonstan ten, welche beispielsweise dem mittleren Abstand der leuchtenden Flächenelemente FEL entspricht. So kann in der Gitterebene des rotationssymmetrischen Transmissionsgitters als Schraubenfläche eine strukturierte Beleuchtung mit einer bei der Drehung dieses Transmissionsgitters in der Tiefe nicht ver schwindender Struktur erzeugt werden. Die aktuelle relative Referenzphase kann dabei durch die Auswer tung von Licht in Transmission bestimmt werden. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumin dest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene im Beleuch tungsstrahlengang dem Beleuchtungsobjektiv ein bewegliches Keilprisma aus einem transparenten opti schen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensationsprisma aus einem transpa renten optischen Werkstoff zugeordnet sein. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem Keilprisma ein strukturiertes Array aufgebracht sein und dem Keilprisma eine Linearführung mit einem Li nearmotor zugeordnet sein, wobei und auch im Abbildungsstrahlengang ein bewegliches Keilprisma aus einem transparenten optischen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensati onsprisma dem Abbildungsobjektiv zugeordnet sein kann. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem beweglichem Keilprisma ein Referenzgitter mit einer Referenzmarke aufgebracht sein und eine Lichtquelle und ein opto-elektronisches Auswertemodul dem Referenzgitter zugeordnet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für ein be wegtes Keilprisma im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise jeweils entsprechend der folgenden Bedingung
|(Δϕ.p)/(2π.zAG)| = |d/fB|
zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele mentes FELj des strukturiert leuchtenden Arrays bei der Bewegung des Keilprismas und p die Gitterkon stante des strukturiert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den Abstand des Pupillenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Ab bildungsobjektivs im Objektraum. Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Ar rays auf dem Keilprisma kann sowohl durch eine Dickenänderung des Keilprismas, aber auch durch eine Änderung des Brechungsindexes, aber auch durch deren Kombination verursacht sein.Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbe reich ΔtB die leuchtenden Flächenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für eine ro tierende Scheibe oder Teile derselben im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise je weils entsprechend der folgenden Bedingung
|(Δϕ.p)/(2π.zAG)| = |d/fB|
zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele mentes FELj des strukturiert leuchtenden Arrays bei der Rotation und p die Gitterkonstante des struktu riert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den Abstand des Pupil lenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Abbildungsobjektivs im Objektraum.Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Arrays auf der rotierenden Scheibe kann sowohl durch eine Dickenänderung der rotierenden Scheibe, aber auch durch eine Änderung des Brechungsindexes, aber auch durch deren Kombination verursacht sein. Diese Beziehung gilt grundsätz lich sowohl für stetige als auch für segmentierte rotierende Scheiben. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flä chenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Emp fänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist, dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein. Die resultierende Bewegungsrichtung des ersten Empfänger-Array kann dabei auf einer Strecke ASA1 auf dem ersten oberen Ast eines Buchstabens Y erfolgen und die Strecke ASA1 kann parallel zu einer Geraden gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet so daß sich die detek tierenden Elemente des erstes Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann auf einer Strecke ASA2 auf dem zweiten oberen Ast des Buchstabens Y erfolgen, und die Strecke ASA1 kann parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So können sich die detektierenden Elemente des zweites Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Die Szene kann eine Freiraumszene sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein und die resultieren de Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke ASA1 parallel zur optischen Achse des ersten Abbildungsobjektivs erfolgen, und genau die Elemente des ersten Empfänger-Arrays ausgele sen werden und aus diesen ein Signalverlauf gebildet werden, welche sich auf Strecken ASA1j befinden, die parallel zu einer Geraden gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneiden und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe nen schneiden. So entsprechen die zur Signalbildung verwendeten Elemente des erstes Empfänger-Array denen, welche sich auf Strecken ASA1j befinden, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet und die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann auf einer Strecke ASA2 parallel zur optischen Achse des zweiten Abbildungsobjektivs erfolgen, wobei ge nau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken ASA2j befinden, die parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbil dungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So entsprechen die zur Signalbil dung verwendeten Elemente des zweiten Empfänger-Array denen, welche sich auf Strecken ASA2j befin den, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Auch hier kann die Szene eine Freiraumszene sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transpa renten Platte, die vorzugsweise planparallel ausgeführt ist, mit einer vorbestimmten geometrisch optischen Dicke zugeordnet sein und auf der rotierenden Scheibe Referenzmarken aufgebracht sein, wo bei die optische Dicke der transparenten Platte stetig veränderlich sein kann. In den Referenzmarken ist die Information über die optische Dicke der transparenten Platte, welche gerade im Strahlengang vor ei nem Empfänger-Arrays angeordnet ist, enthalten.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transparenten Platte, die vorzugsweise planparallel ausgeführt ist, und jeder transparenten Platte eine vorbestimmten ortsabhängigen geome trisch-optischen Dicke zugeordnet sein und auf der rotierenden Scheibe mindestens eine Referenzmarke aufgebracht sein und so kann so die optische Dicke sich von transparenter Platte zu transparenter Platte vorherbestimmt verändert werden. In den Referenzmarken ist die Information über die optische Dicke der transparenten Platte, welche gerade im Strahlengang vor einem Empfänger-Arrays angeordnet ist, enthal ten. Dabei kann das Empfänger-Array mit einer Steuerung Länge und des Beginns der Integrationszeit in Teilbereichen ausgelesen werden, so daß Bereiche gleicher Dicke ohne Sprungstelle in der Platte ausge lesen werden können. So kann jeweils eine Stelle gleicher optische Dicke fast in der gesamten Verweilzeit vor einem zugeordneten Element des Empfänger-Arrays detektiert werden. Weiterhin ist es möglich, daß sich vor einem elektronisch steuerbaren Array eine rotierende Scheibe mit mehreren transparenten Platte mit einer vorbestimmten optischen Dicke befinden, die eine vorbestimmte optische Dicke aufweisen und sich die optische Dicke von Platte zu Platte ändert, wobei Referenzmarken angeordnet sind, welche die Information über aktuelle optische Dicke der jeweils optisch wirksamen transparenten Platte enthalten und die transparenten Platten zumindest näherungsweise als planparallele Platten ausgeführt sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, für fotografische 3D-Farb-Aufnahmen für die Gewinnung der 3D-Punktwolke zwischen jedem Abbildungsobjektiv und jedem Empfänger-Array je mindestens zwei gleichwinklige Pris men aus einem Optikwerkstoff mit vorzugsweise je einem gleichen Brechungsindex und vorzugsweise gleicher Dispersion angeordnet sein, die als Keilprismen bezeichnet werden, wobei je zwei Keilprismen ein Parallelstück mit einem parallelen Zwischenraum konstanter Dicke bilden. Die Strahlachse steht auf den äußeren Flächen des Parallelstückes jeweils senkrecht.Dieser Zwischenraum konstanter Dicke wird vorzugsweise von den einander zugekehrten Innenflächen der beiden Keilprismen begrenzt. Der Zwischenraum ist vorzugsweise mit Luft ausgefüllt, kann aber auch mit einem transparenten Optikwerkstoff ausgefüllt sein, der vorzugsweise einen geringeren Brechungsin dex als die beiden gleichwinkligen Keilprismen aufweist. Durch die Dispersion können lateral verschobene Bilder in der Bildebene erzeugt werden. Durch Zuordnung einer Empfänger-Arrays mit zeilenweise aufge brachten Farbfiltern in den Farbbereichen rot grün blau kann der Farbwert eines jeden Objektpunktes zumindest näherungsweise vom gleichen Element der Objektoberfläche gewonnen werden. Dabei kann das feststehende Prisma als Fenster des Empfänger-Arrays angeordnet sein.Weiterhin kann mindestens ein Keilprisma zumindest näherungsweise geradlinig verschoben werden, wo bei die Verschiebungsrichtung parallel zur inneren Fläche des verschobenen Keilprismas liegt und in je dem Fall eine Querkomponente zur Lichtausbreitungsrichtung enthält. Durch die Verschiebung des Keilprismas wird in jedem der beiden Abbildungsstrahlengänge die gleiche axiale Bildverschiebung in zA- Richtung erzeugt, so daß die korrespondierenden Pixel Informationen aus unterschiedlichen Tiefen des Objektraumes detektieren können. Beispielsweise können so 16 Bilder aus unterschiedlichen Tiefen des Objektraumes aufgenommen werden. Bei Aufnahmen von Objektoberflächen in der Szene mit der Einstel lung auf den Nahbereich kann synchron zur Aufnahme von Bildern eine Blitzlichtquelle die Objektoberflä chen in der Szene ausleuchten. So kann eine Bildfolge mit 16 Bildern mit 16 Einzelblitzen in 0,2 s aufge nommen werden. Eine höhere Blitzfrequenz ist grundsätzlich möglich. Dabei sendet die Blitzlichtquelle vorzugsweise kein strukturiertes Licht aus. Jedoch ist mit einer spezielle Blitzlichtquelle auch eine struktu rierte Beleuchtung möglich, jedoch sollte dann eine laterale Verschiebung der strukturierten Beleuchtung stattfinden, um zumindest näherungsweise die Elemente der Objektoberfläche gleichmäßig ausleuchten zu können.Weiterhin kann zur Kompensation des anamorphotischen Effektes bei Keilprismen mit einem Winkel oberhalb von 5° ein zweites baugleiches Parallelstück mit einem gleichgestalteten Zwischenraum ange ordnet werden, welches um die Strahlachse um 90° gedreht wurde. Von den vier einzelnen Keilprismen können dabei die beiden inneren zu einen Monolithen vereinigt sein. Weiterhin sind die Projektionen der Verschiebungsrichtungen der beiden äußeren Keilprismen auf die Au ßenfläche eines Parallelstückes vorzugsweise senkrecht zueinander ausgerichtet, wobei dei beiden äuße ren Keilprismen je eine oszillierende Bewegung mit einer 90°-Phasenverschiebung der Bewegung zuein ander ausführen können.Die Auswertung der beispielsweise 16 Bilder erfolgt mittels des bereits genannten Korrelationsverfahren über die korrespondierenden Pixel durch die Bestimmung eines Korrelationsmaximums Mj. So kann von einer Standard-Szene die 3D-Punktwolke der Elemente der Objektoberflächen in der Szene, einschließ lich der Farbinformation durch die Auswertung der Farbwerte in den Bildern der Elemente der Objektober flächen, errechnet werden. Die Wiedergabe als 3D-Bild erfolgt nach einer automatischen oder einer inter aktiven Weiterverarbeitung der 3D-Punktwolke zu einem 3D-Flächen-Modell. Die Betrachtung der farbigen 3D-Flächen-Modell kann beispielsweise mittels eines digitalen 3D-Monitors erfolgen.Weiterhin kann bei der Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer min destens einer Szene das Empfänger-Array eine Farbkamera darstellen.Weiterhin ist in einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene mit mindestens einer elektromagnetischen Strahlungsquelle und die Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenele menten FEL ausgebildet.Es ist mindestens ein Beleuchtungsstrahlengang mit mindestens Beleuchtungsobjektiv, welches eine ef fektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB aufweist, zur struktu rierten Beleuchtung der Objektoberflächen im Objektraum angeordnet. Der Objektraum, entspricht dem Szenenraum. Das Beleuchtungsobjektiv ist einem dem strukturiert leuchtenden Array, einschließlich ei nem Bild desselben, zugeordnet.Außerdem ist dem mindestens einen Beleuchtungsstrahlengang ein Abbildungsstrahlengang zugeordnet, der mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberflächen mit mindestens ei nem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv zur Abbildung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blendenzentrum BZA aufweist. Mittels Elementen des mindestens einem Empfänger-Arrays wird im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektiert.Der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzentrums BZB im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzentrums BZA im Objektraum, beträgt mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuchtungsob jektivs. Die leuchtenden Flächenelemente FEL weisen in einer Leuchtdichteverteilung eine zumindest nä herungsweise vorherbestimmten Leuchtdichteauf, so daß durch die Abbildung mit dem Beleuchtungsob jektiv mindestens ein Bild eines leuchtenden Flächenelementes FELj im Objektraum gebildet ist.So ist erfindungsgemäß im Objektraum das Schärfevolumen mindestens eines Bildes eines leuchtenden Flächenelementes FELj in einem strukturiert leuchtenden Array - durch die vorbestimmte Zuordnung des leuchtenden Flächenelementes FELj zum Beleuchtungsobjektiv und die Zuordnung der Elemente des Empfänger-Arrays zum Abbildungsobjektiv und die Zuordnung von Beleuchtungsobjektiv zum Abbildungsobjektiv in der 3D-Aufnahme-Anordnung unter Anwendung der Newtonschen Abbildungsgleichung - permanent in das Schärfevolumen eingepaßt, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays im Objektraum dargestellt ist. Dabei weist das Schärfevolumen, welches durch die Ge samtheit der Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, min destens eine so große Tiefenausdehnung wie das Schärfevolumen eines einzelnen Bildes eines leuch tenden Flächenelementes FELj auf, so daß für alle Bilder eines leuchtenden Flächenelementes FELj ein diese umschließendes Schärfevolumen von Bildern der Elemente des Empfänger-Arrays gegeben ist und im Objektraum jeweils ein Bild eines leuchtenden Flächenelementes FELj eines strukturierten Arrays mindestens einem Bild eines Elementes des Empfänger-Arrays fest zugeordnet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer in einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sind, wobei mindestens eine Sub-Matrix angeordnet ist und mindestens in einer strukturierten Sub-Matrix wiederum strukturierte Zellen angeordnet sind, wobei wiederum in jeder strukturierten Zelle durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche angeordnet ist und diese mindestens eine Fensterflä che eine mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv aufweist, die unterschiedlich zur Fensterfläche der Nachbarzelle im Hauptschnitt gemacht ist und in einer Fensterfläche in einer strukturier ten Zelle jeweils im Zusammenwirken mit der Strahlungsquelle mindestens ein leuchtendes Flächenele ment FELj dargestellt ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Szene in einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sein. Dabei sind in der strukturierten Sub-Matrix wiederum strukturierte Zellen angeordnet, wobei wiederum in jeder strukturierten Zelle durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche ange ordnet ist. Diese mindestens eine Fensterfläche weist eine mittlere optische Gegenstandsweite zum Be leuchtungsobjektiv auf, die unterschiedlich zur Fensterfläche der Nachbarzelle im Hauptschnitt gemacht ist. So entsteht das Bild der Maskierung in einer anderen Tiefe des Objektraumes, wodurch in verschie denen Tiefen des Objektraumes Bilder der Maskierung erzeugt werden können. Außerdem ist in einer Fensterfläche in einer strukturierten Zelle jeweils mindestens ein selbstleuchtendes Flächenelement FELj angeordnet. Dieses wird in den Objektraum abgebildet.Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze ne die Fensterfläche vorzugsweise zumindest näherungsweise in einer Ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs angeordnet.Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze ne vorzugsweise mindestens eine strukturierte Sub-Matrix als eine Transmissionsanordnung mit einem optischen Werkstoff ausgebildet.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Szene mindestens die optisch aktive Oberfläche der strukturierten Zellen jeweils einen räumlich struktu rierten Bereich aufweisen, wobei in diesem räumlichen strukturierten Bereich die Fensterfläche als plane Fläche ausgebildet sein. In der planen Fläche des Fensterelementes ist vorzugsweise eine Maske ange ordnet und in einem Teilbereich der räumlich strukturierten Zelle ist neben der Maske auf der planen Flä che des Fensterelementes eine Mikrolinse mit einer fokussierenden Wirkung angeordnet ist, wobei deren Fokus zumindest näherungsweise in der Fläche des Fensterelementes positioniert ist. Dabei weist die Maske ein Binär-Code-Transparenzprofil zur Codierung einer maschinenlesbaren Zahl als Positionsnum mer. So sind die Masken innerhalb einer Zelle jeweils eindeutig maschinenlesbar und voneinander unter scheidbar. Damit ist zumindestens innerhalb einer Zelle die Mikrolinse ist neben der Maske auf der planen Fläche des Fensterelementes eindeutig zu identifizieren, so daß aus der lateralen Lage des Fokuspunktes im aufgenommenen Bild die zO-Koordinate sowie die xO- und die yO-Koordinate des zugehörigen Objekt punktes bestimmt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Mikro linse in einem Teilbereich der räumlich strukturierten Zelle neben der Maske auf der Fensterfläche jeweils als eine Zylinderlinse ausgebildet sein. Dadurch gibt es jeweils eine Lichtspur auf der Objektoberfläche mit einer vergleichsweise hohen Beleuchtungsstärke über die Länge der Zylinderlinse. So ist diese Lichtspur unabhängig von lateralen Verschiebungen problemlos detektierbar und somit ist eine hohe Detektionssi cherheit gegeben.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer die Mikrolinse so angeordnet sein, daß deren Fokuspunkt zumindest näherungsweise in der Ebene der Maske positioniert ist. Dadurch ist eine besonders feine Lichtspur realisierbar.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk turierte Array als opakes Reliefstück mit mehreren, mindestens jedoch zwei, feinen Durchbrüchen, die gegenüber dem Beleuchtungsobjektiv angeordnet sind, ausgebildet sein. Beim Einsatz des Reliefstückes in die 3D-Aufnahme-Anordnung befinden sich die feinen Durchbrüchen in unterschiedlichen Tiefen des Array-Raumes, so daß deren Bilder sich an unterschiedlich tiefen Punktes des Objektraumes befinden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk turierte Array als ein nichttransparentes Reliefstück mit Durchbrüchen versehen sein. Die Oberfläche des Reliefstückes weist zum Beleuchtungsobjektiv und ist vorzugsweise so gefertigt, daß diese zumindestens näherungsweise die optisch konjugierte Fläche eines zu prüfenden Sollstückes darstellt und die Durch brüche auf der Oberfläche des Reliefstückes zumindestens näherungsweise die optisch konjugierten Orte der Sollfläche eines Prüflings darstellen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk turierte Array als ein transparentes Mikrolinsen-Array ausgebildet ist und die Brennweite und die axiale Lage der Mikrolinsen so gestaltet sein, daß deren Foki in einer 3D-Fläche angeordnet sind, die zuminde stens näherungsweise eine zur Sollfläche optisch konjugierte Fläche darstellt. Die Foki der Mikrolinsen stellen zumindestens näherungsweise einige optisch konjugierten Orte der Sollfläche eines Prüflings dar. So kann durch die Bestimmung der Fokuslage im Bild die Abweichung von einer Sollage bestimmt wer den.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche auf dem strukturierten Array mindestens ein Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe mit mindestens einer in der Ausgleichsfläche schrägen Rampenfläche gebildet sein. Dabei ist vorzugsweise mindestens eine Rampenfläche jeweils zum Beleuchtungsobjektiv ausgerichtet. Auf der schrägen Rampenfläche sind vorzugsweise leuchtende Flächenelemente FEL an geordnet. Diese leuchtende Flächenelemente FEL werden durch Fensterflächen gebildet, die von der Strahlungsquelle beleuchtet werden.Die Rampenflächen sind vorzugsweise so geneigt, daß die Ausgleichsgerade AGAj durch die schräge Rampenfläche im Hauptschnitt nach Abbildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AGOj liefert, die zumindestens näherungsweise auf das Pupillenzentrum PZOA des Abbil dungsobjektivs zielt. In der Regel sind mehrere Rampen vorhanden, so daß die verschiedenen Aus gleichsgeraden AGOj von mehreren verschiedenen Rampen nach deren Abbildung durch das Beleuch tungsobjektivs aus deren Bildern ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist. Das Beleuchtungsobjektiv ist dabei vorzugsweise hoch geöffnet. Der Konvergenzpunkt K1 ist dabei zuminde stens näherungsweise im Pupillenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht. So ist gegeben, daß sich bei der Aufnahme von Bildern der Objektoberfläche in allen Tiefen eindeutig eine Rampe verfolgt werden kann, ohne daß es Probleme mit lateralen Fehllagen gibt, da der verfolgende Abbildungsstrahl stets aus dem Pupillenzentrum des Abbildungsobjektivs kommt. Das Abbildungsobjektiv kann vergleichsweise kurzbrennweitig sein, kürzer als das Beleuchtungsobjektiv, und ist dabei so weit ab geblendet, beispielsweise auf die Blende 11, daß ein großer Tiefenschärfebereich gegeben ist. Damit bestimmt der Tiefenschärfebereich des Abbildungsobjektivs hier den Tiefenbereich für die 3D- Aufnahmeanordnung. Dabei kann im Objektraum das Bild einer Rampe mit der Achse des Abbildungsob jektivs zusammenfallen. Die anderen Bilder der Rampen bilden im Hauptschnitt ein Büschel mit dem Ur sprungspunkt im Pupillenzentrum. So wird die zu detektierend Objektoberfläche von den Rampenbildern durchschnitten. Im Schnittpunkt eines Rampenbildes mit der Objektoberfläche entsteht ein jeweils ein scharfes Bild von der Maske auf der Rampenfläche.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf der Rampenfläche, die eine mittlere Länge WP aufweist, jeweils mindestens eine Maske mit einem Binär- Code-Transparenzprofil mit der Sequenzlänge bz auf einem stetigen Flächenbereich derselben gebildet sein. Die in der Maske mit einem Binär-Code-Profil verwendete minimale Strukturbreite p ist vorzugsweise mindestens so groß gemacht, daß diese vom Beleuchtungsobjektiv noch ohne merklichen Kontrastverlust scharf abgebildet werden kann. Die Länge WP ist dabei vorzugsweise größer als bz.d/DB gemacht und die auf einer Rampenfläche aufgebrachten Masken sind mit einem Binär-Code-Transparenzprofil jeweils eindeutig und maschinenlesbar voneinander unterscheidbar. So kann auch bei einem lateralen Auswan dern aufgrund des Triangulationseffektes die Masken sicher identifiziert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mehrere Rampenflächen hintereinander in zum Hauptschnitt parallelen Zeilen in einer Sub-Matrix angeordnet sein, und deren mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv von Zeile zu Zeile, also in y- Richtung jeweils unterschiedlich gemacht ist, beispielsweise stets ansteigend. So entstehen ein mittlerer Anstieg in einer zweiten Richtung, der y-Richtung, und so können besonders viele unterscheidbare Hö henstufen realisiert werden. wodurch sich ein besonders großer Tiefenerfassungsbereich für die 3D- Aufnahme-Anordnung ergibt. Dem Abbildungsobjektiv kann, um bei einem sehr großen Tiefenerfassungs bereich nicht zu stark abblenden zu müssen, eine transparente Platte mit Keilprismen zugeordnet sein, die eine Platte mit Rampen darstellt, wobei die Rampenanzahl der Anzahl der Sub-Matrizen entspricht und der Keilwinkel dieser Platte sich aus dem Abbildungsmaßstab ergibt. Dabei steigen die Prismenkeile auf diese Platte in diesem Beispiel ebenfalls in y-Richtung an, so daß vom Abbildungsobjektiv scharte Bil der von Ebenen gesehen werden können, die nicht senkrecht zur optische Achse desselben angeordnet sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche inner halb der Rampenflächen mehrere Stufen ausgebildet sein, wobei sich auf einer Fläche einer Stufe je min destens eine Maske mit einem Binär-Code-Transparenzprofil mit mindestens einem transparenten Feld aufgebracht ist. Dabei müssen die Stufen nicht unbedingt stetig steigend oder fallend sein. So können auch Stufen vertauscht werden. Die Ausgleichsgerade bezieht sich auf den Fall, ohne das Vertauschen von Stufen. Die Ausgleichsgerade AGAj schneidet die nicht vertauschten Stufen jeweils etwa in der Mitte der Stufenflächen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Binär- Code-Profil als Balken-Code-Profil Transparenzprofil mit mindestens einem transparenten Balken aus gebildet sein. Ein Balken-Code-Profil Transparenzprofil kann so zeilenweise und damit besonders schnell gelesen werden. Die Balken sind vorzugsweise parallel zum Hauptschnitt angeordnet und so erfolgt die Detektierung des Balken-Code-Transparenzprofils senkrecht zum Hauptschnitt. Die Balken überdecken jeweils vorzugsweise mehrere Spalten bei einer Abbildung auf eine Empfängerfläche, beispielsweise min destens zwei Spalten. Dabei kann vorzugsweise das Tastverhältnis der Balken-Codierung bei einer kon stanten Periodenlänge des Balken-Codes ausgewertet werden. So ist beim Detektieren eine hohe Erken nungssicherheit unabhängig von der Position gegeben. Andererseits können die nebeneinander liegenden Balken als Balken gleicher Breite in nebeneinander liegenden Zellen auf Lücke gesetzt sein, so daß durch eine laterale Verschiebung infolge eines Höhenversatzes auf der Objektoberfläche keine Fehlinformation bei der Bildaufnahme entstehen kann. Weiterhin kann sich in einem äquidistanten Raster jeweils ein Dun kel-Hell-Übergang am gleichen Ort der Zellen befinden. Vorzugsweise kann es auch ein quadratisches Raster sein. Dies ist sehr vorteilhaft, da sich zumindestens bei einer zumindest näherungsweisen ebenen Fläche ein äquidistantes Raster von Meßpunkten gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf den Rampenflächen mit der Länge WP eine Gitterstruktur mit einem cos2-Transparenzprofil mit minde stens einer Periodenlänge bz aufgebracht sein. Die Periodenlänge bz ist vorzugsweise mindestens so groß gemacht, daß diese vom Beleuchtungsobjektiv mit einer hohen relativen Lichtstärke noch ohne merklichen Kontrastverlust abgebildet werden kann. Die Länge WP der Rampenfläche ist jeweils größer als bz.d/DB gemacht ist, wobei die Länge der Rampenfläche mindestens gleich der Periodenlänge bz gemacht.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche leuchtende Flächenelemente FEL als von der Strahlungsquelle beleuchtete, transparente Fensterflächen, einschließ lich Bilder von diesen, im Array-Raum positioniert sein. Die dem Beleuchtungsobjektiv zugewandte Seite des strukturierten transparenten Arrays ist mindestens als ein einziges Relief mit einer räumlichen Struk tur mit mindestens einer Periode in Form von mindestens einer Rampe gebildet, die jeweils ein transpa rentes Keilprisma darstellt.Die Keilprismen weisen vorzugsweise einen Keilwinkel auf, der so gewählt ist, daß durch dessen abbil dende Wirkung die Bilder der leuchtende Flächenelemente FEL zumindestens näherungsweise auf einer Ausgleichsgerade AGAj im Hauptschnitt liegen. Die Ausgleichsgerade AGAj liefert vorzugsweise nach Ab bildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AGOj, die auf das Pupillen zentrum PZOA des Abbildungsobjektivs zielt. Dabei ist vorzugsweise für mehrere Ausgleichsgeraden AGOj von mehreren Rampen nach deren Abbildung durch das Beleuchtungsobjektivs aus deren Bildern ein Ge radenbündel mit einen Konvergenzpunkt K1 gebildet, der zumindestens näherungsweise mit dem Pupil lenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht ist. So kann vermieden werden, daß auf den schrägen Flächen einer Rampe eine Maskierung aufgebracht werden muß. Die Maskierung be findet sich auf der Vorderseite des vorzugsweise zur Strahlungsquelle planen Reliefs.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die trans parenten Keilprismen jeweils so gefertigt sein, daß diese im Mittel zumindestens näherungsweise den Keilwinkel im Bogenmaß mit dem Betrag fB.n/[d.(n-1)] aufweisen. Bei diesem Winkel ergibt sich eine Drehung der leuchtenden Flächenelemente, die auf einer planen Fläche, senkrecht zur Achse des Be leuchtungsobjektivs, angeordnet sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise gleichwinklig ausgebildet sein. So stellen vorzugsweise, wenn nicht die Rampenflächen selbst, aufgrund einer räumlichen Strukturierung derselben, wenigstens die Ausgleichsgeraden AGAj durch die schrägen Rampenflächen im Hauptschnitt der 3D-Aufnahme-Anordnung zueinander parallele Geraden dar.Die Rampenflächen sind so gestaltet, daß nach Abbildung durch das Beleuchtungsobjektivs aus den Bil dern der parallelen Ausgleichsgeraden ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist, der zumindestens näherungsweise mit dem Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum zur Koinzidenz gebracht ist. Die Herstellung von derartigen Rampen ist vergleichsweise einfach. Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise mit der gleichen Länge ausgebildet sein. Die Herstellung von derartigen Rampen ist vergleichsweise einfach.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil dungsobjektiv eine transparente Platte mit Keilprismen nachgeordnet sein, die eine Platte mit Rampen darstellt, wobei die Anzahl der Rampen der Anzahl der Sub-Matrizen auf dem strukturierten Array ent spricht. Weiterhin können die Rampen Mikro-Stufen aufweisen, die senkrecht zur Achse des Abbildungs objektivs ausgerichtet sein. So kann die brechende Wirkung eines Prismas vermieden werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche im Abbil dungsstrahlengang mindestens ein Mikrolinsen-Array angeordnet sein, beispielsweise in einer Zwischen abbildungsstufe, die dem Objektiv vor dem Empfänger-Array vorgeordnet ist, wobei die Mikrolinsen inner halb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senkrecht zur optischen Achse des Abbildungsstrahlenganges aufweisen. So können mit einer planen Empfängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte scharf abgebildet werden. Es können zwei ein Mikrolinsen-Arrays mit jeweils koaxialen Mikrolinsen angeordnet sein, die ein Mikro-Teleskop bilden, wobei ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite gefertigt ist, dem ein Mikrolinsen-Array mit Mikrolinsen gleicher Brennweite zugeordnet ist, so daß ein Array aus Mikro-Teleskopen gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil dungsobjektiv mindestens ein Mikrolinsen-Array vorgeordnet ist, wobei die Mikrolinsen innerhalb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senk recht zur optischen Achse des Abbildungsobjektivs aufweisen. Auch hier können mit einer planen Emp fängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte gleichzeitig scharf abgebildet werden, ohne daß eine Zwischenabbildungsstufe benötigt wird. So ist vorzugsweise ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite angeordnet.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf einem räumlichen Profil angeordnet sind. Dieses kann ein Sinusprofil sein, welches sich optimal herstellen läßt.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf Rampenflächen angeordnet sein. So können mit ei ner planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebildet werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil dungsobjektiv mindestens ein Lichtwellenleiter-Array, welches aus Mikrofasern gefertigt ist, vorgeordnet sein, wobei die Mikrofasern zumindest näherungsweise parallel zur optischen Achse des Abbildungsob jektiv angeordnet sind. Dabei liegen die Mikrofaserenden vorzugsweise auf der einen Seite des Lichtwel lenleiter-Arrays in einer gemeinsamen Ebene und sind den Elementen des Empfänger-Arrays unmittelbar zugeordnet. Auf der anderen Seite des Lichtwellenleiter-Arrays sind die Faserenden dem Abbildungsob jektiv zugeordnet. Hier sind die Faserenden auf einem räumlichen Profil angeordnet. So kann Licht aus unterschiedlichen Ebenen des Array-Raumes detektiert werden. Die Punkte der Detektion entsprechen unterschiedlich weit entfernten Punkten im Objektraum, so daß Elemente einer Objektoberfläche aus un terschiedlichen Tiefen des Objektraumes gleichzeitig aufgenommen werden können. Das räumlichen Profil kann ein Stufenflächenprofil mit Rampenflächen darstellen. Die Ausbildung kann auch als Sinusprofil erfolgen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das räum liche Profil der Faserenden zumindestens näherungsweise mit Rampenflächen ausgebildet ist. So können mit einer planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebil det werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp fänger-Array mit mindestens acht Elementen ausgebildet sein. Es gibt vorzugsweise mindestens zwei Be reiche mit mindestens je vier Elementen, wobei die vier Elemente dann genau zwei Zellen darstellen, mit einer unterschiedlichen mittleren Höhe der Elemente in einer Fläche gebildet sein, die als Sub-Fläche be zeichnet wird. So sind auf dem Empfänger-Array Bereiche gebildet, die zu einer Sub-Fläche mit einer mittleren Höhe gehören, und auf dem Empfänger-Array mindestens Elemente in vier unterscheidbaren Höhenstufen angeordnet. Damit kann ein größerer Tiefenbereich im Objektraum zumindest näherungs weise scharf auf die einzelnen Elemente des Empfänger-Arrays abgebildet werden, ohne daß eine Fo kussierung durch eine mechanische Verschiebung erforderlich ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Aus gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche eine Rampenfläche mit einer gleichen Höhe darstellen, so daß mindestens zwei Rampenflächen auf dem Empfänger-Arrays gebildet sind, die zumindest näherungsweise gleich gemacht sind und auch die Form der Rampenfläche zumin dest näherungsweise gleich gemacht ist. So kann in mindestens zwei Bereichen der abgebildeten Objek toberfläche der volle Tiefenerfassungsbereich realisiert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die An zahl der Bereiche, die zu einer Sub-Fläche gehören, mit der Anzahl der Sub-Matrizen im strukturierten Ar ray übereinstimmen und ein Bereich, der zu einer Sub-Fläche gehört, sich über mindestens zwei linienhaf te Bereiche des Empfänger-Arrays, die getrennt elektromagnetische Strahlung detektieren können, er strecken. So können die von leuchtenden Flächenelementen FEL, die durch beleuchtete Fensterflächen in unterschiedlicher Höhe auf einer Sub-Matrix des strukturierten Arrays gebildet sind, im Objektraum ent stehenden Bilder auf der Objektoberfläche auf Elemente der Empfänger-Arrays zumindestens nähe rungsweise scharf abgebildet werden. Die laterale Anordnung der Bereiche, die zu einer Sub-Fläche ge hören, auf der Oberfläche des Empfänger-Arrays ist mit der lateralen Anordnung der Sub-Matrizen auf dem strukturierten Array zumindest näherungsweise geometrisch ähnlich gemacht. Dabei stellt eine Aus gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche jeweils eine Rampenfläche dar. Es können mindestens zwei Sub-Flächen auf dem Empfänger-Arrays gebildet sein. In der Regel können bis zu 128 bei einer 256 × 256 Pixel CCD-Matrix oder gar 512 Sub-Flächen bei einer 1024 × 1024 Pixel CCD-Matrix gebildet sein, um von möglichst vielen Bereichen der Objektoberfläche scharfe Bildpunkte über einen vergleichsweise großen Tiefenbereich detektieren zu können, ohne dabei das Abbildungsob jektiv sehr stark abblenden zu müssen. Jeweils zwei Zeilen bilden im Minimum eine Sub-Fläche. Grund sätzlich ist auch die Bildung von Sub-Flächen über mindestens zwei Spalten des Empfänger-Arrays, also einer CCD-Matrix, möglich.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp fänger-Array als CCD-Matrix-Kamera ausgebildet sein. Damit ist eine optimale Bildaufnahme bei Standar daufgaben mit einem guten Signal-Rausch-Verhältnis möglich.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp fänger-Array als CMOS-Matrix-Kamera ausgebildet sein. Damit ist durch den wahlfreien Zugriff auf Pixel eine Verfolgung von bewegten Elementen der Objektoberfläche im Raum möglich.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp fänger-Array als CCD-Zeilen-Kamera ausgebildet sein. Dies ist zur Aufnahme von sehr schnell ablaufen den Vorgängen in einem Schnitt von großem Vorteil.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge angeordnet sein und jedem Abbildungsstrahlengang kann jeweils zumindestens eine kippbare Spiegelfläche vorgeordnet werden und die vorgeordneten, kippbaren Spiegelflächen kön nen starr miteinander verbunden sein und diesen können rechnergesteuerte Komponenten zur Durchfüh rung einer definierten Verkippung zugeordnet sein. Durch das Kippen der Spiegelflächen mittels eines rechnergesteuerten Schwingspiegels können unterschiedliche Schnitte für die 3D-Aufnahme ausgewählt werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge angeordnet sind und den beiden Abbildungsstrahlengängen gemeinsam ein rechnergesteuertes, rotierendes Spiegelpolygon vorgeordnet sein. So kann eine schnelle Aufnahme von Objektoberflächen im Objektraum erfolgen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist. Dabei kann das erste Abbildungsobjektiv als ein Referenzsystem arbeiten, um beispielsweise eine absolu te Messung in der bereits beschriebenen Art durchführen zu können. Das zweite Abbildungsobjektiv ist im Abstand k.d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet, wobei k ≧ 2 gemacht ist. Beispielsweise kann das zweite Abbildungsobjektiv im vierfachen Abstand angeordnet sein und ein be sonders großes oder ein asymmetrisches Objektfeld besitzen. So ergibt sich ein größerer Triangulations winkel und damit eine höhere Tiefenauflösung, wobei die Informationen, die vom ersten Abbildungsobjek tiv gewonnen werden dazu dienen, die Ergebnisse die mit dem zweiten Abbildungsobjektiv gewonnen werden, bezüglich der gemessenen Phaseninformationen zu überprüfen und gegebenenfalls hinsichtlich der Streifenordnung zu korrigieren.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil dungsobjektiven angeordnet sein. Dabei ist das erste Abbildungsobjektiv mit einer zumindest näherungs weiser einseitiger Telezentrie im Array-Raum ausgeführt und das zweite Abbildungsobjektiv ebenfalls mit zumindest näherungsweiser einseitiger Telezentrie im Array-Raum ausgeführt, wobei die beiden Haup tebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind. Dabei ist das Pupillenzentrum PZOA1 des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOA2 des zweiten Abbildungs objektiv angeordnet. Jedem Abbildungsobjektivs ist je ein räumlich strukturiertes Empfänger-Array zuge ordnet, so daß ein erstes und ein zweites Empfänger-Array angeordnet sind. Das erste und das zweite räumlich strukturierte Empfänger-Array weisen je mindestens zwei Empfängerflächen auf räumlich ge trennten Stufenflächen auf, die jeweils senkrecht zum Hauptschnitt liegen, wobei die Empfängerflächen des ersten Empfänger-Arrays jeweils parallel zur Geraden gA1P angeordnet sind, die den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen und den Brennpunkt FAA1 des ersten Abbildungsobjektivs enthält.Die Empfängerflächen des zweiten Empfänger-Arrays sind vorzugsweise jeweils parallel zur Geraden gA2P angeordnet, die den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen und den Brennpunkt FAA2 des zweiten Abbildungsobjektivs enthält, wobei sich je zwei durch die Empfängerflächen und sowie und gehenden Ausgleichsgeraden in der Hauptebene schneiden und der mittlere Abstand dieser Empfänger flächen sowie von der Hauptebene jeweils gleich gemacht ist.Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je weils zugehörigen Elementes der Objektoberfläche bestimmt werden.Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der beiden Emp fänger-Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt koinzidieren. So bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemeinsamen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender Elemente.Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und S2j entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j und S2j aus den Fenstern gebildet. Fenster, vorteilhaft sind Fensterlängen mit einer Länge von beispiels weise 8 oder 16 Signalwerte, andere, auch größere Werte sind möglich.Es erfolgt das in beiden Signalverläufen S1j und S2j synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays entspricht, über jeden dieser beiden Signalverläufe S1j und S2j und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, wird je ein Signalstück S1 teil Position k j und S2 teil Position k j gebildet.Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be gonnen wird.Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal- Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.Die Invertierung ist notwendig, da die Abbildungsstrahlen der Elemente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der Szene im Verschiebungsvorgang entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinan der zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D-Aufnahmeanordnung.Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m bestimmt wird. Aus den von m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei in dieser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt wird und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete Maximalwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann ei ne Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der weiteren Verarbeitung ausgeschlossen werden. Das Maximum Mj Maximalwert-Kurve kann auch über eine Schwerpunktbildung erfolgen. Dabei können lnterpolationsmethoden angewendet werden.So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array- Raum definiert.Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D- Aufnahmeanordnung bekannt ist. So können die Positionen von den Elementen einer Objektoberfläche, von welchen Signalverläufe aufgenommen werden, berechnet werden, wobei die Geometrie der 3D- Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschiebung, der beiden Empfänger-Arrays vorbestimmt sind.Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In terpolationsmethoden angewendet werden.Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objek toberfläche bezeichnet werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zumindest näherungsweise zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, und das erste und das zweite Empfänger-Array mindestens je eine Empfängerfläche aufweisen, die jeweils senkrecht zum Hauptschnitt liegt. Dabei enthält die Empfängerfläche des ersten Empfänger-Arrays vorzugsweise die Strecke ASA1, die auf einer Strecke auf dem ersten oberen Ast eines Buchstabens Y liegt. Weiterhin liegt vorzugsweise die Strecke ASA1 parallel zu einer Geraden gA1P, die zum einen den Brennpunkt des ersten Abbildungsobjek tivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe nen schneidet, so daß die detektierenden Elemente des erstes Empfänger-Arrays im Hauptschnitt auf der Strecke ASA1 angeordnet sind. Dabei bildet vorzugsweise ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y.Mindestens eine Empfängerfläche des zweiten Empfänger-Array liegt vorzugsweise auf einer Strecke AS2 auf dem zweiten oberen Ast des Buchstabens Y und enthält die Strecke ASA2, die parallel zu einer Gera den gA2P liegt, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet, so daß die detek tierenden Elemente des zweites Empfänger-Arrays im Hauptschnitt auf der Strecke ASA1 angeordnet sind, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Diese Anordnung ermög licht die Detektion von beleuchteten Elementen der Objektoberfläche im Objektraum auf einer Ebene senkrecht zum Hauptschnitt.Die Empfänger-Matrizen sind im Aufbau gleich und in einer zur Symmetrieilinie SL symmetrischen Positi on und in gleicher Höhe angeordnet. Die Signale der beiden Empfängerflächen werden zeilenweise aus gelesen, so daß die Empfängerfläche des ersten Empfänger-Arrays die Signalverläufe S1 und die Emp fängerfläche des zweiten Empfänger-Arrays die Signalverläufe S2 liefert. Diese Signalverläufe werden Zeile für Zeile ausgewertet, wobei die Zeilen in gleicher Entfernung vom Hauptschnitt die jeweils korre spondierenden Elemente enthalten. Für das Auffinden des Ortes eines Elementes der Objektoberfläche im Objektraum kommt die Auswertung entsprechend dem bereits beschriebenen Korrelationsverfahren mit zwei gefensterten Signalverläufen zur Anwendung. Auch hier werden durch eine Fensterfunktion Si gnalstücke erzeugt. Ein Signalstück wird dabei jeweils invertiert, indem die Signalwerte gespiegelt werden. Es wird die Kreuzkorrelation jeweils von einem originalen Signalstück und jeweils von einem invertierten Signalstück, wobei die Signalstücke jeweils symmetrisch angeordnete Zeilenausschnitte in der 3D- Anordnung repräsentieren, durchgeführt und jeweils ein Korrelationskoeffizient gewonnen und abgespei chert. Dabei wird das Fenster der Fensterfunktion, welches beispielsweise eine Länge von 64 Pixeln auf weisen kann, beispielsweise in Schritten von einem Inkrement verschoben, das hier einem Pixel in der je weils ausgewerteten Zeile entspricht. Für Überblicksmessungen kann auch ein größerer Verschiebung schritt des Fensters als um ein Pixel erfolgen, beispielsweise um vier Pixel. Die Länge des Fensters wird in Abhängigkeit von der relativen Öffnung und vom mittleren Abstand der Objektoberfläche gewählt. Dabei kann die Fensterlänge auch variabel gestaltet werden, beispielsweise kann für die fokusnahen Bereiche der Empfänger-Matrix eine geringere Fensterlänge gewählt werden. So erfolgt die Bestimmung der zO- Position der Elemente der Objektoberfläche in einer zum Hauptschnitt senkrechten Ebene in der Symme trielinie SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive.Die Auswertung erfolgt mit dem Korrelationsverfahren mit zwei gefensterten Signalverläufen wie oben be reits dargestellt.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist. Jedem der beiden Abbildungsobjektiv ist je ein räumlich strukturiertes Empfänger-Array zugeordnet, so daß ein erstes und ein zweites Empfänger-Array im Array-Raum angeordnet sind.Dabei weisen das erste und das zweite räumlich strukturierte Empfänger-Array mindestens je zwei Emp fängerflächen auf räumlich getrennten Flächen auf und die Empfängerflächen des ersten Empfänger- Arrays sind jeweils so angeordnet und die Empfängerflächen des zweiten Empfänger-Arrays sind jeweils so angeordnet, daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindestens von Teilen von Empfängerflächen des ersten Empfänger-Arrays sowie von Teilen der Empfängerflächen des zweiten Empfänger-Arrays im Objektraum gebildet sind. Auch hier erfolgt die Auswertung mit dem Korre lationsverfahren mit zwei gefensterten Signalverläufen wie oben bereits dargestellt. Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit min destens zwei Abbildungsstrahlengängen mit mindestens je einem Abbildungsobjektiv in jedem Abbil dungsstrahlengang. Dabei ist das Pupillenzentrum (PZOA1) eines Abbildungsobjektivs eines Abbildungs strahlenganges mindestens im Abstand d vom Pupillenzentrum (PZOA2) eines anderen Abbildungsobjek tivs eines anderen Abbildungsstrahlenganges angeordnet, wobei der Abstand d mindestens ein Achtel der Ausdehnung der Öffnungsblende des Abbildungsobjektivs mit der größten Ausdehnung der Öffnungs blende entspricht. Weiterhin ist jedem Abbildungsobjektiv mindesten je ein Empfänger-Array mit minde stens zwei detektierenden Element zugeordnet.Erfindungsgemäß ist dabei jedem Empfänger-Array mindestens jeweils ein mikrooptisches Array mit mi krooptischen Elementen zur Beeinflussung der geometrisch-optischen Gegenstandsweite der detektie renden Elemente zum zugehörigen Abbildungsobjektiv zugeordnet und im Objektraum ist mindestens ein Paar von zumindest näherungsweise koinzidierenden Bildern von je einem Bild eines Elementes der Empfängerflächen je eines Abbildungsstrahlenganges gebildet.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro optische Array als ein Mikroprismen-Array ausgebildet sein. Dabei kann ein Mikropisma mehrere detektie rende Elemente überdecken, so daß aufgrund der unterschiedlichen optischen Dicke des Mikroprismas die mehrere detektierende Elemente eine jeweils andere optische Gegenstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im Objektraum einnehmen. So kann aus den Bildern von mehreren detektierende Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelationsverfahrens kann so mindestens der Ort eines Elementes ei ner Oberfläche bestimmt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher axialer Lage ausgebildet ist. So kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere optische Ge genstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein Bild der detek tierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelationsverfahrens kann so mindestens der Ort eines Elementes einer Oberfläche bestimmt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite ausgebildet sein. Auch hierbei kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere optische Gegenstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine an dere Lage im Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein Bild der detektierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelations verfahrens kann so mindestens der Ort eines Elementes einer Oberfläche bestimmt werden. Die Mikrolin sen können dabei Bestandteil eines Mikro-Teleskopes sein. 6. AusführungsbeispieleIn der Fig. 1 werden die Anordnung und das Verfahren dargestellt. Es wird zwischen dem Array-Raum und dem Objektraum unterschieden. Es wird die folgende Notation verwendet, die von der üblichen abweicht, sich aber bei dieser und den im weiteren dargestellten optischen Schaltungen als vorteilhaft für die Beschreibung erwiesen hat: Die Größen und Punkte des Array-Raumes der werden an erster Stelle mit dem Buchstaben A indiziert und die Größen und Punkte des Objektraumes mit dem Buchstaben O. An zweiter Stelle im Index wird das zugehörige Objektiv gekennzeichnet und zwar im Falle der Zugehörigkeit zum Beleuchtungsobjektiv 1 mit dem Buchstaben B und im Falle der Zugehörigkeit zum Abbildungsobjektiv 2 mit dem Buchstaben A.Im Array-Raum befinden sich ein Liniengitter 3 mit der Gitterkonstante p und eine vorgeordnete Strahlungsquelle mit sichtbarem Licht, also eine Lichtquelle 4. Diese Lichtquelle 4 kann rechnergesteuert sein, so daß die mittlere Beleuchtungsstärke der Entfernung des jeweiligen Schärfebene nach dem photometrischen Gesetz angepaßt ist. Dies stellt eine gute Ausnutzung der Lichtenergie dar.Das Liniengitter 3 ist dem Beleuchtungsobjektiv 1 mit einem streng telezentrischen Strahlengang im Array-Raum achssenkrecht und extrafokal zugeordnet. Das Beleuchtungsobjektiv 1 bildet das Liniengitter 3 in den Objektraum ab, wodurch zumindest zu einem Zeitpunkt eine strukturierte Beleuchtung der Objektoberfläche 5 entsteht. Zur Vereinfachung sind die beiden Hauptebenen des Beleuchtunsobjektivs 1, HAB und HOB, in der Fig. 1 zusammengelegt. Bei realen Objektiven dieser K1asse liegen die beiden Hauptebenen weit auseinander.Im Array-Raum ist eine Empfänger-Matrix 6 dem Abbildungsobjektiv 2, welches einen ebenfalls streng telezentrischen Strahlengang im Array-Raum aufweist, achssenkrecht und extrafokal zugeordnet. Das Abbildungsobjektiv 2 bildet die Objektoberfläche 5 in den Array-Raum ab. Ein einzelner Abbildungsstrahl AO1 ist dargestellt. Zur Vereinfachung sind die beiden Hauptebenen des Abbildungsobjektivs 2, HAA und HOA, in der Fig. 1 ebenfalls zusammengelegt.Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 sind mit ihren optischen Achsen zueinander parallel mit dem Achsenabstand d angeordnet. Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 weisen die array-seitigen Brennpunkte FAB und FAA und im Objektraum die Brennpunkte FOB und FOA auf. Wegen der Telezentrie fallen im Objektraum die Brennpunkte FOB und FOA mit den Austrittspupillen PZOB und PZOA zusammen. Es sind zwei Beleuchtungsstrahlen BSO1 und BSO2 und ein Abbildungsstrahl ABSO dargestellt.Die hier nicht dargestellte, erste Linearführung des Bewegungssystems ist mit der Empfänger-Matrix 6 starr verbunden und trägt eine zweite, hier ebenfalls nicht dargestellte, kleinere Linearführung, die wiederum das Liniengitter 3 trägt. Dieses Liniengitter 3 ist deutlich länger ausgeführt als es dem vom Beleuchtungsobjektiv 1 erfaßten Bildfeld entspricht, um im gesamten Bewegungsvorgang stets das gesamte Bildfeld zu überdecken. Die erste Linearführung ist mit einem hochgenauen Längen-Meßsystem verbunden, welches einen hochstabilen Nullpunkt aufweist. Die Bewegungsachse der ersten Linearführung ist parallel zu den Objektivachsen und die Meßachse des Längen-Meßsystems liegt dabei parallel zu den beiden Objektivachsen. Die Bewegungsrichtung der zweiten Linearführung liegt senkrecht zu den Objektivachsen. Dem Liniengitter 3 auf der zweiten Linearführung ist ein mit der ersten Linearführung fest verbundenes Gegengitter mit einer kompletten Beleuchtungs- und Empfänger-Optik in der Art eines inkrementalen Längenmeßsystems zugeordnet. Die vorhandene Auswerte-Elektronik weist eine elektronische Schnittstelle zum Rechner auf, um die berechnete Verschiebung des Liniengitters 3 als Phaseninformation echtzeitnah im Rechner zur Verfügung zu haben. Gleichzeitig ist auf dem Liniengitter 3 im Teil außerhalb des genutzten Bildfeldes eine erste Referenzstruktur aufgebracht, die von einer zweiten Referenzstruktur, die ebenfalls auf dem Gegengitter aufgebracht ist, optisch abgetastet wird. Auch dabei ist eine Beleuchtungs- und Empfänger-Optik beigeordnet und eine Auswerte-Elektronik vorhanden. Die zweite Auswerte-Elektronik weist ebenfalls eine elektronische Schnittstelle zum Rechner auf, um das Durchfahren des Nullpunktes des Liniengitters in Echtzeit im Rechner zur Verfügung zu haben.Beide Linearführungen des Bewegungssystems starten aus der Nullposition heraus. Die Bewegungsrichtung der ersten Linearführung ist parallel zur optischen Achse des Abbildungsobjektivs ausgerichtet. Die Bewegung erfolgt zu den Brennpunkten hin. Der kleineren, zweiten Linearführung, die das Liniengitter 3 trägt, ist ein Positions-Regelsystem zugeordnet, um eine Bewegung des Liniengitters mit einer möglichst konstanten Geschwindigkeit und damit auch mit einer konstanten Phasengeschwindigkeit realisieren zu können. Die Bewegungsrichtung der zweiten Linearführung ist senkrecht zur optischen Achse des Beleuchtungsobjektiv 1 und erfolgt nach dem Start in Richtung des Beleuchtungsobjektivs 1.Aus der aktuellen, absoluten Istphase ϕGitter des Liniengitters 3, die von einem Nullpunkt abgeleitet ist, werden die Sollwerte für die Position der ersten Linearführung errechnet. Dies erfolgt so, daß sich die Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer Geraden gA, beispielsweise parallel zur Geraden gA2, auf der B-Strecke BSA2 bewegen. Diese Gerade gA ist so definiert, daß sie den Brennpunkt FAB des Beleuchtungsobjektivs 1 und außerdem den Hauptpunkt HAA des Abbildungsobjektivs 2 schneidet.Die leuchtenden Flächenelemente FEL bewegen sich im Array-Raum auf den Verschiebungsstrecken VSAj, die hier durch die Sollstrecken, die B-Strecken BSAj, repräsentiert sind. Die Bilder dieser B-Strecken BSAj, einschließlich der in der Fig. 1 dargestellten B-Strecken BSA1 und BSA2, werden in den Objektraum abgebildet. Beispielsweise werden aus den B-Strecken BSA1 und BSA2 die Bilder BSA1 und BSA2. Die Bilder BSA1 und BSA2 bilden ein Streckenbüschel SB1 mit dem Konvergenzpunkt K1, der mit den Brennpunkt FOA des Abbildungsobjektivs 2 zusammenfällt. Weiterhin werden die Elemente des Empfänger-Arrays auf Strecken ASAj verschoben. Dargestellt sind die Strecken ASA1 und ASA2. Deren Bilder stellen im Objektraum das Streckenbündel SB2 mit den Strecken ASO1 und ASO2 mit dem Konvergenzpunkt K2 dar, der im Brennpunkt FOA des Abbildungsobjektivs 2 mit dem Konvergenzpunkt K1 koinzidiert, wobei der Koinzidenzpunkt von Konvergenzpunkt K1 und von Konvergenzpunkt K2 im allgemeinen stets der Koinzidenzpunkt K0 ist.Durch dieses Bewegungsregime werden die achssenkrechten Ebenen des Objektraumes von der Schärfefläche nacheinander "durchfahren", indem sich in jeder dieser Ebenen bei Vorhandensein einer Objektoberfläche ein vom Beleuchtungsobjektiv 1 scharf abgebildetes Streifenmuster beobachten läßt, welches durch das Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 abgebildet wird. Durch das so realisierte Bewegen der Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer Geraden gA wird das sogenannte "Mitführen der Phase in der Schärfefläche erreicht. Dies führt dazu, daß jedes hinreichend kleine Objektdetail, im Objektraum, wenn es von der Schärfefläche "erfaßt" wird, ein moduliertes periodisches Signal im zugehörigen Pixel ij auf der Empfänger-Matrix 6 erzeugt, in welchem die Information über die absolute Phase des Objektpunktes ϕObj_ij enthalten ist. Diese absolute Phase entspricht beispielsweise für den Objektpunkt AO2 in Fig. 1 der gedachten Anzahl der Streifen n, einschließlich der Streifenbruchteile Δn, zwischen den beiden Objektiv-Achsen, also n + Δn. Diese Streifen sind im Fall einer ebenen, achssenkrecht angeordneten Platte direkt zu beobachten. Dennoch kann im allgemeinen die so zu beobachtende absolute Objektphase aufgrund der nicht genau bekannten Zuordnung der beiden optischen Achsen zu den Pixeln der Empfänger-Matrix 6 nicht bestimmt werden.Anhand der Fig. 1 läßt sich zeigen, daß in der Position AO1BO1 die Anzahl der Streifen n + 1 + Δn, die zwischen den beiden Objektivachsen zu beobachten ist, genau der Anzahl n + 1 + Δn der Gitterperioden des Liniengitters 3 im Array-Raum entspricht, die sich beim Zählen von der Achse des Beleuchtungsobjektivs 1 in xAB-Richtung ergibt. Weiterhin definiert der Punkt GAB genau den Ort auf dem Gitterelement des Liniengitters 3, welcher beim Bewegen auf der Geraden gA im Teilbereich des Gitterinkrements den Brennpunkt FAB des Beleuchtungsobjektivs 1 schneidet. Demzufolge entspricht, die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene dem Abstand GQ.Bei Kenntnis des zugehörigen Punktes GAB auf dem Liniengitter 3 und des Wertes xAB1 sowie der Gitterkonstanten p läßt sich grundsätzlich die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene im Objektraum mit
errechnen. Im Fall der Übereinstimmung der realen Lage der Objektivachse des Abbildungsobjektivs mit der Geraden gO, die ja definitionsgemäß parallel zur Objektivachse des Beleuchtungsobjektivs 1 liegt, gelten die dargestellten Zusammenhänge nach Gleichung (7).Bevor die Messung, d. h. die Gewinnung der Punktwolke einer unbekannten Objektoberfläche 5 erfolgen kann, muß das System mit Hilfe einer Referenzplatte in einer achssenkrechten Position erfolgen. Dies erfolgt mit Vorteil in der Nahdistanz der 3D-Aufnahme-Anordnung, kann aber auch in jeder anderen Entfernung im Aufnahmebereich der 3D-Aufnahme-Anordnung erfolgen. Die in den Pixel der Empfänger-Matrix 6 sich dabei ergebenden Signalverläufe werden gespeichert. Aus diesen Signalverläufen wird mit Hilfe eines phasenauswertenden Algorithmus' die relative Referenzphase ϕRR_ij im Pixel ij des Empfänger-Arrays im Bereich des Modulationsmaximums berechnet, welches ein Signal von der Referenzplatte erhält. Die so bestimmten relativen Referenzphasen mod 2π werden der absoluten Phase ϕGitter des Liniengitters zugeordnet, siehe Fig. 2, und unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert und in einem Feld als Phasenwerte ϕGitterR_ij - in der Regel - längerfristig gespeichert. Die relativen Objektphasen der Objektpunkte ϕRObj_ij mod 2π werden jeweils von der absoluten Phase 9 Gitter des Liniengitters 3 unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert, wodurch die Phasenwerte ϕGitterObj_ij als Feld entstehen. Aus diesen Feldern werden punktweise die Phasendifferenzen ΔϕGitter_ij gebildet.Zuvor wurde aus der möglichst gut bekannten Entfernung zOR der Referenzplatte von der Brennebene die absolute, lateral invariante Phase ϕR der Referenzfläche mit der hier noch einmal dargestellten Gleichung (2)
bestimmt, wobei diese Bestimmung iterativ zur Annäherung an deren wahren Wert mehrfach erfolgen kann. Es stellen d den Achsenabstand der beiden Objektive 1 und 2, fB die Brennweite des Beleuchtungsobjektivs 1 und p die Gitterkonstante des Liniengitters 3 dar.Mit der Beziehung entsprechend Gleichung (4), wobei ΔϕGitter_ij sich für den Objektpunkt ij aus der Gleichung (3) ergibt,
(-)ϕObj_ij = (-)ϕR + ΔϕGitter_ij (8)
wird für den Objektpunkt ij die absolute Objektphase (-)ϕObj_ij aus Gleichung (8) gewonnen. Aus der Beziehung
kann die zos-Koordinate des Objektpunktes zObj_ij im Objektraum berechnet werden, wobei der Objektpunkt mit dem Pixel ij der Empfänger-Matrix 6 optisch konjugiert ist.Durch achsparallele Verschiebungen ΔzOB von Planplatten, wobei die Verschiebungen mit einem Präzisions-Längenmeßsystem gemessenen werden, können Fehler abgeschätzt werden, indem die errechneten Verschiebungen mit den gemessenen verglichen werden. Die Nachjustierung der 3D-Aufnahme-Anordnung erfolgt iterativ. Die Restabweichungen werden in ein numerisches Modell eingegeben, welches hier nicht dargestellt ist, und können zur Korrektur benutzt werden.Aus der Einrechnung des zu jedem Objektpunkt mit der Koordinate zObj_ij gehörenden aktuellen Abbildungsmaßstabes werden die kartesischen Koordinaten für jeden Objektpunkt ermittelt. Dabei kann ein neues Koordinatensystem mit dem Brennpunkt des Abbildungsobjektivs 2 als Nullpunkt für die lateralen Koordinaten in x- und y-Richtung verwendet werden. Damit stehen die 3D-Koordinaten der Objektoberfläche in digitaler Form als Punktwolke zur Verfügung. Diese Punktwolke wird je nach Aufgabenstellung für meßtechnische Applikationen oder Aufgaben mit einer 3D-Wiedergabe verwendet.Bei der Verschiebung eines Objektpunktes, der sich in der AO1BO1-Position in Fig. 1 befindet, in die AO2BO2-Position entlang des gezeichneten Abbildungsstrahls ABSO erfährt das im Bildpunkt dieses Objektpunktes detektierte Signal eine Änderung in der Phasenlage von 2π. Die Änderung in der zOB-Koordinate entspricht dem Δz2 π-Wert, also der Tiefenänderung, die einer Phasenänderung von 2π entspricht. Dieser Δz2 π-Wert wird als effektive Wellenlänge bezeichnet und ist tiefenabhängig.Fig. 2 zeigt beispielsweise die Signalverläufe SO und SR in einem Bildpunkt der Empfänger-Matrix 6 in Bezug zum Signalverlauf SG, der am Liniengitter 3 mit Hilfe eines Gegengitters beim Bewegen des Gitters 3 detektiert werden kann. Dargestellt werden der Signalverlauf im Bildpunkt SO eines Objektpunktes und der Signalverlauf SR im Bildpunkt eines Referenzpunktes. Hierbei befindet sich die Referenzplatte näher am Brennpunkt FOB als die Objektoberfläche. Am Abtastpunkt APR im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Referenzpunktes wird die relative Phase ϕRR errechnet und am Abtastpunkt APO im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Objektpunktes die relative Phase ϕRObj. Mittels der Gleichung (3) wird die absolute Phasendifferenz ΔϕGittzer errechnet und mit Gleichung (4) die absolute Objektphase ϕObj, aus der mit der Gleichung (5) die zOB-Koordinate eines jeden Objektpunktes, nämlich zObj, bestimmt wird. Der hochstabile Nullpunkt N dient als Startpunkt.Fig. 3 zeigt eine vorteilhafte 3D-Aufnahme-Anordnung mit nur einer Linearführung 7, beispielsweise für eine 3D-Aufnahme-Anordnung für Multimedia-Applikationen. Der Schlitten 8 der Linearführung 7 trägt ein Liniengitter 3 zur strukturierten Beleuchtung der Objektoberfläche 5. Die Beleuchtung erfolgt mittels einer Lichtquelle 4 durch eine Öffnung in der Basis 9 der Linearführung 7. Weiterhin trägt der Schlitten 8 die beweglichen Teile für ein Meßsystem 10 für den Verschiebeweg s, wobei auch ein Nullpunktgeber 11 angeordnet ist. Außerdem ist eine Auswerteelektronik mit Schnittstelle zum hier nicht dargestellten Auswerterechner vorhanden.Der Schlitten 8 wird von einem Linear-Motor 12 angetrieben und die Führung 7 weist ein miniaturisiertes Präzisionslager 13 auf. Als Empfänger-Matrix 6 kann auch eine farbtüchtige Kamera eingesetzt werden, wobei die farbsensitiven Pixel jeweils auf einer Linie quer zu den Linien des Liniengitters 3 angeordnet sein sollten.Nach dem Start des Schlittens 8 in (-)s-Richtung wird der Nullpunkt durchfahren und das Liniengitter 3 durch das Beleuchtungsobjektiv 1 nacheinander in unterschiedliche Tiefen des Objektraumes scharf abgebildet. Auf der Oberfläche der Objektoberfläche 5 entsteht beim Verschieben des Liniengitters 3 im Zeitbereich ΔtB zumindestens einmal im Verschiebevorgang das scharfe Bild desselben, beispielsweise zum Zeitpunkt ti. Dieses scharfe Bild wird auch zum Zeitpunkt ti vom Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 scharf abgebildet, da diese sich in der gleichen Ebene wie das Liniengitter 3 befindet. Durch die Bewegung des Schlittens 8 der Führung 7 gibt es eine laterale Bewegung der Empfänger-Matrix 6, wobei das Bild der Objektoberfläche 5 in Bezug auf die Basis 9 feststeht. Um diese laterale Bewegung zu kompensieren, um eine feste Zuordnung der Punkte der Objektoberfläche 5, also der Abbildungsstrahlen, zu den Pixeln der Empfänger-Matrix 6 beizubehalten, werden die gewonnenen Bildinformationen pixelweise im Bilddaten-Massiv entsprechend der lateralen Bewegung der Empfänger-Matrix 6 verschoben. Damit wird erreicht, daß ein realer Abbildungsstrahl jeweils einem lateral feststehenden Bildpunkt unabhängig von der lateralen Bewegung der Empfänger-Matrix 6 fest zugeordnet bleibt.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1999119584 DE19919584A1 (de) | 1999-04-29 | 1999-04-29 | Verfahren und Anordnung zur 3D-Aufnahme |
PCT/DE2000/000991 WO2000066972A1 (de) | 1999-04-29 | 2000-04-01 | Verfahren und vorrichtung zur objektabtastung |
AU43913/00A AU4391300A (en) | 1999-04-29 | 2000-04-01 | Method and device for scanning objects |
DE10081176T DE10081176D2 (de) | 1999-04-29 | 2000-04-01 | Verfahren und Vorrichtung zur Objektabtastung |
EP00925063A EP1188035A1 (de) | 1999-04-29 | 2000-04-01 | Verfahren und vorrichtung zur objektabtastung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1999119584 DE19919584A1 (de) | 1999-04-29 | 1999-04-29 | Verfahren und Anordnung zur 3D-Aufnahme |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19919584A1 true DE19919584A1 (de) | 2000-11-02 |
Family
ID=7906332
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE1999119584 Withdrawn DE19919584A1 (de) | 1999-04-29 | 1999-04-29 | Verfahren und Anordnung zur 3D-Aufnahme |
DE10081176T Expired - Fee Related DE10081176D2 (de) | 1999-04-29 | 2000-04-01 | Verfahren und Vorrichtung zur Objektabtastung |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE10081176T Expired - Fee Related DE10081176D2 (de) | 1999-04-29 | 2000-04-01 | Verfahren und Vorrichtung zur Objektabtastung |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP1188035A1 (de) |
AU (1) | AU4391300A (de) |
DE (2) | DE19919584A1 (de) |
WO (1) | WO2000066972A1 (de) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003101089A1 (de) * | 2002-05-23 | 2003-12-04 | Cobra Electronic Gmbh | Miniaturisierte kamera |
DE102008016766A1 (de) | 2008-04-02 | 2009-11-19 | Sick Ag | Optoelektronischer Sensor und Verfahren zur Detektion von Objekten |
US7830528B2 (en) | 2005-12-14 | 2010-11-09 | Koh Young Technology, Inc. | 3D image measuring apparatus and method thereof |
DE102010060448A1 (de) * | 2010-11-09 | 2012-05-10 | Eberhard Lange | Projektionsvorrichtung zum Projizieren eines zu projizierenden Objekts |
CN101514893B (zh) * | 2005-12-14 | 2012-08-08 | 株式会社高永科技 | 三维形状测量装置及方法 |
DE102010030833B4 (de) * | 2009-07-03 | 2014-07-03 | Koh Young Technology Inc. | Vorrichtung zur Messung einer dreidimensionalen Form |
DE102014119126B3 (de) * | 2014-12-19 | 2015-08-06 | Sick Ag | Streifenprojektor zum Beleuchten einer Szenerie mit einem veränderlichen Streifenmuster |
DE102017004428A1 (de) * | 2017-05-08 | 2018-11-08 | Universität Stuttgart | Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets |
DE102017004429A1 (de) * | 2017-05-08 | 2018-11-08 | Universität Stuttgart | Verfahren und Anordnung zur robusten, tiefenscannenden/ fokussierenden Streifen-Triangulation |
US10352995B1 (en) | 2018-02-28 | 2019-07-16 | Nxp Usa, Inc. | System and method of multiplexing laser triggers and optically selecting multiplexed laser pulses for laser assisted device alteration testing of semiconductor device |
US10782343B2 (en) | 2018-04-17 | 2020-09-22 | Nxp Usa, Inc. | Digital tests with radiation induced upsets |
CN115540759A (zh) * | 2022-11-16 | 2022-12-30 | 南京科天力电子科技有限公司 | 一种基于图像识别技术修饰金属的检测方法及检测系统 |
RU2791666C2 (ru) * | 2018-11-15 | 2023-03-13 | Ксепикс Са | Способ и система автоматического измерения физических и размерных параметров многосегментных изделий |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE602005004332T2 (de) | 2004-06-17 | 2009-01-08 | Cadent Ltd. | Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle |
US9675430B2 (en) | 2014-08-15 | 2017-06-13 | Align Technology, Inc. | Confocal imaging apparatus with curved focal surface |
EP3575773A1 (de) * | 2018-05-28 | 2019-12-04 | Universität für Bodenkultur Wien | Verfahren zur bestimmung einer dreidimensionalen partikelverteilung in einem medium |
CN114693936B (zh) * | 2022-04-18 | 2024-07-02 | 华中科技大学 | 一种基于白光干涉测量的微沟槽特征分割方法及系统 |
CN118447460A (zh) * | 2024-07-08 | 2024-08-06 | 湖州丰源农业装备制造有限公司 | 一种基于人工智能的自动驾驶收割机监控管理系统及方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4689480A (en) * | 1985-04-25 | 1987-08-25 | Robotic Vision Systems, Inc. | Arrangement for improved scanned 3-D measurement |
US5003166A (en) * | 1989-11-07 | 1991-03-26 | Massachusetts Institute Of Technology | Multidimensional range mapping with pattern projection and cross correlation |
-
1999
- 1999-04-29 DE DE1999119584 patent/DE19919584A1/de not_active Withdrawn
-
2000
- 2000-04-01 EP EP00925063A patent/EP1188035A1/de not_active Withdrawn
- 2000-04-01 AU AU43913/00A patent/AU4391300A/en not_active Abandoned
- 2000-04-01 WO PCT/DE2000/000991 patent/WO2000066972A1/de not_active Application Discontinuation
- 2000-04-01 DE DE10081176T patent/DE10081176D2/de not_active Expired - Fee Related
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003101089A1 (de) * | 2002-05-23 | 2003-12-04 | Cobra Electronic Gmbh | Miniaturisierte kamera |
US7830528B2 (en) | 2005-12-14 | 2010-11-09 | Koh Young Technology, Inc. | 3D image measuring apparatus and method thereof |
CN101514893B (zh) * | 2005-12-14 | 2012-08-08 | 株式会社高永科技 | 三维形状测量装置及方法 |
DE102006059132B4 (de) * | 2005-12-14 | 2012-12-06 | Koh Young Technology Inc. | Dreidimensionales Bildmessverfahren |
DE102008016766A1 (de) | 2008-04-02 | 2009-11-19 | Sick Ag | Optoelektronischer Sensor und Verfahren zur Detektion von Objekten |
DE102010030833B4 (de) * | 2009-07-03 | 2014-07-03 | Koh Young Technology Inc. | Vorrichtung zur Messung einer dreidimensionalen Form |
DE102010060448A1 (de) * | 2010-11-09 | 2012-05-10 | Eberhard Lange | Projektionsvorrichtung zum Projizieren eines zu projizierenden Objekts |
DE102010060448B4 (de) * | 2010-11-09 | 2021-07-01 | Eberhard Lange | Projektionsvorrichtung zum Projizieren eines zu projizierenden Objekts |
DE102014119126B3 (de) * | 2014-12-19 | 2015-08-06 | Sick Ag | Streifenprojektor zum Beleuchten einer Szenerie mit einem veränderlichen Streifenmuster |
WO2018206233A1 (de) | 2017-05-08 | 2018-11-15 | Universität Stuttgart | Verfahren und anordnung zur robusten, tiefenscannenden/fokussierenden streifen-triangulation mit mehreren wavelets |
DE102017004429A1 (de) * | 2017-05-08 | 2018-11-08 | Universität Stuttgart | Verfahren und Anordnung zur robusten, tiefenscannenden/ fokussierenden Streifen-Triangulation |
DE102017004428B4 (de) | 2017-05-08 | 2018-11-29 | Universität Stuttgart | Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets |
DE102017004429B4 (de) | 2017-05-08 | 2019-05-09 | Universität Stuttgart | Verfahren und Anordnung zur robusten, tiefenscannenden/fokussierenden Streifen-Triangulation |
US10866088B2 (en) | 2017-05-08 | 2020-12-15 | Universität Stuttgart | Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets |
DE102017004428A1 (de) * | 2017-05-08 | 2018-11-08 | Universität Stuttgart | Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets |
US10352995B1 (en) | 2018-02-28 | 2019-07-16 | Nxp Usa, Inc. | System and method of multiplexing laser triggers and optically selecting multiplexed laser pulses for laser assisted device alteration testing of semiconductor device |
US10782343B2 (en) | 2018-04-17 | 2020-09-22 | Nxp Usa, Inc. | Digital tests with radiation induced upsets |
RU2791666C2 (ru) * | 2018-11-15 | 2023-03-13 | Ксепикс Са | Способ и система автоматического измерения физических и размерных параметров многосегментных изделий |
CN115540759A (zh) * | 2022-11-16 | 2022-12-30 | 南京科天力电子科技有限公司 | 一种基于图像识别技术修饰金属的检测方法及检测系统 |
CN115540759B (zh) * | 2022-11-16 | 2023-05-09 | 江西滕创洪科技有限公司 | 一种基于图像识别技术修饰金属的检测方法及检测系统 |
Also Published As
Publication number | Publication date |
---|---|
EP1188035A1 (de) | 2002-03-20 |
AU4391300A (en) | 2000-11-17 |
WO2000066972A1 (de) | 2000-11-09 |
DE10081176D2 (de) | 2002-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3033588B1 (de) | Verfahren und vorrichtung zum berührungslosen vermessen von oberflächenkonturen | |
DE19919584A1 (de) | Verfahren und Anordnung zur 3D-Aufnahme | |
EP0932816B1 (de) | Verfahren und vorrichtung zum messen des verlaufs reflektierender oberflächen | |
DE112009005524B3 (de) | Vorrichtung und Verfahren zum Messen von sechs Freiheitsgraden | |
DE69207176T2 (de) | Optischer Sensor | |
DE102015122842A1 (de) | Kalibrierplatte zum Kalibrieren einer 3D-Messvorrichtung und Verfahren hierfür | |
EP2948732B1 (de) | System zur lagebestimmung eines prüfobjektes | |
DE3016361A1 (de) | Verfahren und einrichtung zur elektro-optischen bestimmung der abmessungen, lage oder haltung eines objekts | |
DE102009009372A1 (de) | Monitoring von kippbaren Spiegeln | |
DE102013212409A1 (de) | Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts und Vorrichtung zur Bilderfassung | |
DE102012002161A1 (de) | Verfahren und Vorrichtung zur 3D-Messung von Objekten | |
DE69116852T2 (de) | Ausrichtung eines verkippten Spiegels | |
DE102019201272B4 (de) | Vorrichtung, Vermessungssystem und Verfahren zur Erfassung einer zumindest teilweise spiegelnden Oberfläche unter Verwendung zweier Spiegelungsmuster | |
DE19846145A1 (de) | Verfahren und Anordung zur 3D-Aufnahme | |
DE102015011427A1 (de) | Bildaufnahmesystem und Bildauswertesystem | |
DE102006031833A1 (de) | Verfahren zum Erzeugen von Bildinformationen | |
EP0671679A1 (de) | Vorrichtung und Verfahren zum berührungslosen Vermessen dreidimensionaler Objekte auf der Basis optischer Triangulation | |
DE102015106838B4 (de) | Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu | |
DE102014016087B4 (de) | Dreidimensionale optische Erfassung von Objektoberflächen | |
DE102012001307A1 (de) | Verfahren und Vorrichtung zur 3D-Messung von Objekten, insbesondere unter hinderlichen Lichtverhältnissen | |
DE19749974C2 (de) | Verfahren und Apparat zur Erzeugung einer 3D-Punktwolke | |
WO2012076182A1 (de) | Verfahren und system zur bestimmung der position und/oder lage eines objektes in einem räumlichen messvolumen | |
DE10244767A1 (de) | Verfahren und Vorrichtung zum Bestimmen des Abstands zwischen einer Referenzebene und einer inneren oder äußeren optischen Grenzfläche eines Objekts sowie Verwendung derselben zum Bestimmen eines Oberflächenprofils eines, inbesondere metallischen, Objekts, Autofokus-Modul, Mikroskop und Verfahren zum Autofokussieren eines Mikroskops | |
EP3899423B1 (de) | Vorrichtung, vermessungssystem und verfahren zur erfassung einer zumindest teilweise spiegelnden oberfläche unter verwendung zweier spiegelungsmuster | |
DE102014222628A1 (de) | Vermessen der Topografie und/oder des Gradienten und/oder der Krümmung einer das Licht reflektierenden Fläche eines Brillenglases |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8122 | Nonbinding interest in granting licences declared | ||
8143 | Withdrawn due to claiming internal priority | ||
8170 | Reinstatement of the former position | ||
8110 | Request for examination paragraph 44 | ||
8139 | Disposal/non-payment of the annual fee |