DE19846145A1 - Three-dimensional imaging device for shape measurement has transmitter array whose elements move in straight, parallel lines - Google Patents
Three-dimensional imaging device for shape measurement has transmitter array whose elements move in straight, parallel linesInfo
- Publication number
- DE19846145A1 DE19846145A1 DE1998146145 DE19846145A DE19846145A1 DE 19846145 A1 DE19846145 A1 DE 19846145A1 DE 1998146145 DE1998146145 DE 1998146145 DE 19846145 A DE19846145 A DE 19846145A DE 19846145 A1 DE19846145 A1 DE 19846145A1
- Authority
- DE
- Germany
- Prior art keywords
- lens
- phase
- space
- array
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/254—Projection of a pattern, viewing through a pattern, e.g. moiré
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
Das technische Anwendungsgebiet besteht in der Bestimmung der 3D-Form oder 3D-Gestalt von Körpern oder Objekten im Raum oder sogar kompletten Szenen mit mindestens einem Bildaufnehmer in einem optischen Aufnahmesystem. Die dazu notwendige Anordnung wird im weiteren als 3D-Aufnahme-Anordnung und das Verfahren wird als 3D-Aufnahme-Verfahren bezeichnet.The technical field of application is the determination of the 3D shape or 3D shape of bodies or objects in space or even complete scenes with at least one image sensor in an optical recording system. The one necessary arrangement is further referred to as a 3D recording arrangement and that The process is referred to as the 3D recording process.
Die Anwendung dieser 3D-Aufnahme-Anordnung und dieses Verfahrens erfolgt erstens im Sinne der 3D-Meßtechnik. Als Ergebnis der Berechnung wird aus optisch gewonnenen Signalen die 3D-Punktwolke eines Objektes oder einer Szene mit Be zug zu einem Nullpunkt der 3D-Aufnahme-Anordnung ermittelt. Die errechnete Punktwolke kann beispielsweise in einem CAD-System weiterverarbeitet werden.This 3D recording arrangement and this method are used firstly in the sense of 3D measurement technology. As a result of the calculation it becomes optical signals obtained the 3D point cloud of an object or a scene with Be train determined to a zero point of the 3D recording arrangement. The calculated one Point cloud can be processed further in a CAD system, for example.
Das zweite Anwendungsgebiet stellt das Gewinnen von 3D-Bildern von Objekten oder Szenen für 3D-Wiedergabe-Geräte und 3D-Wiedergabe-Verfahren dar. Dies betrifft vor allem den Multimedia- und Fernsehbereich.The second area of application is the acquisition of 3D images of objects or scenes for 3D playback devices and 3D playback methods. This mainly affects the multimedia and television sector.
Die 3D-Form von Oberflächen wird häufig mit Streifen-Triangulationsverfahren ver messen. Dabei wird in der Regel das Objekt oder die Szene unter einem großen Einfallswinkel beleuchtet, beispielsweise zwischen 30° und 60°. Dies führt jedoch häufig zu störenden Abschattungen des Objekts oder von Details in der Szene.The 3D shape of surfaces is often used with strip triangulation methods measure up. The object or scene is usually under a large one Illuminated angle of incidence, for example between 30 ° and 60 °. However, this leads Frequently disturbing shadowing of the object or details in the scene.
Es sind vielfältige 3D-Meßanordnungen mit kohärentem Licht bekannt. Der Einfluß des Speckle-Phänomens begrenzt jedoch die Auflösung. Dies wurde in der Arbeit "Automatisierung der optischen Qualitätsprüfung" von H. J. Tiziani in Technisches Messen, 55. Jahrgang, Heft 12/1988, S. 481-491 auf Seite 488 dargestellt.A variety of 3D measuring arrangements with coherent light are known. The influence of the speckle phenomenon, however, limits the resolution. This was in the works "Automation of Optical Quality Inspection" by H. J. Tiziani in Technical Messen, 55th year, issue 12/1988, pp. 481-491 on page 488.
Interferenzstreifen-Felder, die durch die Überlagerung kohärenter Planwellen er zeugt werden, weisen ebenfalls Speckle-Effekte auf, s. Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 328-330. Diese Speckle-Effekte begrenzen die sinnvolle Höhenauflösung häufig auf weniger als 1/50 der effektiven Wellenlänge.Interference fringe fields caused by the superimposition of coherent plane waves be produced, also have speckle effects, s. Technical measurement, 62. Volume 9/1995, pp. 328-330. These speckle effects limit the sensible Elevation resolution often less than 1/50 of the effective wavelength.
Bei der Aufnahme von Personen verbietet sich aus Sicherheitsgründen die Anwen dung gerichteter Laserstrahlung.For security reasons, the admission of people is prohibited directional laser radiation.
In der deutschen Patentschrift DE 44 13 758 C2, veröffentlicht am 17.9.98, zeigen die Fig. 4-7 eine Möglichkeit der Gewinnung von Interferenzstreifen für die Ge staltmessung mittels eines Zweistrahl-Interferometers mit Dachkantreflektoren durch Lateral-Shear von zwei kohärenten Lichtbündeln. Die Eliminierung der Lateral-Shear führt zu einem Interferenzstreifen-Feld mit wenigen Streifen. Jedoch muß hierbei ein Strahlteilersystem für die Eliminierung der Lateral-Shear eingesetzt werden. Dies führt zu einer recht großvolumigen Anordnung bei hohen Anforderungen an die Qualität der verwendeten Objektive. In German patent DE 44 13 758 C2, published on September 17, 1998, FIGS . 4-7 show a possibility of obtaining interference fringes for shape measurement by means of a two-beam interferometer with roof edge reflectors through lateral shear of two coherent light beams. Elimination of the lateral shear results in an interference fringe field with few stripes. However, a beam splitter system must be used to eliminate the lateral shear. This leads to a rather large-volume arrangement with high demands on the quality of the lenses used.
Bei der herkömmlichen optischen 3D-Messung stellen diskontinuierliche Oberflä chen oft ein Problem dar. Beispielsweise können größere Absätze oder Stufen in der Oberfläche des Objektes zu einer Verletzung des Sampling-Theorems führen. Abhilfe schafft hier das Gray-Code-Verfahren, bei dem zunächst eine Folge von Binär-Bildern aufprojiziert wird und anschließend - besonders bei höheren Genauig keitsforderungen - Sinusgitter auf die Objektoberfläche abgebildet werden und die bekannte Phasenschiebemethode zur Anwendung kommt. Ein Beispiel stellt das Modulare optische 3D-Meßsystem opto TOP der Fa. Breuckmann GmbH in D-88709 Meersburg dar. Weiterhin ist das COMET-500-System der Fa. Steinbichler Opto technik GmbH in D-83115 Neubeuern zu nennen.In conventional optical 3D measurement, discontinuous surfaces are often a problem. For example, larger paragraphs or levels in cause a violation of the sampling theorem on the surface of the object. This is remedied by the Gray code method, in which a series of Binary images are projected on and then - especially at higher accuracy requirements - sinusoidal grids are mapped onto the object surface and the known phase shift method is used. This is an example Modular optical 3D measuring system opto TOP from Breuckmann GmbH in D-88709 Meersburg. Furthermore, the COMET-500 system from Steinbichler Opto technik GmbH in D-83115 Neubeuern.
Die Firma ABW in D-72636 Frickenhausen bietet programmierbare Linienprojekto ren mit bis zu 1280 Linien für das absolut messende Moire-Verfahren an. Projekto ren auf LCD-Basis arbeiten noch relativ langsam und der zu beobachtende Streifen kontrast auf dem Objekt ist schlechter als bei Projektoren mit Gitterstrukturen auf Glasplatten. Die Firma Gottfried Frankowski Meßtechnik in D-14513 Teltow bietet die Digitale Lichtprojektion auf der Basis von Mikrospiegeln, Digital Light Devices, auch als DMD bekannt, an. Zur Zeit können Gitterbilder mit einer Folgefrequenz von etwa 10 Hz erzeugt und eingelesen werden. Diese Frequenz ist jedoch für die Hochgeschwindigkeits-Bildaufnahme noch nicht ausreichend.The company ABW in D-72636 Frickenhausen offers programmable line projectors are available with up to 1280 lines for the absolutely measuring Moire method. Projecto LCD-based devices still work relatively slowly and the strip to be observed contrast on the object is worse than that of projectors with lattice structures Glass plates. The company Gottfried Frankowski Meßtechnik in D-14513 Teltow offers digital light projection based on micromirrors, digital light devices, also known as DMD. Grid images with a repetition rate of about 10 Hz are generated and read. However, this frequency is for the High-speed image acquisition is not yet sufficient.
Um eine hohe Schärfentiefe bei der Vermessung von tiefen Objekten zu erreichen, wird bei allen genannten Verfahren in der Regel mehr oder weniger stark abgeblen det, also meistens mit kleinen Objektivöffnungen, beispielsweise mit einer relativen Lichtstärke von 1 : 8, gearbeitet. Dies erfordert starke Lichtquellen, beispielsweise in Form von Blitzlampen oder starken Halogenlampen, oder es ist nur die Ausleuch tung vergleichsweise kleiner Felder möglich, beispielsweise 200 mm × 200 mm bis 500 mm × 500 mm.To achieve a high depth of field when measuring deep objects, will generally bleed to a greater or lesser extent in all of the methods mentioned det, usually with small lens openings, for example with a relative Luminous intensity of 1: 8, worked. This requires strong light sources, for example in Form of flash lamps or strong halogen lamps, or it is just the illumination comparatively small fields possible, for example 200 mm × 200 mm to 500 mm × 500 mm.
Auf dem 2. ABW-Workshop 3-D BV/TAE vom 25.-26.1.1996 wurde von R. Lampal zer, G. Häusler und Schielzeth auf den Vorteil einer großen Beleuchtungsapertur zur Verringerung des Speckle-Rauschens durch die Gewinnung räumlicher Inkohärenz hingewiesen.At the 2nd ABW workshop 3-D BV / TAE from January 25-26, 1996, R. Lampal zer, G. Häusler and Schielzeth on the advantage of a large lighting aperture Reduce speckle noise by gaining spatial incoherence pointed out.
Der Stand der Technik bei der Gewinnung von analogen 3D-Bildern basiert in der Regel auf dem Einsatz von zwei Kameras wie beim zweiäugigen Sehen. Dies wird nicht weiter betrachtet, da es hierbei um die Gewinnung von 3D-Daten in digitaler Form geht.The state of the art in the acquisition of analog 3D images is based on the Usually on the use of two cameras as with two-eyed vision. this will not considered further, since this involves the acquisition of 3D data in digital Shape goes.
In der Vergangenheit kam es durch die Verwendung von zwei Kameras zu Proble men mit der lateralen Genauigkeit bei der Generierung der 3D-Punktwolke. Neue Entwicklungen, beispielsweise von der Firma gom in D-38106 in Braunschweig, führ ten zu einer Serie von Sensoren auf der Basis der Projektion von unterschiedlichen Streifenmustern und der Erfassung mit zwei Kameras aus unterschiedlichen Blick winkeln. Von Nachteil sind jedoch die teilweise erheblichen Abmessungen des Meß systems. Deshalb ist bei der Forderung nach Miniaturisierung in der hochgenauen 3D-Meßtechnik die Ein-Kamera-Technik und die Ein-Projektor-Technik offenbar grundsätzlich von Vorteil.In the past, using two cameras caused problems with the lateral accuracy when generating the 3D point cloud. New Developments, for example from the company gom in D-38106 in Braunschweig, leading to a series of sensors based on the projection of different Stripe patterns and capturing with two cameras from different perspectives angle. However, the sometimes considerable dimensions of the measurement are disadvantageous systems. That is why the call for miniaturization is highly accurate 3D measurement technology, the one-camera technology and the one-projector technology apparently basically an advantage.
Ein neues Verfahren mit drei Kameras mit parallel angeordneten optischen Achsen und einem geeigneten Basisabstand löst das Problem der Erfassung der 3D-Szene durch die Auswertung stereoskopischer Bilder mittels Hochleistungsrechner, s. VDI-Nachrichten Nr. 21 vom 22. Mai 1998, Seite 15, "Reise in die strahlende Rui ne". Diese so gewonnenen 3D-Informationen werden zum Steuern eines Roboters, des Roboter "Pioneer", in der Tschernobyl-Ruine und zur 3D-Erfassung der bauli chen Gegebenheiten und des Umfeldes angewendet. Nur mit Hochleistungs- Rechentechnik ist eine echtzeitnahe 3D-Bildrekonstruktion möglich. Das Bauvolu men dieser Anordnung ist durch die drei Kameras vergleichsweise groß.A new process with three cameras with optical axes arranged in parallel and a suitable base distance solves the problem of capturing the 3D scene by evaluating stereoscopic images using a high-performance computer, s. VDI News No. 21 of May 22, 1998, page 15, "Journey into the Radiant Rui ne ". This 3D information is used to control a robot, of the robot "Pioneer", in the Chernobyl ruin and for 3D acquisition of the bauli conditions and the environment. Only with high performance Computing technology enables real-time 3D image reconstruction. The Bauvolu This arrangement is comparatively large due to the three cameras.
Im Tagungsband "Optische Formerfassung" GMA-Bericht 30, DGZfP-VDI/VDE- GMA Fachtagung 28.129. April 1997, Langen, Bundesrepublik Deutschland, S. 199-209, wird von den Autoren, R. Schwarte, H. Heinol, z. Xu, J. Olk und W. Tai da rauf hingewiesen, daß für die schnelle Formerfassung im ca. 20 cm- bis 50 m- Bereich kein präzises, flexibles und kostengünstiges Verfahren zur Verfügung steht. Diese Auffassung gilt besonders für den Bereich von 20 cm bis 2 m, da hier auch die Laufzeitverfahren nur eine Tiefen-Meßgenauigkeit von 2 mm bis 20 mm aufwei sen. Die in o. g. genannter Veröffentlichung dargestellte technische Lösung auf der Basis eines Photomischdetektors PMD wird als gegenwärtig noch nicht geeignet an gesehen, im genannten Nahbereich eine hohe Tiefen-Genauigkeit zu realisieren. Auch wird der technische Aufwand z. Z. noch als recht hoch eingeschätzt.In the conference proceedings "Optical shape detection" GMA report 30, DGZfP-VDI / VDE- GMA conference 28.129. April 1997, Langen, Federal Republic of Germany, p. 199-209, is by the authors, R. Schwarte, H. Heinol, z. Xu, J. Olk and W. Tai da pointed out that for the rapid shape detection in the approx. 20 cm to 50 m No precise, flexible and cost-effective procedure is available. This view applies particularly to the area from 20 cm to 2 m, since here too the runtime methods only have a depth measurement accuracy of 2 mm to 20 mm sen. The above mentioned technical solution presented on the The basis of a photonic mixer detector PMD is currently not considered suitable seen to realize a high depth accuracy in the mentioned close range. The technical effort z. Currently rated as quite high.
Im o. g. Tagungsband "Optische Formerfassung" wird auf den Seiten 211-222, von den Autoren W. Schreiber, V. Kirchner und G. Notni das Konzept für ein selbstein messendes, optisches 3D-Meßsystem auf der Basis strukturierter Beleuchtung dar gestellt. Es gestattet, ausgehend von der Erfahrungen in der Photogrammetrie, die gleichzeitige Bestimmung von Systemparametern und Koordinaten aus den Meß werten. Es wird eine außerordentlich hohe Meßgenauigkeit für die Objektkoordina ten mit einem relativen Fehler von bis zu 10-5 erreicht. Dazu muß jedoch eine mehr malige Meßwertaufnahme erfolgen, wobei Gray-Code-Sequenzen und Streifen mit sinusähnlichem Profil in Verbindung mit Phasenschiebechniken eingesetzt werden. Dies bedeutet einen erheblichen Zeitaufwand für die Durchführung der Messung aufgrund des notwendigen Einsatzes mehrerer Gitter in einer Meßfolge. Auch muß das Objekt, aufeinanderfolgend von mehreren Projektoren, in unterschiedlichen Positionen oder vom gleichen Projektor aus in verschiedenen Richtungen beleuchtet werden. Auch dies ermöglicht keine hochdynamische Messung oder eine echtzeit nahe 3D-Erfassung von Objekten.In the above-mentioned conference volume "Optical shape detection" on pages 211-222, by the authors W. Schreiber, V. Kirchner and G. Notni, the concept for a self-measuring, optical 3D measuring system based on structured lighting is presented. Based on the experience in photogrammetry, it allows the simultaneous determination of system parameters and coordinates from the measured values. An extraordinarily high measuring accuracy for the object coordinates is achieved with a relative error of up to 10 -5 . To do this, however, the measured value must be recorded several times, using Gray code sequences and strips with a sinusoidal profile in conjunction with phase shifting techniques. This means that a considerable amount of time is required to carry out the measurement due to the need to use several gratings in one measurement sequence. The object must also be illuminated in succession from several projectors in different positions or from the same projector in different directions. This also does not allow highly dynamic measurement or real-time 3D detection of objects.
Die Grundzüge dieses neuen und sehr vorteilhaften optischen Verfahrens sind unter dem Titel "Optische Dreikoordinatenmessung mit strukturierter Beleuchtung" in Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 321-329 von W. Schreiber, J. Gerber und R. Kowarschik dargestellt. Der Referenzpunkt für das Koordinatensy stem liegt dabei im Bereich des Objektes.The main features of this new and very advantageous optical process are below the title "Optical three coordinate measurement with structured lighting" in Technical measuring, 62nd year, issue 9/1995, pp. 321-329 by W. Schreiber, J. Gerber and R. Kowarschik. The reference point for the coordinate system stem lies in the area of the object.
In Bild 2 dieser letztgenannten Veröffentlichung wird eine Anordnung mit parallelen Achsen für das Beleuchtungs- und das Abbildungsobjektiv und einer zweiseitig zen tralperspektivischen Abbildung dargestellt.Figure 2 of this latter publication shows an arrangement with parallel Axes for the lighting and imaging lens and a two-sided zen illustrated perspective view.
Jedoch läßt sich abgeschätzten, daß sich hierbei aufgrund des angegebenen Appa rates und des mathematischen Modells die Umsetzung der Auswerte-Algorithmen in straight forward-Algorithmen sehr schwierig gestaltet, so daß eine Echtzeit- Auswertung mittels spezieller Hochgeschwindigkeits-Prozessoren auf diesem Weg kaum möglich ist. However, it can be estimated that due to the specified Appa rates and the mathematical model the implementation of the evaluation algorithms in straight forward algorithms very difficult, so that a real-time Evaluation using special high-speed processors in this way is hardly possible.
Da die Kamera und der Projektor räumlich getrennt sind, ist die Realisierung eines kompaktes 3D-Meßmoduls nicht möglich.Since the camera and the projector are spatially separated, the realization is one compact 3D measuring module not possible.
Die Daimler-Benz Aerospace stellte 1997 die 2. Generation einer Laserkamera auf der Basis der Laufzeitmessung des Lichtes dar. Die Meßgenauigkeit liegt nur bei et wa 2π des Meßbereiches und wird damit für meßtechnische Applikationen im Nah bereich als ungeeignet angesehen. Die Gewinnung der Farbinformation von der Szene gilt hierbei als praktisch ausgeschlossen.In 1997, Daimler-Benz Aerospace installed the 2nd generation of a laser camera the basis of the time-of-flight measurement of the light. The measurement accuracy is only at et wa 2π of the measuring range and is thus for metrological applications in the near area considered unsuitable. Obtaining the color information from the Scene is considered practically excluded.
In der Erfindungsbeschreibung P 197 49 974.0 "Verfahren und Apparat zur Erzeu gung einer 3D-Punktwolke für die Topometrie oder die 3D-Vision für Multimedia Applikationen" der Autoren K. Körner und L. Nyársik wird eine Lösung für die Hochgeschwindigkeits-Bildaufnahme angegeben. Jedoch wird nicht im Einzelnen dargestellt, welche speziellen Anordnungsmerkmale für eine 3D-Aufnahme- Anordnung und welche Verfahrensschritte für ein 3D-Aufnahme-Verfahren einzuhal ten sind.In the description of the invention P 197 49 974.0 "Process and apparatus for generating 3D point cloud for topometry or 3D vision for multimedia Applications "by the authors K. Körner and L. Nyársik will be a solution for the High-speed image acquisition specified. However, not in detail shows which special arrangement features for a 3D recording Arrangement and which process steps to follow for a 3D recording process are.
In der Arbeit "General approach for the description of optical 3D-measuring system" der Autoren P. Andrä, W. Jüptner, W. Kebbel und W. Osten in SPIE Vol. 3174, S. 207-215 wird eine allgemeine Beschreibung optischer Methoden für die 3D-Koordinatenmessung gegeben. Die Ableitung von geeigneten Algorithmen für die Hochgeschwindigkeitsauswertung von Bildserien für die 3D-Messung ist hierbei nicht gegeben, stellte aber auch nicht das Ziel dieser Arbeit dar.In the thesis "General approach for the description of optical 3D-measuring system" by the authors P. Andrä, W. Jüptner, W. Kebbel and W. Osten in SPIE Vol. 3174, S. 207-215 is a general description of optical methods for the Given 3D coordinate measurement. Deriving suitable algorithms for Here is the high-speed evaluation of image series for 3D measurement not given, but was also not the goal of this work.
Eine 3D-Echtzeitkamera wurde im Poster P 28 der 99. Tagung der Deutschen Ge sellschaft für angewandte Optik vom 2.6 bis 6.6.1998 in Bad Nenndorf von G. Bohn, L. Cloutot, G. Häusler, M. Hernandez, C. Horneber, R. Lampalzer, S. Seeger unter Einsatz eines ferroelektrischen Displays vorgestellt. Dieses ferroelektrische Display ist in 0,1 ms umschaltbar und wird in Verbindung mit einer astigmatischen Abbildung zur Generierung von sinusförmigen Streifen fester Ortsfrequenz verwendet. Die Meßzeit des Prototypen beträgt zur Zeit 320 ms. Eine absolute Kodierung des Rau mes mittels strukturiertem Licht ist damit bisher jedoch nicht möglich. Die erreichba re Genauigkeit ist gegenwärtig auf etwa 1/2000 des Meßbereiches begrenzt.A 3D real-time camera was featured in Poster P 28 of the 99th conference of the German Ge society for applied optics from 2.6 to 6.6.1998 in Bad Nenndorf by G. Bohn, L. Cloutot, G. Häusler, M. Hernandez, C. Horneber, R. Lampalzer, S. Seeger below Use of a ferroelectric display presented. This ferroelectric display can be switched in 0.1 ms and is used in conjunction with an astigmatic image used to generate sinusoidal strips of fixed spatial frequency. The Measuring time of the prototype is currently 320 ms. An absolute coding of the Rau So far, however, mes using structured light has not been possible. The reachable Re accuracy is currently limited to about 1/2000 of the measuring range.
Die Erfindung löst die Aufgabe der flächenhaften Prüfung der 3D-Gestalt techni scher und natürlicher Oberflächen von Objekten im Raum und Szenen mit einem absoluten Bezug zur 3D-Aufnahme-Anordnung. Die Gestalt von Objekten im Raum und Szenen kann mit hoher Meßgenauigkeit in der Tiefe und mit hoher Geschwin digkeit gemessen werden.The invention solves the task of areal inspection of the 3D shape techni and natural surfaces of objects in space and scenes with one absolute reference to the 3D recording arrangement. The shape of objects in space and scenes can be measured with high accuracy in depth and with high speed be measured.
Weiterhin wird die benötigte Lichtleistung für die Ausleuchtung der Szene zum Teil sehr stark reduziert, bzw. es kann die Bildaufnahmefrequenz bei hoher Lichtleistung erhöht werden. Durch das Auswerteverfahren wird eine Auflösung auf bis zu 1/2000 der effektiven Wellenlänge in der Tiefe erreichbar. Dies ist aber nicht in jedem Fall sinnvoll und möglich. Furthermore, the light output required for illuminating the scene is partially very much reduced, or it can reduce the image recording frequency with high light output increase. The evaluation process results in a resolution of up to 1/2000 the effective wavelength in depth. However, this is not always the case sensible and possible.
Technisch wird die Prüfung der Oberflächengestalt von Werkstücken des Maschi nenbaus, des Fahrzeugbaus und auch der Luft- und Raumfahrt weiter verbessert. Damit ist die Applikation in der automatisierten Produktion, in der Robotik, im Bau wesen, in der Medizin, beispielsweise bei der geometrischen Vermessung von Men schen, biologischen Objekten und auch im künstlerischen Bereich bei Plastiken oder Stuckwerken gegeben.Technically, the examination of the surface shape of workpieces of the machine construction, vehicle construction and also aerospace. The application is now in automated production, in robotics, under construction beings, in medicine, for example in the geometric measurement of men human, biological objects and also in the artistic field of plastics or Given stucco.
Weiterhin wird die Aufgabe der Hohlraum- und der Innenraum-Inspektion gelöst. La byrinthe in unterschiedlicher Größe und auch verstrahlte oder kontaminierte Innen räume, die dem Menschen aufgrund von ernsthaften gesundheitlichen Gefahren oder aufgrund der geringen Abmessungen nicht zugänglich sind, können durch Ro boter begangen werden, die mit einer oder mehreren 3D-Aufnahme-Anordnungen ausgerüstet sind. Dabei kann es sich um rollende, schreitende, saugende, schwim mende, fliegende, kriechende und krabbelnde Roboter handeln. Auch ist der Unter wassereinsatz für die Schiffswrack-Inspektion mit der 3D-Aufnahme-Anordnung grundsätzlich möglich.Furthermore, the task of cavity and interior inspection is solved. La byrinthe in different sizes and also contaminated or contaminated inside spaces to humans due to serious health risks or are not accessible due to the small dimensions, can by Ro bots are committed using one or more 3D imaging arrangements are equipped. It can be rolling, striding, sucking, swimming Acting, flying, crawling and crawling robots. Also is the sub Use of water for shipwreck inspection with the 3D image arrangement at least possible.
Auch die elektronische Unterstützung von sehbehinderten Menschen zur Orientie rung im Raum ist mit einer miniaturisierten 3D-Aufnahme-Anordnung möglich. Bei Recyclingprozessen ist eine Möglichkeit der automatisierten Demontage von Altge räten, alten Karosserien sowie die Trennung von Abfallprodukten auch in einer ge fährlichen Umgebung gegeben.Also the electronic support of visually impaired people for orientation Space in the room is possible with a miniaturized 3D recording arrangement. At Recycling processes is one way of automatically dismantling Altge councils, old bodies and the separation of waste products also in a ge given dangerous environment.
Das unterschiedliche Reflexionsvermögen von technischen Oberflächen, welches beispielsweise durch eine ausgeprägte Textur verursacht wird, kann kompensiert werden.The different reflectivity of technical surfaces, which for example caused by a pronounced texture can be compensated become.
Die Erfindung ermöglicht die schnelle Erfassung und Prüfung der 3D-Gestalt von Körpern und Szenen mit großer Tiefenausdehnung, vorzugsweise mit Abmessungen im Bereich oberhalb eines Millimeters. Durch die Beleuchtung des Objektes unter ei nem vergleichsweise geringen Triangulationswinkel, beispielsweise um 10° oder kleiner, können auch glatte Oberflächen mit einem geringen Streuvermögen ohne Präparierung der Oberfläche - wie in der Praxis heute oft noch üblich - aufgenom men werden.The invention enables the rapid acquisition and testing of the 3D shape of Bodies and scenes with great depth, preferably with dimensions in the area above one millimeter. By lighting the object under egg nem comparatively small triangulation angle, for example by 10 ° or smaller, can also smooth surfaces with a low spreading capacity without Preparation of the surface - as is often still the case in practice today - recorded men.
Außerdem können nichttechnische Objekte in ihrer räumlichen Struktur erfaßt wer den, wobei der Raum, in welchem sich die Objekte befinden, in unterschiedlichen Tiefen zeitlich nacheinander strukturiert beleuchtet wird. Bei entsprechend hoher Dy namik der für die 3D-Aufnahme eingesetzten Komponenten können auch sich bewe gende Objekte und Szenen, einschließlich Personen und Tiere, aufgenommen wer den. Die Echtzeitfähigkeit des Verfahrens ist grundsätzlich gegeben. Dabei sind grundsätzlich mehrere 3D-Aufnahme-Anordnungen einsetzbar, und es kann die Far be der Objektpunkte bei Verwendung von farbtüchtigen Bildaufnehmern verarbeitet werden.In addition, the spatial structure of non-technical objects can be captured the, the space in which the objects are located in different The depths are illuminated in a structured manner one after the other. With a correspondingly high Dy The namics of the components used for 3D imaging can also be used objects and scenes including people and animals the. The real-time capability of the process is basically given. Are there basically several 3D recording arrangements can be used, and the color be processed the object points when using color image sensors become.
Die bei der Erfassung räumlicher Strukturen störenden Lichtschatten aufgrund eines relativ großen Triangulationswinkels von 30° bis beispielsweise 60° werden weitge hend vermieden. The shadows of light that interfere with the detection of spatial structures due to a Relatively large triangulation angles from 30 ° to 60 °, for example, are widely used avoided.
Eine weitere Verbesserung stellt die deutliche Erhöhung der Auswertegeschwindig keit bei der 3D-Erfassung dar. Es besteht die reale technische Möglichkeit, die 3D-Punktwolke des Objektes oder der Szene im Video-Takt zur Verfügung zu stellen.A further improvement is the significant increase in the evaluation speed 3D acquisition. There is a real technical possibility that 3D point cloud of the object or scene is available in video clock put.
Der in seiner 3D-Form zu erfassende Körper oder die gesamte Szene stehen vor zugsweise senkrecht zur optischen Achse des Aufnahmeobjektivs. Das gestattet, aufgrund der optimalen Abbildungsbedingungen eine hohe laterale Auflösung und den Einsatz tomographischer oder tiefenscannender Verfahren. Die 3D-Punktwolke besitzt einen absoluten geometrischen Bezug zu einem Nullpunkt der 3D-Aufnahme-Anordnung.The body to be captured in its 3D form or the entire scene are shown preferably perpendicular to the optical axis of the taking lens. That allows due to the optimal imaging conditions a high lateral resolution and the use of tomographic or deep-scanning methods. The 3D point cloud has an absolute geometric reference to a zero point 3D recording arrangement.
Die Anwendung der Erfindung ermöglicht die nahezu vollständige Ausnutzung der hohen Leistungsfähigkeit optischer Abbildungsysteme für die Prüfung der 3D-Oberflächengestalt.The application of the invention enables the almost complete utilization of the high performance optical imaging systems for testing the 3D surface design.
Die Realisierung einer hohen Beleuchtungsapertur sichert ein geringes Speckle- Rauschen in den Pixeln der Kamera.The realization of a high lighting aperture ensures a low speckle Noise in the pixels of the camera.
Andererseits können komplette Szenen mit bewegten Objekten echtzeitnah als 3D-Szenen aufgenommen werden. Die Grenze für das erfaßbare Volumen stellt die verfügbare Lichtenergie, die Lichtstärke der verwendeten Objektive sowie die photo metrische Empfindlichkeit der verwendeten Bildempfänger dar. Der in der Tiefe er faßbare Raum kann durchaus bis zu 20 m betragen. Die Begrenzung erfolgt letztlich durch das Signal-Rausch-Verhältnis im Lichtempfänger bzw. Bildempfänger.On the other hand, complete scenes with moving objects can be viewed as real-time 3D scenes can be recorded. The limit for the detectable volume is the available light energy, the light intensity of the lenses used and the photo represents the metric sensitivity of the image receivers used tangible space can be up to 20 m. The limit is ultimately by the signal-to-noise ratio in the light receiver or image receiver.
Es werden die Grundzüge des Verfahrens und der Anordnung beschrieben. Mittels einer transmissiven oder reflektierenden, gerasterte Struktur mit mehreren Maxima und Minima der Transmission oder Reflexion und einer Lichtquelle wird eine struktu rierte, leuchtende Fläche mit lokalen Extrema der Leuchtdichte erzeugt. Diese gera sterte Struktur wird im weiteren als Sender-Array bezeichnet. Dem Sender-Array ist mindestens ein möglichst hochgeöffnetes Beleuchtungsobjektiv mit einer positiven Brennweite zur Abbildung dieses Sender-Arrays nachgeordnet. So entsteht durch die Abbildung des Sender-Arrays im Raum des Objektes auf dessen Oberfläche eine strukturierte Beleuchtung.The basic features of the method and the arrangement are described. Means a transmissive or reflective, gridded structure with several maxima and minima of transmission or reflection and a light source becomes a struktu generated, luminous surface with local extremes of luminance. This straight Sterte structure is hereinafter referred to as a transmitter array. The transmitter array is at least one lighting lens that is as open as possible with a positive one Subordinate focal length for mapping this transmitter array. So created by the Image of the transmitter array in the space of the object on its surface structured lighting.
Grundsätzlich kann das Sender-Array auch selbstleuchtend sein und lokale Extrema der Leuchtdichte aufweisen.In principle, the transmitter array can also be self-luminous and local extremes the luminance.
Zu dem erfinderischem Zweck ist bei der Abbildung des Sender-Arrays in die Tiefe des Raumes des Objektes eine möglichst geringe Ausdehnung des Schärfeberei ches realisiert, so daß die räumlich strukturierte Beleuchtung sich mehr in einem scheibenförmigen Volumen befindet. Zum Beleuchtungsobjektiv ist mindestens ein Aufnahmeobjektiv zur Abbildung des Objektes oder der Szenen angeordnet. Beleuchtungs- und Aufnahmeobjektiv sind vorzugsweise von gleicher Bauart und weisen somit auch die gleiche Brennweite auf. Auch fallen die Brennebenen der bei den Objektive im Raum des Objektes vorzugsweise zusammen und die beiden Objektive sind vorzugsweise in geringem Abstand voneinander angeordnet mit vor zugsweise parallelen Achsen. Gegebenfalls können die Linsen sogar in einem ge meinsamen Gehäuse untergebracht sein.For the inventive purpose, the transmitter array is depicted in depth the area of the object is as small as possible ches realized so that the spatially structured lighting is more in one disc-shaped volume is located. There is at least one for the lighting lens Shooting lens arranged to depict the object or the scenes. Illumination and shooting lens are preferably of the same type and thus have the same focal length. The focal planes also fall the lenses in the space of the object preferably together and the two Lenses are preferably arranged at a short distance from one another with front preferably parallel axes. If necessary, the lenses can even in a ge shared housing.
Die Objektive weisen vorteilhafterweise ein großes Bildfeld auf. Die Korrektur in der Tiefe sollte in einem großen Tiefenbereich gut sein. Durch die Koinzidenz der Brennebenen im Raum des Objektes können die Objektive stets auf die gleiche Objekt- und Bildebene eingestellt werden und bilden dann durch den geringen Ab stand der Objektivachsen in einem Bereich, vorzugsweise mit einem Abstand deut lich unterhalb der einhundertfachen Brennweite des Beleuchtungsobjektivs - typisch ist das dreifache bis sechsfache - zumindest einen identischen Teil des Objektfeldes im Raum des Objektes, in der Regel verkleinernd, in den Raum der Arrays ab. In diesem Raum bestehen getrennte Bildfelder, jedoch in einer vorzugsweise gemein samen Ebene, die vorzugsweise senkrecht auf der optischen Achse steht. Die Schärfeflächen der beiden Objektive im Raum des Objektes fallen vorzugsweise in einem möglichst großen Bereich zusammen.The lenses advantageously have a large image field. The correction in the Depth should be good in a wide range of depths. Due to the coincidence of the Focal planes in the space of the object, the lenses can always be the same Object and image levels are set and then form due to the low Ab the lens axes stood in one area, preferably at a distance Lich below the hundredfold focal length of the lighting lens - typical is three to six times - at least an identical part of the object field in the space of the object, usually scaling down, into the space of the arrays. In There are separate picture fields in this room, but preferably in a common one seed plane, which is preferably perpendicular to the optical axis. The Focus areas of the two lenses in the space of the object preferably fall into the largest possible area.
Das Abbildungsobjektiv weist im Raum der Arrays einen vorzugsweise telezentri schen Strahlengang im strengen Sinne auf, d. h. die Austrittspupille liegt sehr weit vom Objektiv entfernt, beispielsweise um 100 m. Das Beleuchtungsobjektiv weist im Raum der Arrays vorzugsweise einen ebenfalls gut korrigierten telezentrischen Strahlengang auf. Es ist jedoch auch grundsätzlich möglich, daß dieses Beleuch tungsobjektiv im Raum der Arrays einen parallelen Strahlengang mit einer dezen trierten Eintrittspupille aufweist.The imaging lens has a preferably telecentric in the space of the arrays beam path in the strict sense, d. H. the exit pupil is very far away from the lens, for example by 100 m. The lighting lens points in Space of the arrays preferably a likewise well corrected telecentric Beam path on. However, it is also possible in principle that this lighting lens in the space of the arrays a parallel beam path with a decent entry pupil.
In der Bildebene des Aufnahmeobjektivs ist ein weiteres Array, das Empfänger- Array angeordnet. Auch dieses Array befindet sich vorzugsweise in einem telezentri schen Strahlengang. Dieses Empfänger-Array kann ein gerasterter Bildempfänger, beispielsweise eine Empfänger-Matrix oder aber auch ein mikrooptisches Array sein. Das mikrooptische Array in der Bildebene des Beleuchtungsobjektivs ist vorzugswei se ein Mikrolinsen-Array aus diffraktiven oder refraktiven Elementen.In the image plane of the taking lens there is another array, the receiver Array arranged. This array is also preferably located in a telecentri beam path. This receiver array can be a rasterized image receiver, for example, a receiver matrix or a micro-optical array. The micro-optical array in the image plane of the lighting lens is preferably two se a microlens array of diffractive or refractive elements.
Die Telezentrie des Abbildungsobjektiv im Raum der Arrays sichert, daß beim Bewe gen des Empfänger-Arrays parallel zur Achse des Abbildungsobjektivs, also in der üblichen Notation in z-Richtung - hier die zA-Richtung, die Abbildungsstrahlen eine feste Position zu den Elementen des Empfänger-Arrays beibehalten, also die Abbil dungsstrahlen nicht lateral auswandern. Im Raum des Objektes weisen das Beleuchtungs- und das Abbildungsobjektiv dagegen einen vorzugsweise zentralper spektivischen Strahlengang auf, um einen großen Raumbereich erfassen zu können.The telecentricity of the imaging lens in the space of the arrays ensures that when the receiver array is moved parallel to the axis of the imaging lens, i.e. in the usual notation in the z direction - here the z A direction, the imaging rays have a fixed position to the elements of the Maintain receiver arrays, i.e. do not laterally migrate the imaging beams. In contrast, in the space of the object, the illumination and the imaging lens have a preferably central perspective beam path in order to be able to capture a large spatial area.
Im Fall der Verwendung eines Mikrolinsen-Arrays im Abbildungsstrahlengang als Empfänger-Array sind dem Mikrolinsen-Array weitere Komponenten, wie ein Bild empfänger, nachgeordnet.In the case of using a microlens array in the imaging beam path as Receiver arrays are further components of the microlens array, such as an image recipient, subordinate.
Durch das gemeinsame Bewegen des Sender-Arrays und des Empfänger-Arrays mittels eines Bewegungs-Systems, parallel zur optischen Achsen des Beleuchtungs objektivs, also in der zA-Richtung, werden nach und nach alle Bereiche des Objektes oder der Szene in der Tiefe in der jeweiligen Schärfefläche beleuchtet und abgebil det. Dabei ist das Bewegungssystem vorzugsweise als translatorisch arbeitendes Bewegungssystem ausgeführt. Es entsteht eine strukturierte Beleuchtung in jeweils genau der Ebene des Objektes oder der Szene durch die Abbildung des Sender- Arrays, welche durch das Aufnahmeobjektiv scharf auf das Empfänger-Array abge bildet wird. Durch die Anpassung der Leuchtdichte der Lichtquelle an die jeweilige Entfernung der Schärfefläche von der 3D-Aufnahme-Anordnung wird die bekannte Abnahme der Beleuchtungsstärke auf der Objektoberfläche in Abhängigkeit von de ren Entfernung ausgeglichen.By moving the transmitter array and the receiver array together by means of a movement system, parallel to the optical axes of the lighting objective, i.e. in the z A direction, all areas of the object or scene are gradually reduced in depth the respective focus area is illuminated and displayed. The movement system is preferably designed as a translatory movement system. Structured lighting is created in each case in exactly the plane of the object or the scene by imaging the transmitter array, which is sharply imaged by the recording lens on the receiver array. The known decrease in the illuminance on the object surface is compensated for as a function of its distance by adapting the luminance of the light source to the respective distance of the focus area from the 3D recording arrangement.
Dabei wird das folgende Bewegungsregime für das Sender-Array und das Empfänger-Array realisiert: Die Beträge der Bewegung der beiden Arrays parallel zur optischen Achse des Beleuchtungs- und des Abbildungsobjektives, die zA-Rich tung, sind bei einem Beleuchtungs- und Aufnahmeobjektiv mit gleicher Brennweite gleich.The following movement regime is implemented for the transmitter array and the receiver array: The amounts of movement of the two arrays parallel to the optical axis of the illumination and imaging lens, the z A direction, are included in an illumination and recording lens same focal length the same.
Das Sender-Array führt mittels einer Linearführung zusätzlich und vorzugsweise zeit gleich zur Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs eine laterale Bewegung aus, also senkrecht zur optischen Achse des Beleuchtungsobjektivs.The transmitter array additionally and preferably guides time by means of a linear guide equal to the movement parallel to the optical axis of the lighting lens lateral movement, that is perpendicular to the optical axis of the Lighting lens.
Bei einem elektronisch steuerbaren Array erfolgt die laterale Verschiebung der Ele mente gleicher Leuchtdichte, bzw. die Verschiebung der Orte der lokalen Extrema der Leuchtdichte vorzugsweise zeitgleich zu der Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs durch eine elektronische Steuerung der Transmis sion, der Reflexion - oder der Leuchtdichte bei einem selbstleuchtenden Array - je weils in den Elementen des Arrays. Auf dem elektronisch steuerbaren Gitter werden also die lokalen Extrema der Leuchtdichte durch lokale Extrema der Transmission, der Reflexion oder durch eine direkte Steuerung der Leuchtdichte bei einem selbst leuchtenden Array erzeugt.In the case of an electronically controllable array, the ele are shifted laterally elements of the same luminance, or the displacement of the locations of the local extremes the luminance preferably at the same time as the movement parallel to the optical Axis of the lighting lens through electronic control of the transmis sion, the reflection - or the luminance with a self-illuminating array - each because in the elements of the array. Be on the electronically controllable grid the local extrema of the luminance by local extrema of the transmission, reflection or by directly controlling the luminance of yourself generated luminous array.
Für die Gitterelemente oder die Elemente gleicher Leuchtdichte bzw. die Orte der lokalen Extrema der Leuchtdichte des Sender-Arrays bzw. auch der Orte gleicher Phase der Leuchtdichtverteilung wird so eine lineare Bewegung erzeugt, die parallel zu einer Geraden gA ausgerichtet ist. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Raum der Arrays schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Raum der Arrays und Abstand des Brennpunktes des Abbildungsobjektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs, aufweist, wobei dieser An stieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungs objektivs bezogen ist, die beispielsweise in dessen Brennebene im Raum der Arrays liegt.For the grid elements or the elements of the same luminance or the locations of the local extremes of the luminance of the transmitter array or also the locations of the same phase of the luminance distribution, a linear movement is thus generated which is aligned parallel to a straight line g A. This straight line g A is defined such that it always intersects the focal point of the illumination lens in the space of the arrays and the rise, defined as the quotient of the focal length of the illumination lens in the space of the arrays and the distance of the focal point of the imaging lens in the space of the object from the axis of the illumination lens , has, to which the straight line g A is based on an axis perpendicular to the axis of the illumination objective, which lies for example in its focal plane in the space of the arrays.
Im Fall der parallelen Lage der beiden Achsen von Beleuchtungs- und Abbildungs objektiv entspricht der Abstand der beiden Achsen von Beleuchtungs- und Abbil dungsobjektiv selbstverständlich dem Abstand des Brennpunktes des Abbildungsob jektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs.In the case of the parallel position of the two axes of illumination and imaging objectively, the distance between the two axes corresponds to the lighting and image The objective of course is the distance of the focal point of the image object jective in the space of the object from the axis of the lighting lens.
Die Gerade gA schneidet - bei einer gegebenen Anordnung mit zwei parallelen Ach sen von Beleuchtungs- und Abbildungsobjektiv und zusammenfallenden Brenn- und Hauptebenen der beiden Objektive - stets sowohl den Brennpunkt des Beleuch tungsobjektivs auf der Seite des Sender-Arrays als auch auf der gleichen Seite des Arrays den Hauptpunkt des Abbildungsobjektivs. Punkte entlang dieser Geraden werden entsprechend der bekannten Scheimpflugbedingung in diesem Fall auf eine zur Objektivachse des Beleuchtungsobjektivs parallelen Gerade gO abgebildet.The straight line g A - for a given arrangement with two parallel axes of the illumination and imaging lens and coincident focal and main planes of the two lenses - always intersects both the focal point of the lighting lens on the side of the transmitter array and on the same side the main point of the imaging lens. In this case, points along this straight line are mapped according to the known Scheimpflug condition onto a straight line g O parallel to the objective axis of the illumination objective.
Die Bilder der zur Geraden gA parallelen Geraden, welche die Orte der Elemente des Sender-Arrays enthalten, bilden im Raum des Objektes mit der Geraden gO ein Geradenbüschel, wobei der Schnittpunkt aller Geraden dieses Büschels bei der be schriebenen Anordnung stets im Brennpunkt des Abbildungsobjektivs im Raum des Objektes liegen soll. Gleichzeitig schneiden alle Abbildungsstrahlen des Abbildungs objektivs bei Telezentrie im Raum der Arrays ebenfalls den Brennpunkt des Abbil dungsobjektiv im Raum des Objektes und bilden so ein Strahlenbüschel. Die Gera den des Geradenbüschels und die Strahlen des Strahlenbüschels koinzidieren. So detektieren, bei einer achssenkrechten Objektoberfläche im Raum der Arrays und einer Bewegung des Sender-Arrays in Richtung der Geraden gA die zu den jeweili gen Abbildungsstrahlen gehörenden Bildpunkte auf dem Empfänger-Array jeweils den gleichen Betrag der Phasenverschiebung. Diese Phasenverschiebung ent spricht der Verschiebung der Elemente des Sender-Arrays oder der Verschiebung der Leuchtdichteverteilung auf dem Sender-Array. Ein paralleles Verschieben dieser Objektoberfläche führt zum gleichen Betrag der Phasenverschiebung in den Signa len, die in allen Bildpunkten detektiert werden können. Dies bedeutet, daß die Tiefenempfindlichkeit der beschriebenen 3D-Aufnahme-Anordnung in einer achs senkrechten Ebene im Raum des Objektes eine Konstante ist, also keine laterale Abhängigkeit aufweist. Die Tiefenempfindlichkeit kann durch die effektive Wellenlän ge der 3D-Aufnahme-Anordnung beschrieben werden. Die effektive Wellenlänge wird hier als der Betrag der Verschiebung Δz2π eines Objektpunktes auf einem Abbil dungsstrahl definiert, bei dem sich die Phase genau um 2π im selben Abbildungs strahl verändert hat, mit ZOB als der zur Achse des Beleuchtungsobjektivs parallelen Koordinate im Raum des Objektes.The images of the straight lines parallel to the straight line g A , which contain the locations of the elements of the transmitter array, form a bundle of straight lines in the space of the object with the straight line g O , the intersection of all straight lines of this bundle always being at the focal point of the arrangement described Imaging lens should be in the space of the object. At the same time, all imaging rays of the imaging lens in telecentricity in the space of the arrays also intersect the focal point of the imaging lens in the space of the object and thus form a bundle of rays. The lines of the bundle of straight lines and the rays of the bundle of rays coincide. Thus, with an object surface perpendicular to the axis in the area of the arrays and a movement of the transmitter array in the direction of the straight line g A, the pixels belonging to the respective imaging beams on the receiver array each detect the same amount of phase shift. This phase shift corresponds to the shift in the elements of the transmitter array or the shift in the luminance distribution on the transmitter array. A parallel shift of this object surface leads to the same amount of phase shift in the signals, which can be detected in all pixels. This means that the depth sensitivity of the described 3D recording arrangement in a plane perpendicular to the axis in the space of the object is a constant, that is to say has no lateral dependency. The depth sensitivity can be described by the effective wavelength of the 3D recording arrangement. The effective wavelength is defined here as the amount of displacement Δz 2π of an object point on an imaging beam, in which the phase has changed by exactly 2π in the same imaging beam, with Z OB as the coordinate in the space of the object that is parallel to the axis of the illumination lens .
Auf der Grundlage der in einer achssenkrechten Ebene konstanten Tiefenempfind lichkeit wird die Weiterverarbeitung von errechneten Phasenwerten zur 3D-Punktwolke stark vereinfacht. In diesem Fall können die Berechnungen beson ders schnell erfolgen. Es können straight formrard-Algorithmen zur Anwendung kom men. Dies stellt einen großen Vorteil der beschriebenen 3D-Aufnahme-Anordnung dar.On the basis of the depth sensitivity that is constant in a plane perpendicular to the axis the further processing of calculated phase values 3D point cloud greatly simplified. In this case, the calculations can done quickly. Straight formrard algorithms can be used men. This represents a great advantage of the described 3D recording arrangement represents.
Eine Anordnung mit zwei starr angeordneten Objektiven ist technisch mit großer Ge nauigkeit bezüglich der Parallelität der Achsen und der Lage der Brennebenen reali sierbar und auch vergleichsweise wirtschaftlich herstellbar und wird deshalb favorisiert.An arrangement with two rigidly arranged lenses is technically very large accuracy regarding the parallelism of the axes and the position of the focal planes reali sable and also comparatively economical to produce and is therefore favors.
Die 3D-Aufnahme-Anordnung kann jedoch auch wie folgt aufgebaut sein: Dem Be leuchtungsobjektiv ist ein Sender-Array zum Zweck der Abbildung zugeordnet, wel ches schiefwinklig zur Achse des Beleuchtungsobjektiv bewegbar ist. Die geradlinige Bewegungsrichtung des Arrays definiert die Lage einer Geraden gA und ist zur Lage der Achse des Beleuchtungsobjektivs konstruktiv unveränderlich gemacht. Die An ordnung ist so aufgebaut, daß die Gerade gA möglichst genau den Brennpunkt im Raum des Arrays sowie die Hauptebene des Beleuchtungsobjektivs in einer endli chen Entfernung von dessen optischer Achse schneidet, nämlich dort, wo die Achse des Abbildungsobjektivs liegen soll. Die reale oder gedankliche Abbildung der Gera den gA durch das Beleuchtungsobjektiv in den Raum des Objektes erzeugt die zur Achse des Beleuchtungsobjektivs parallele Gerade gO. Diese Geraden gO durchstößt die Brennebene des Beleuchtungsobjektivs im Raum des Objektes. Der objektseiti ge Brennpunkt des Abbildungsobjektivs ist in den Durchstoßpunkt der Geraden gO durch die Brennebene des Beleuchtungsobjektivs möglichst genau einjustiert, wobei die Achse des Abbildungsobjektivs vorzugsweise parallel zur Achse des Beleuch tungsobjektivs ausgerichtet ist, so daß die Achse des Abbildungsobjektivs mit der Lage der Geraden gO zusammenfällt. Die Gerade gA weist so, mehr oder weniger gut angenähert, den Anstieg mit dem Betrag aus dem Quotienten Brennweite des Be leuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsobjektivs im Raum des Objektes von der Achse des Beleuchtungsobjektivs auf, wobei dieser An stieg auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezo gen ist.However, the 3D recording arrangement can also be constructed as follows: the lighting lens is assigned a transmitter array for the purpose of imaging, which can be moved at an oblique angle to the axis of the lighting lens. The rectilinear direction of movement of the array defines the position of a straight line g A and is made structurally unchangeable with respect to the position of the axis of the illumination lens. The arrangement is so constructed that the line g A intersects the focal point in the array as well as the main plane of the illumination lens at a finite distance from its optical axis, namely where the axis of the imaging lens should lie. The real or mental mapping of the straight line A through the lighting lens into the space of the object creates the straight line g O parallel to the axis of the lighting lens . This straight line g O penetrates the focal plane of the lighting lens in the space of the object. The object-side focal point of the imaging lens is adjusted as precisely as possible in the point of intersection of the straight line g O through the focal plane of the lighting lens, the axis of the imaging lens preferably being aligned parallel to the axis of the lighting lens, so that the axis of the imaging lens with the position of the straight line g O collapses. The straight line g A has, more or less well approximated, the increase with the amount from the quotient of the focal length of the lighting lens and the distance of the focal point of the imaging lens in the space of the object from the axis of the lighting lens, which increased to a perpendicular straight line is related to the axis of the lighting lens.
Das Bewegungsregime für die 3D-Aufnahme-Anordnung ist zum einen durch ein Sy stem mit zwei Linearführungen realisierbar, deren Achsen vorzugsweise senkrecht zueinander ausgerichtet sind. Die bewegten Komponenten dieser Linearführungen, auch als Schlitten bezeichnet, sind unabhängig voneinander in den Linear bewegungen steuerbar. Eine Miniaturisierung dieser Komponenten ist möglich. Es können lineare Direktantriebe verwendet werden, beispielsweise elektrodynamische Tauchspulsysteme oder Linearmotore. Die Bewegungsrichtung der bewegten Kom ponente der ersten Linearführung ist parallel zur Richtung der optischen Achse, der zA-Koordinate, die der Bewegungskomponente der zweiten Linearführung in einer dazu achssenkrechten Richtung, der xA-Richtung. Diese beiden Linearführungen er zeugen so die Bewegung der Elemente des Sender-Arrays parallel zur Geraden gA. Dabei ist das Empfänger-Array der ersten Linearführung zugeordnet, die in Richtung der optischen Achse arbeitet. Der Schlitten der ersten Linearführung trägt also das Empfänger-Array und vorzugsweise die zweite Linearführung und der Schlitten die ser zweiten Linearführung das Sender-Array.The movement regime for the 3D recording arrangement can be realized on the one hand by a system with two linear guides, the axes of which are preferably aligned perpendicular to one another. The moving components of these linear guides, also referred to as slides, can be controlled independently of one another in the linear movements. Miniaturization of these components is possible. Linear direct drives can be used, for example electrodynamic moving coil systems or linear motors. The direction of movement of the moving component of the first linear guide is parallel to the direction of the optical axis, the z A coordinate, that of the movement component of the second linear guide in a direction perpendicular to it, the x A direction. These two linear guides thus testify the movement of the elements of the transmitter array parallel to the line g A. The receiver array is assigned to the first linear guide, which works in the direction of the optical axis. The slide of the first linear guide thus carries the receiver array and preferably the second linear guide and the slide this second linear guide carries the transmitter array.
Andererseits kann auch eine einzige Linearführung mit einem Schlitten, der gleich zeitig auf diesem Schlitten das Sender-Array und das Empfänger-Array trägt, einge setzt werden. Die Bewegungsrichtung dieses Schlittens ist parallel zur Geraden gA - also nicht achssenkrecht, sondern schiefwinklig zu den Objektivachsen. Im letztge nannten Fall gibt es jedoch, entsprechend der Schlittenbewegung, auf dem Empfänger-Array eine unerwünschte Verschiebung des Bildes zu den Pixeln des Empfänger-Arrays. Diese Verschiebung kann im Bildauswerte-Algorithmus pixelwei se zurückgerechnet werden. Eine hohe Rechengeschwindigkeit ist dann erreichbar, wenn die Schlittenbewegung und die Aufnahme von Bildern synchronisiert sind und Bilder in Abhängigkeit von der Schlittenposition nur dann aufgenommen werden, wenn die aufgetretene Verschiebung des Bildes auf dem Empfänger-Arrays jeweils mindestens ein ganzes Pixel oder ein davon ganzzahliges Vielfaches beträgt. Die Ablage der Bilddaten im Datensatz erfolgt stets unter Berücksichtigung der aufgetre tenen Bildverschiebung, so daß im Ergebnis eine Kompensation der Verschiebung des Bildes mit Hilfe numerischer Methoden erfolgt ist. So wird beispielsweise ein be stimmter realer Abbildungsstrahl im Objektraum durch die Zuordnung der abgeleg ten Daten im Bilddaten-Satz verfolgt, der aus mehreren Schichten, beziehungsweise Datenfeldern besteht. Jede Schicht entspricht dabei einem aufgenommenen Bild. So bleibt ein realer Abbildungsstrahl, der von einem bestimmten Element des Sender-Arrays ausgeht, im gesamten Bewegungsvorgang der beiden Arrays stets einem Element mit gleichen Indizes, also gleicher Position, in jeder Schicht oder je dem Datenfeld des gesamten Bilddatensatzes zugeordnet. On the other hand, a single linear guide can also be used with a slide which carries the transmitter array and the receiver array simultaneously on this slide. The direction of movement of this slide is parallel to the straight line g A - not perpendicular to the axis, but at an oblique angle to the lens axes. In the latter case, however, there is an undesirable shift of the image to the pixels of the receiver array on the receiver array, corresponding to the carriage movement. This shift can be calculated back pixelwise in the image evaluation algorithm. A high computing speed can be achieved if the carriage movement and the recording of images are synchronized and images are only recorded depending on the carriage position if the displacement of the image on the receiver array occurred at least one whole pixel or an integral multiple thereof is. The storage of the image data in the data set is always taking into account the image shift that occurs, so that the result is a compensation of the displacement of the image using numerical methods. For example, a certain real imaging beam is tracked in the object space by assigning the stored data in the image data set, which consists of several layers or data fields. Each layer corresponds to a picture taken. In this way, a real imaging beam emanating from a specific element of the transmitter array always remains assigned to an element with the same indices, that is to say the same position, in each layer or depending on the data field of the entire image data set in the entire movement process of the two arrays.
Jedoch verringert sich bei dem Verfahren mit nur einer Linearführung die effektiv er faßte Objektbreite durch die laterale Verschiebung des Empfänger-Arrays, so daß ein längeres Empfänger-Array benötigt wird, um ein Bild im Standardformat aufneh men zu können. Die zusätzlich benötigte Länge des Empfänger-Arrays ist allein von der Verschiebungslänge abhängig, die sich aus der Anzahl der aufgenommenen Bil der pro Bewegungsvorgang des Schlittens, auch als Scan bezeichnet, ergibt.However, the method with only one linear guide effectively reduces it grasped object width by the lateral displacement of the receiver array, so that a longer receiver array is required to capture a standard format image to be able to. The additional required length of the receiver array is solely from depends on the length of the shift, which results from the number of images taken which results per movement of the slide, also referred to as a scan.
Bei einem Bewegungs-System mit zwei Linearführungen wird wie folgt vorgegangen:
Die laterale und lineare Bewegung des Sender-Arrays erfolgt mittels des Schlittens
der zweiten Linearführung und beginnt vorzugsweise an einem hochstabilen Null
punkt. Das Sender-Array kann ein Liniengitter darstellen, dessen Translation durch
ein hochgenaues Längenmeßsystem erfaßt werden kann. Vorzugsweise wird die
Gitterbewegung jedoch hochgenau mittels eines zweiten Liniengitters phasenmäßig
erfaßt, so daß die auf den Nullpunkt bezogene absolute Gitterphase auch in Bruch
teilen von 2π bekannt ist. Hochauflösende Interpolationstechniken sind aus der in
krementalen Längenmeßtechnik bekannt. Damit kann die Gitterphase selbst die Re
ferenz für das Abtasten der von der Objektoberfläche aus dem Objektraum aufge
nommenen optischen Signale darstellen. So kann die Phase dieser Signale hochge
nau bestimmt werden. Das ist sehr wesentlich, da in der Phase der optischen Signa
le und deren Ort der Entstehung in Verbindung mit den Geometrie-Parametern der
Anordnung die Information über die jeweilige Objektposition enthalten ist.For a motion system with two linear guides, proceed as follows:
The lateral and linear movement of the transmitter array takes place by means of the carriage of the second linear guide and preferably begins at a highly stable zero point. The transmitter array can represent a line grid, the translation of which can be detected by a highly precise length measuring system. Preferably, however, the lattice movement is detected in terms of phase with a high degree of accuracy by means of a second line lattice, so that the absolute lattice phase based on the zero point is also known in fractions of 2π. High-resolution interpolation techniques are known from the incremental length measurement technique. The lattice phase itself can thus represent the reference for scanning the optical signals picked up from the object surface from the object space. So the phase of these signals can be determined highly precisely. This is very important, since the phase of the optical signals and their location in connection with the geometry parameters of the arrangement contain the information about the respective object position.
Die Fläche des Empfänger-Arrays befindet sich bei Objektiven gleicher Bauart vor zugsweise in der gleichen Ebene wie die Fläche des Sender-Arrays. Außerdem füh ren das Sender-Array, hier das Liniengitter, durch das Bewegungssystem oder bei einem elektronisch steuerbaren Array die lokalen Extrema der Leuchtdichte zusätz lich zur Bewegung in der Tiefe eine laterale Bewegung aus, so daß als resultierende Bewegung des Liniengitters oder der lokalen Extrema der Leuchtdichte eine lineare Bewegung parallel zu der bereits genannten Geraden gA erfolgt. Durch diese Bewe gung ändert sich die Phase eines Signals, welches im Bildpunkt eines Objektpunk tes beobachtet werden kann.In the case of lenses of the same type, the area of the receiver array is preferably in the same plane as the area of the transmitter array. In addition, the transmitter array, here the line grid, by the movement system or, in the case of an electronically controllable array, the local extremes of the luminance, in addition to the movement in depth, perform a lateral movement, so that the resulting movement of the line grid or the local extremes Luminance is a linear movement parallel to the line g A already mentioned. This movement changes the phase of a signal which can be observed in the pixel of an object point.
Andererseits wird durch dieses Bewegungsregime, die Geometrie der Anordnung und die Telezentrie der Objektive im Raum der Arrays erreicht, daß ein Beleuch tungsstrahl eines sendenden Elementes einer bestimmten Phase und ein Abbil dungsstrahl, die sich in einer beliebigen Schärfefläche schneiden, sich in allen Schärfeflächen schneiden. So ist auch gegeben, daß beim Bewegen der beiden Ar rays die Bilder der sendenden Elemente gleicher Phase und die der empfangenden Elemente der beiden Arrays bei einer idealen Anordnung im gesamten Objektraum stets zusammenfallen. Dabei sind Objektive mit geringer Verzeichnung und sehr ge ringen Fehlern und eine möglichst geringe Brennweitendifferenz der beiden Objekti ve und eine möglichst präzise Justierung grundsätzlich von Vorteil und reduzieren den numerischen Korrekturaufwand erheblich. Die Abweichungen vom Idealzustand können jedoch nur innerhalb gewisser Grenzen toleriert werden.On the other hand, through this movement regime, the geometry of the arrangement and the telecentricity of the lenses in the space of the arrays that illuminates beam of a transmitting element of a certain phase and an image beam that intersect in any focus, in all Cut sharpening areas. So it is also given that when moving the two ar rays the images of the sending elements of the same phase and those of the receiving ones Elements of the two arrays with an ideal arrangement in the entire object space always collapse. Lenses with low distortion and very ge wrestle errors and the smallest possible focal length difference between the two objects ve and an adjustment that is as precise as possible is an advantage and reduces the numerical correction effort considerably. The deviations from the ideal state can only be tolerated within certain limits.
Durch die Bewegung des Liniengitters parallel zur Geraden gA und die "feste Kopp lung der Schärfeflächen" der beiden Objektive im Raum des Objektes zu einer ge meinsamen Schärfefläche erfolgt das "Mitführen der Phase im Abbildungsstrahl". Dies bedeutet, die Phase bleibt in jedem Abbildungsstrahl konstant, der von einem in der gemeinsamen Schärfefläche mitbewegten Punkt der Objektoberfläche in das Abbildungsobjektiv gelangt, auch wenn sich die Lage dieser Schärfefläche in der Tiefe des Raumes der Arrays ändert. Ein gedachter, im Abbildungsstrahl in der Schärfefläche stetig mitlaufender Objektpunkt würde demzufolge beim Bewegen des Liniengitters keine Phasenänderung im detektierbaren Signal erfahren, da beispiels weise immer der gleiche Ausschnitt des Streifens im zum Abbildungsstrahl zugehöri gen Bildpunkt detektiert wird.Due to the movement of the line grid parallel to the line g A and the "fixed coupling development of the focus areas" of the two lenses in the space of the object to a common focus area, the "carrying the phase in the imaging beam" takes place. This means that the phase remains constant in every imaging beam that reaches the imaging objective from a point on the object surface that is moving in the common focus area, even if the position of this focus area changes in the depth of the space of the arrays. An imaginary object point running continuously in the imaging beam in the focus area would consequently experience no phase change in the detectable signal when the line grid is moved, since, for example, the same section of the strip is always detected in the pixel associated with the imaging beam.
Dagegen ist im Bildpunkt eines feststehenden Objektpunktes beim Bewegen des Li niengitters stets ein periodisches Signal zu beobachten. In diesem periodischen Si gnal selbst und durch seine Lage in Bezug auf die Phase des Liniengitters ist die In formation über die aktuelle zOB-Position dieses Objektpunktes im Raum des Objek tes eindeutig enthalten.In contrast, a periodic signal can always be observed in the pixel of a fixed object point when moving the line grid. In this periodic signal itself and due to its position in relation to the phase of the line grid, the information about the current z OB position of this object point in the space of the object is clearly contained.
Das Ziel besteht darin, durch das Variieren der Lage der Schärfeflächen in der Tiefe bis zu jedem Objektpunkt des Objektes und einen kleinen Betrag darüber hinaus, um das Signal auch im Umfeld des Objektpunktes erfassen zu können, die Objekt phase jeder zu einem Objektpunkt zugehörigen achssenkrechten Ebene zu bestim men. Dies wird durch die Detektion eines modulierten periodischen Signals mit einem Modulationsmaximum in jedem abgebildeten Objektpunkt, also im zugehöri gen Bildpunkt, erreicht. Das periodische Signal entsteht beim Durchgang der beiden koinzidierenden Schärfeflächen durch die Ebene des jeweiligen Objektpunktes und das Modulationsmaximum entspricht der Lage der koinzidierenden Schärfeflächen. Eine gewisse Abweichung von der Koinzidenz der Schärfeflächen führt zu einer effektiven Schärfefläche und ist innerhalb gewisser Grenzen tolerierbar. Es tritt eine Verringerung des Modulationsmaximums im detektierten Signal auf.The goal is to vary the position of the focus areas in depth up to every object point of the object and a small amount beyond, in order to be able to detect the signal in the vicinity of the object point, the object phase to determine each plane perpendicular to an object point men. This is done by detecting a modulated periodic signal a modulation maximum in each depicted object point, that is, in the associated one towards the pixel. The periodic signal occurs when the two pass coinciding areas of focus through the plane of the respective object point and the maximum modulation corresponds to the position of the coinciding focus areas. A certain deviation from the coincidence of the focus areas leads to a effective focus area and is tolerable within certain limits. There is one Reduction of the maximum modulation in the detected signal.
Es ist möglich, die Kopplung der Schärfeflächen der beiden Objektive im Raum des Objektes so auszuführen, daß sich ein bestimmter Phasenwert in Bezug auf das Modulationsmaximum im beobachteten Signal durch das laterale Feinjustieren des Sender-Arrays, bzw. des Liniengitters, ergibt.It is possible to couple the focus areas of the two lenses in the space of the Execute object so that a certain phase value with respect to the Modulation maximum in the observed signal by the lateral fine adjustment of the Sender arrays, or the line grid, results.
Das periodische Signal wird in den Bildpunkten vorzugsweise in Schritten konstanter Phasenänderung abgetastet. Schritte konstanter Phasenänderung entstehen im Ob jektraum durch konstante Schritte eines bewegten Gitters, welches ein Liniengitter mit konstanter Gitterperiode darstellt, im Raum der Arrays. Unter Raum der Arrays wird immer der Raum verstanden, wo sich das Empfänger-Array und das Sender- Array, hier das Liniengitter, befinden.The periodic signal in the pixels is preferably more constant in steps Phase change sampled. Steps of constant phase change arise in the Ob jektraum through constant steps of a moving grid, which is a line grid with a constant grating period, in the space of the arrays. Under the Arrays Room the space is always understood where the receiver array and the transmitter Array, here the line grid.
Es wird davon ausgegangen, daß die zOB-Position als Abstand von der Brennebene des Beleuchtungsobjektivs im Raum des Objekts jeder achssenkrechten Ebene im Objektraum durch eine lateral invariante, absolute Objektphase ϕObj beschrieben werden kann, so daß es achssenkrechte Ebenen konstanter Phase im Raum des Objektes gibt.It is assumed that the z OB position can be described as a distance from the focal plane of the illumination lens in the space of the object of each perpendicular plane in the object space by a laterally invariant, absolute object phase ϕ Obj , so that it is perpendicular to the plane of the constant phase in the space Object there.
Die lateral invariante, absolute Objektphase ϕObj in einem Punkt des Objektes ist nur von der Position zObj desselben und der Geometrie der optischen Anordnung abhän gig und besitzt deshalb bei idealen Abbildungsverhältnissen und Justierungen grundsätzlich keine laterale Abhängigkeit. Im weiteren wird in der Regel von der Ob jektphase ϕObj gesprochen. Die Geometrie der optischen Anordnung ist durch die Brennweite fB des Beleuchtungsobjektivs, den Abstand d der beiden zueinander pa rallelen Objektivachsen und die Gitterkonstante p des Sender-Arrays, hier ein Li niengitter, beschrieben. Die Gerade gO, das Bild der Geraden gA, fällt mit der Achse des Abbildungsobjektivs zusammen, so daß die Größe d auch den Abstand der Ge raden gO von der Achse des Beleuchtungsobjektivs beschreibt.The laterally invariant, absolute object phase ϕ Obj at a point of the object is only dependent on the position z Obj of the same and the geometry of the optical arrangement and therefore has no lateral dependency with ideal imaging conditions and adjustments. Furthermore, the object phase ϕ Obj is usually spoken of. The geometry of the optical arrangement is described by the focal length f B of the illumination lens, the distance d between the two mutually parallel lens axes and the grating constant p of the transmitter array, here a line grating. The straight line g O , the image of the straight line g A , coincides with the axis of the imaging lens, so that the size d also describes the distance of the straight lines g O from the axis of the illumination lens.
Es wird von folgendem Geometrie-Modell ausgegangen: Die lateral invariante, abso lute Objektphase ϕObj für eine achssenkrechte Ebene mit dem Abstand zOB ent spricht immer der Anzahl der Streifenordnungen zuzüglich der beiden Streifenbruch teile, die auf der Strecke zwischen einem Punkt dieser Ebene auf der optischen Achse des Abbildungsobjektivs und einem Punkt dieser Ebene auf der Geraden gO liegen.The following geometry model is assumed: The laterally invariant, absolute object phase ϕ Obj for a plane perpendicular to the axis with the distance z OB always corresponds to the number of strip orders plus the two strip fractions that are on the path between a point on this plane the optical axis of the imaging lens and a point on this plane lie on the straight line g O.
Im Unendlichen ist deshalb die Objektphase wegen der unendlichen Streifenbreite
null und in der Brennebene des Objektraumes nähert sich die Objektphase aufgrund
des Streifenabstandes null dem Unendlichen an. Die Objektphase ϕObj weist bei der
gewählten Notation in der Regel negative Werte auf. Für (-)zOB = fB wird die Objekt
phase ϕObj = ϕfB und es gilt
In the infinite the object phase is therefore zero due to the infinite stripe width and in the focal plane of the object space the object phase approaches the infinite due to the stripe spacing zero. The object phase ϕ Obj usually has negative values for the chosen notation. For (-) z OB = f B the object phase ϕ Obj = ϕ fB and it applies
mit d als dem Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier auch dem Abstand der parallelen Achsen der beiden Objekti ve voneinander und mit p als der Gitterkonstanten des Liniengitters, welches als Sender-Array verwendet wird.with d as the distance of the straight line g O from the axis of the illumination lens, or here also the distance between the parallel axes of the two lenses, and with p as the lattice constant of the line grid which is used as a transmitter array.
Mit einer ebenen und achssenkrechten Referenzplatte kann im Raum des Objektes die Objektphase als die Anzahl der Streifenordnungen zwischen der Geraden gO und der Achse des Beleuchtungsobjektivs, beziehungsweise hier zwischen den beiden optischen Achsen, durch Auszählen von Streifen oder genauer mittels bekannter Phasenschiebetechnik ermittelt werden. Das Problem stellt hier zunächst die Kennt nis der genauen Lage der beiden optischen Achsen in der Anordnung dar. Die hoch genaue Bestimmung der Streifenanzahl zwischen den optischen Achsen kann beim parallelen Verschieben der Referenzplatte in mehreren Schritten - sowohl als Ju stierkriterium für die Kontrolle der Abweichung von der Parallelität der optischen Achsen der beiden Objektive als auch der achssenkrechten Lage der Referenzplatte -genutzt werden. Bei einer eingemessenen Anordnung mit bekannter Lage der opti schen Achsen bzgl. des Sender- und Empfänger-Arrays kann die Referenzphase so auf experimentellem Weg bestimmt werden.With a flat and axis-perpendicular reference plate, the object phase can be determined in the space of the object as the number of stripe orders between the straight line g O and the axis of the lighting objective, or here between the two optical axes, by counting stripes or more precisely using known phase shifting technology. The problem here is firstly the knowledge of the exact position of the two optical axes in the arrangement. The highly precise determination of the number of strips between the optical axes can be done in several steps when the reference plate is moved in parallel - both as a criterion for checking the deviation from the parallelism of the optical axes of the two lenses and the position of the reference plate perpendicular to the axis. With a calibrated arrangement with a known position of the optical axes with respect to the transmitter and receiver array, the reference phase can be determined experimentally.
Um entlang eines Abbildungsstrahls die zOB-Koordinate eines Objektpunktes zObj zu erhalten, ist in jedem Objektpunkt die lateral invariante, absolute Objektphase cpobj zu bestimmen, die im weiteren als Objektphase bezeichnet wird. Ein Abbildungs strahl soll hier im Modell jeweils genau auf ein Pixel der lateral feststehenden Emp fängerfläche treffen.In order to obtain the z OB coordinate of an object point z Obj along an imaging beam, the laterally invariant, absolute object phase cpobj is to be determined in each object point, which is referred to below as the object phase. An imaging beam should hit exactly one pixel of the laterally fixed receiving area in the model.
Die Objektphase ϕObj eines Objektpunktes kann nicht direkt, sondern nur in Bezug
auf eine Referenzfläche bestimmt werden. Die absolute, lateral invariante Phase der
Referenzfläche, die Referenzphase ϕR, wird aus einem als bekannt angenomme
nen, vorzeichenbehafteten Abstand zOB = zOR der Referenzfläche mit
The object phase ϕ Obj of an object point cannot be determined directly, but only in relation to a reference surface. The absolute, laterally invariant phase of the reference surface, the reference phase ϕ R , is taken from a distance z OB = z OR of the reference surface which is assumed to be known and has a sign
errechnet, wobei d den Abstand der Geraden gO von der Achse des Beleuchtungs objektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Ob jektive voneinander, fB die Brennweite des Beleuchtungsobjektivs und p die Gitter konstante des Sender-Arrays darstellen. Da zOR in die negative Achsrichtung gezählt wird, ergibt sich auch ein negativer Wert für die Referenzphase ϕR. Der Abstand zOR der Referenzfläche wird möglichst genau experimentell ermittelt. In der Regel treffen alle zur Erfassung des Objektes oder der Szene genutzten Abbildungsstrah len auch auf die Referenzplatte.calculated, where d is the distance of the straight line g O from the axis of the lighting lens, or here the distance of the parallel axes of the two lenses from each other, f B represent the focal length of the lighting lens and p the grating constant of the transmitter array. Since z OR is counted in the negative axis direction, there is also a negative value for the reference phase ϕ R. The distance z OR of the reference surface is determined experimentally as precisely as possible. As a rule, all imaging beams used to capture the object or the scene also hit the reference plate.
Der Grundgedanke besteht darin, in jedem Abbildungsstrahl aus der Auswertung des im zugehörigen Bildpunkt eines Referenzpunktes der Referenzplatte über der Phase des Gitters ϕGitter zu beobachtenden modulierten, periodischen Signals und des in einem Bildpunkt eines Objektpunkt über der Phase des Gitters zu beobach tenden modulierten, periodischen Signals die absolute Phasendifferenz ΔϕGitter die ser beiden Signallagen aus der Phase des Gitters zu bestimmen. Dabei wird davon ausgegangen, daß die periodischen Signale eine Modulation mit einem Modulations maximum aufweisen. Die Breite dieser Modulationskurve über der Phase des Gitters ϕGitter oder dem zugeordneten Verschiebeweg des Gitters ist abhängig vom Achsab stand d der beiden Objektivachsen, den Brennweiten der beiden Objektive und der relativen Öffnung der beiden Objektive, beschrieben jeweils durch die Blendenzahl k der beiden Objektive, und den Eigenschaften der Oberfläche hinsichtlich der Lichtstreuung.The basic idea is to evaluate in each imaging beam the evaluation of the modulated, periodic signal to be observed in the associated pixel of a reference point of the reference plate over the phase of the grating ϕ grating and the modulated, periodic signal to be observed in one pixel of an object point over the phase of the grating Signals to determine the absolute phase difference Δϕ grid these two signal layers from the phase of the grid. It is assumed that the periodic signals have a modulation with a maximum modulation. The width of this modulation curve over the phase of the grating ϕ grating or the assigned displacement path of the grating depends on the center distance d of the two objective axes, the focal lengths of the two objectives and the relative aperture of the two objectives, each described by the f-number k of the two objectives, and the properties of the surface in terms of light scattering.
Die Bestimmung der absoluten Phasendifferenz ΔϕGitter kann so erfolgen, daß der in einem Objektpunkt über der Phase des Gitters zu beobachtende Signalverlauf über der Phase, die aus dem Verschiebeweg des Gitters abgeleitet ist, um genau den Phasenbetrag soweit verschoben wird, daß sich dieser Signalverlauf mit dem im zu gehörigen Referenzpunkt der Referenzplatte zu beobachtenden Signalverlauf mög lichst genau deckt, d. h. die Korrelation dieser beiden Signalverläufe möglichst hoch ist. Dieser so ermittelte Phasenbetrag entspricht dann der absoluten Phasendiffe renz ΔϕGitter als die Differenz der jeweils zu den beiden Signalverläufen zugehörigen absoluten Phase des Gitters ϕGitter.The absolute phase difference Δϕ grating can be determined such that the signal curve to be observed in an object point above the phase of the grating is shifted over the phase which is derived from the displacement path of the grating by exactly the amount of phase that this signal curve changes with covers the signal curve to be observed in the associated reference point of the reference plate as precisely as possible, ie the correlation of these two signal curves is as high as possible. This phase amount determined in this way then corresponds to the absolute phase difference Δϕ grating as the difference between the absolute phase of the grating ϕ grating associated with the two signal profiles.
Dazu wird erstens aus einer Abtastung des Signals über der Phase im Bildpunkt ei
nes Referenzpunktes der relative Referenzphasenwert ϕRR mod 2π bestimmt. Zwei
tens wird aus einer Abtastung des Signals über der Phase im Bildpunkt eines jeden
Objektpunktes der relative Objektphasenwert ϕRObj mod 2π bestimmt. Der relative
Referenzphasenwert ϕRR und der relative Objektphasenwert ϕRObj werden dabei je
weils der absoluten Phase des Gitters ϕGitter zugeordnet und unter Beachtung des je
weiligen Vorzeichens von dieser subtrahiert. So entstehen die absoluten Phasen
werte der Gitterphase ϕGitterR für einen Referenzpunkt und ϕGitterObj für einen Objekt
punkt. Mit der Differenz
For this purpose, first of all, the relative reference phase value ϕ RR mod 2π is determined from a sampling of the signal over the phase in the pixel of a reference point. Secondly, the relative object phase value ϕ RObj mod 2π is determined from a sampling of the signal over the phase in the pixel of each object point. The relative reference phase value ϕ RR and the relative object phase value ϕ RObj are each assigned to the absolute phase of the grating ϕ grating and subtracted from this, taking into account the respective sign. This creates the absolute phase values of the grid phase ϕ GridR for a reference point and ϕ GridObj for an object point. With the difference
ΔϕGitter = ϕGitterObj-ϕGitterR (3)
Δϕ grid = ϕ gridObj -ϕ gridR (3)
wird die absolute Phasendifferenz ΔϕGitter bestimmt, die einen positiven Wert auf
weist, wenn der erfaßte Objektpunkt weiter von der Brennebene als der zugehörige
Referenzpunkt entfernt ist. Durch die vorzeichenbehaftete Addition der absoluten
Phasendifferenz ΔϕGitter zur experimentell oder konstruktiv abgeleiteten Referenzpha
se ϕR wird die absolute Objektphase ϕObj dann mit
the absolute phase difference Δϕ grating is determined, which has a positive value when the detected object point is further away from the focal plane than the associated reference point. Due to the signed addition of the absolute phase difference Δϕ grid to the experimentally or constructively derived reference phase ϕ R , the absolute object phase ϕ Obj then becomes
(-)ϕObj = (-)ϕR + ΔϕGitter (4)
(-) ϕ Obj = (-) ϕ R + Δϕ grid (4)
bestimmt. Da das Vorzeichen der Phase der Referenzfläche ϕR negativ ist und die
Phasendifferenz ΔϕGitter im Betrag stets kleiner ist als Phase der Referenzfläche ϕR,
ergibt sich für die absolute Objektphase ϕObj ein negativer Wert. Die Koordinate ei
nes Objektpunktes zOB = zObj kann dann mit der Gleichung
certainly. Since the sign of the phase of the reference surface ϕ R is negative and the phase difference Δϕ lattice is always smaller than the phase of the reference surface ϕ R , a negative value results for the absolute object phase ϕ Obj . The coordinate of an object point z OB = z Obj can then with the equation
bestimmt werden, die für eine negative absolute Objektphase ebenfalls einen nega tiven Wert liefert. Dabei stellen d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs, ϕObj die absolute, lateral invariante Objektphase und p die Gitterkonstante des Linien gitters dar.be determined, which also delivers a negative value for a negative absolute object phase. Here, d represents the distance of the straight line g O from the axis of the illumination lens, or here the distance of the parallel axes of the two lenses from each other, f B the focal length of the illumination lens, ϕ Obj the absolute, laterally invariant object phase and p the lattice constant of the line grid .
Als Nullebene der 3D-Aufnahme-Anordnung wird die achssenkrechte Ebene für zOB = 0, die Brennebene des Beleuchtungsobjektiv im Raum des Objektes, gewählt. Demzufolge stellt der Brennpunkt FOB des Beleuchtungsobjektivs im Raum des Ob jektes den Nullpunkt der 3D-Aufnahme-Anordnung dar.The zero-plane for z OB = 0, the focal plane of the illumination objective in the space of the object, is selected as the zero plane of the 3D recording arrangement. Accordingly, the focal point F OB of the illumination lens in the space of the object represents the zero point of the 3D recording arrangement.
Der möglichst genauen Bestimmung der absoluten Phasendifferenz ΔϕGitter in der Phase des Gitters ΔϕGitter kommt für das Verfahren eine besonders große Bedeutung zu.The most accurate determination of the absolute phase difference Δϕ grating in the phase of the grating Δϕ grating is of particular importance for the method.
Eine weitere Möglichkeit besteht darin, nicht die relativen Phasenwerte im Referenzpunkt-Signal und im Objektpunkt-Signal, sondern die Lage der Orte glei cher Phase im Referenzpunkt-Signal und im Objektpunkt-Signal in Bezug auf die Phase des Gitters ϕGitter zu bestimmen, beispielsweise anhand der Orte gleicher Phasenlagen.Another possibility is to determine, for example, not the relative phase values in the reference point signal and in the object point signal, but the position of the locations of the same phase in the reference point signal and in the object point signal with respect to the phase of the grating ϕ grating based on the locations of the same phase positions.
Grundsätzlich kann auch über ein Längenmeßsystem, welches die Gitterbewegung hochaufgelöst mißt, die Ortsdifferenz der Lagen des Referenzpunkt-Signals und des Objektpunkt-Signals bestimmt werden. Aus der bekannten Gitterkonstante p des Sender-Arrays kann aus der gemessenen Ortsdifferenz die zugehörige Phasendiffe renz ΔϕGitter in bekannter Weise errechnet werden. Dies ist anzuwenden, wenn nur eine einzige Linearführung mit einem Nullpunktgeber verwendet wird, da die pha senmäßige Abtastung des Gitters aufgrund des Bewegens desselben mit einer dann auch auftretenden Bewegungskomponente in Richtung der optischen Achse mit ei nem Gegengitter technisch besonders schwierig ist.In principle, the spatial difference between the positions of the reference point signal and the object point signal can also be determined using a length measuring system which measures the grating movement with high resolution. From the known grid constant p of the transmitter array, the associated phase difference Δϕ grid can be calculated in a known manner from the measured spatial difference. This is to be used if only a single linear guide with a zero point encoder is used, since the phased scanning of the grating is technically particularly difficult due to the movement of the grating with a then occurring movement component in the direction of the optical axis with a counter grating.
Mit der vorzugsweise hochebenen Referenzplatte muß das 3D-Aufnahmesystem in mindestens einer achssenkrechten Positionen eingemessen werden. Aus dem ex perimentell bestimmten Wert zORexp für die Lage der Referenzplattewird der Wert der Referenzphase ϕR mittels der angegebenen Gleichung (2) errechnet. Die ge messene Verschiebung in zOB-Richtung wird mit dem der durch die 3D-Aufnahme-Anordnung ermittelten zOR-Wert verglichen. So kann die 3D-Aufnahme-Anordnung kontrolliert werden. Bei Abweichungen von der hochge nau gemessenen Verschiebung von der rechnerisch bestimmten liegt für eine in sich gut einjustierte 3D-Aufnahme-Anordnung ein falscher Wert für die Referenzphase ϕR vor. Numerisch wird die Referenzphase verändert bis sich eine möglichst gute Übereinstimmung mit den experimentell bestimmten Verschiebewerten ergibt.With the preferably high-level reference plate, the 3D recording system must be measured in at least one position perpendicular to the axis. The value of the reference phase ϕ R is calculated from the experimentally determined value z ORexp for the position of the reference plate using the given equation (2). The measured displacement in the z OB direction is compared with that of the z OR value determined by the 3D recording arrangement. In this way, the 3D recording arrangement can be checked. In the event of deviations from the highly precisely measured shift from that calculated by calculation, there is an incorrect value for the reference phase ϕ R for a well-adjusted 3D recording arrangement. The reference phase is changed numerically until there is as good a match as possible with the experimentally determined displacement values.
Zusammengefaßt gilt: Für die Bestimmung der Objektphase ϕObj im Objektraum wird vorteilhafterweise folgende Bedingung im Gesamt-Abbildungssystem realisiert, die sich aus der parallelen Bewegung des Liniengitters - oder ganz allgemein formuliert aus der parallelen Bewegung der Maxima und Minima der Leuchtdichte auf dem Sender-Array - zur Geraden gA ergibt: Beim Durchlaufen der beiden koinzidierenden Schärfeflächen von Beleuchtungs- und Abbildungsobjektiv durch die Tiefe des Rau mes des Objektes bleibt die beobachtete Phase im Schnittpunkt eines Strahls des Abbildungsobjektivs mit der gemeinsamen Schärfefläche durch die zusätzliche late rale Bewegung des Gitters stets konstant, so daß ein gedachter, in einem Strahl des Abbildungsobjektivs in der gemeinsamen Schärfefläche mitlaufender Objektpunkt in der gesamten Tiefe keine Phasenänderung erfährt. Dies wird als "Mitführung der Phase" bezeichnet. Dabei kann die zusätzliche laterale Bewegung des Gitters durch eine zweite Linearführung erfolgen oder sich aus der Schrägstellung einer gemein samen Linearführung für Sender- und Empfänger-Array ergeben. Andererseits kann diese Bedingung auch durch ein elektronisch gesteuertes Gitter, beispielsweise ein Liniengitter, realisiert werden, indem zusätzlich zum kontinuierlichen Bewegen des Gitters in zA-Richtung, die Phasenlage des Gitters ebenfalls kontinuierlich verändert wird, indem die Lage der Orte der lokalen Extrema der Leuchtdichte, auf dem elek tronisch steuerbaren Gitter verändert wird.In summary: For the determination of the object phase ϕ Obj in the object space, the following condition is advantageously realized in the overall imaging system, which is derived from the parallel movement of the line grid - or more generally from the parallel movement of the maxima and minima of the luminance on the transmitter array - to the straight line g A results: When passing through the two coinciding areas of focus of the illumination and imaging lens through the depth of the space of the object, the observed phase at the intersection of a beam of the imaging lens with the common area of focus remains constant due to the additional lateral movement of the grating , so that an imaginary object point running in a beam of the imaging lens in the common focus area does not experience any phase change in the entire depth. This is referred to as "carrying the phase". The additional lateral movement of the grating can take place through a second linear guide or can result from the inclination of a common linear guide for the transmitter and receiver array. On the other hand, this condition can also be realized by an electronically controlled grating, for example a line grating, in addition to the continuous movement of the grating in the z A direction, the phase position of the grating is also continuously changed by the position of the locations of the local extremes of the luminance is changed on the electronically controllable grid.
Dazu ist folgendes zu bemerken: Optisch konjugierte Punkte weisen im Raum der
Arrays und im Raum des Objektes betragsmäßig die gleiche absolute Phase auf.
Diese absolute Phase kann jeweils als laterale Koordinate verstanden werden. Die
absolute Phase leitet sich aus der Beleuchtungssituation ab und kann im Raum der
Arrays aus der χAB-Position im Gitterelement GAB bestimmt werden, welches sich im
Aufnahmeprozeß auf einer Geraden gA bewegt und bei dieser Bewegung genau den
array-seitigen Brennpunkt FAB schneidet. Aus diesem Zusammenhang ergibt sich die
absolute Phase im Raum der Arrays mit
The following should be noted in this regard: Optically conjugated points have the same absolute phase in terms of amount in the array space and in the object space. This absolute phase can be understood as a lateral coordinate. The absolute phase is derived from the lighting situation and can be determined in the space of the arrays from the χ AB position in the grating element G AB , which moves on a straight line g A in the recording process and during this movement exactly the array-side focal point F AB cuts. The absolute phase in the space of the arrays also results from this context
mit χAB1 als der lateralen Koordinate des Durchstoßpunktes der Geraden gA durch das Gitterelement GAB und p als Gitterkonstante des Liniengitters. Im optisch konju gierten Punkt GOB ergibt sich die gleiche absolute Phase wie im Punkt GAB, jedoch mit umgekehrtem Vorzeichen.with χ AB1 as the lateral coordinate of the point of intersection of the straight line g A through the lattice element G AB and p as the lattice constant of the line lattice. In the optically conjugated point G OB there is the same absolute phase as in point G AB , but with the opposite sign.
Es ist grundsätzlich möglich, das Beleuchtungsobjektiv mit einem zentralperspektivi schen Strahlengang im Raum des Objektes auszuführen, dagegen das Abbildungs objektiv aber als ein Objektiv mit einem telezentrischem Strahlengang im Raum des Objektes zu gestalten. In diesem Fall braucht im Telezentriebereich des Abbildungs objektivs das Empfänger-Array nicht bewegt zu werden. Diese Möglichkeit ist für kleinere Objekte unter 100 mm Durchmesser gegebenenfalls vorteilhaft, wo auch die vergleichsweise geringe Lichtstärke des telezentrischen Abbildungsobjektivs noch ohne größeren technischen Aufwand auszugleichen ist. Jedoch ergibt sich bei der Auswertung ein wesentlich höherer Rechenaufwand, da die Tiefenempfindlich keit, beschrieben durch die effektive Wellenlänge, in den jeweils achssenkrechten Ebenen lateral nicht konstant ist, da die Abbildungsstrahlen kein Strahlenbüschel bilden, welches mit dem Geradenbüschel um die Gerade gO koinzidiert, sondern ein Parallelbündel. Deshalb wird dieser Fall hier auch nicht weiter betrachtet.It is fundamentally possible to design the illumination lens with a central perspective beam path in the space of the object, on the other hand to make the image objective but as a lens with a telecentric beam path in the space of the object. In this case, the receiver array need not be moved in the telecentric area of the imaging lens. This option may be advantageous for smaller objects with a diameter of less than 100 mm, where the comparatively low light intensity of the telecentric imaging lens can also be compensated for without major technical effort. However, the evaluation results in a significantly higher computational effort, since the depth sensitivity, described by the effective wavelength, is not laterally constant in the respective planes perpendicular to the axis, since the imaging rays do not form a bundle of rays which coincides with the bundle of straight lines around the line g O , but a parallel bundle. This is why this case is not considered further here.
Weiterhin muß das Empfänger-Array kein Bildempfänger sein, sondern kann nach dem Stand der Technik als Mikrolinsen-Array ausgeführt sein, um eine hohe Tiefen auflösung auf der Basis einer hohen Streifendichte erreichen zu können. Das Mikrolinsen-Array befindet sich im Raum der Arrays in einer zum Sender-Array op tisch konjugierten Ebene. Wie bekannt, ist dem Mikrolinsen-Array ein weiteres Ob jektiv nachgeordnet. Dieses Objektiv ist auf der dem Mikrolinsen-Array zugeordneten Seite möglichst gut telezentrisch ausgeführt. Auf der zweiten Seite des Objektivs befindet sich der Bildaufnehmer.Furthermore, the receiver array does not have to be an image receiver; the prior art as a microlens array to a great depth to be able to achieve resolution on the basis of a high strip density. The Microlens array is located in the space of the arrays in a to the transmitter array op table conjugate level. As is known, the microlens array is another ob jective subordinate. This lens is on the assigned to the microlens array Side as well as possible telecentric. On the second page of the The image sensor is located on the lens.
Auch kann in der Ebene des Empfänger-Arrays ein elektronisch steuerbares, vor
zugsweise transmissives Array angeordnet sein. Dabei wird wie folgt vorgegangen:
Es erfolgt eine erste Gewinnung einer 3D-Punktwolke mit einer beispielsweise mitt
leren Transmission in den Array-Elementen. Anschließend wird die Aussteuerung in
den Elementen des Bildempfänger kontrolliert und die Transmission elementeweise
so eingestellt, daß sich eine gute Aussteuerung in den Bildelementen eines nach
geordneten Bildempfängers ergibt. Das elektronisch steuerbare, transmissive Array
kann vorzugsweise dem Mikrolinsen-Array zugeordnet sein. Es ist aber auch mög
lich, daß es dem Bildaufnehmer zugeordnet ist. Auch kann es dem Sender-Array zu
geordnet sein. Letztlich muß die Zuordnung nur zu einer optisch konjugierten Ebene
des Empfänger-Arrays erfolgen.An electronically controllable, preferably transmissive, array can also be arranged in the plane of the receiver array. The procedure is as follows:
A 3D point cloud is first obtained with, for example, medium transmission in the array elements. The modulation in the elements of the image receiver is then checked and the transmission is adjusted element by element such that there is good modulation in the image elements of an ordered image receiver. The electronically controllable, transmissive array can preferably be assigned to the microlens array. But it is also possible that it is assigned to the image sensor. It can also be assigned to the transmitter array. Ultimately, the assignment only has to be made to an optically conjugate level of the receiver array.
Zur Bestimmung der Phasenlage der periodischen Signale in den Bildpunkten des Empfänger-Arrays kommen im einfachsten Fall die bekannten Phasenschiebe- Algorithmen mit 3 bis 5 Intensitätswerten zur Anwendung. Dabei wird die Intensität in den Bildpunkten des Empfänger-Arrays entsprechend der Phasenlage des Sender-Arrays abgetastet. Möglich ist hier eine Abtastung in diskreten 90°-Phasenschritten. Mit den ausgelesenen Intensitätswerten kann beispielsweise auch die Modulation über der Phase in 90°-Schritten mit den bekannten Elementar gleichungen bestimmt werden. Die Auswertung der Phasenlage kann in jeweils 180°-Schritten der Phase des Sender-Arrays, hier des Liniengitters, erfolgen.To determine the phase position of the periodic signals in the pixels of the In the simplest case, receiver arrays come with the known phase shift Algorithms with 3 to 5 intensity values for use. The intensity in the pixels of the receiver array according to the phase position of the Sender arrays scanned. Scanning in discrete is possible here 90 ° phase steps. With the read out intensity values, for example also the modulation over the phase in 90 ° steps with the known elements equations can be determined. The phase position can be evaluated in each case 180 ° steps of the phase of the transmitter array, here the line grid, take place.
Besser für die Genauigkeit der Phasenbestimmung und damit für die Tiefenmeßge nauigkeit sind jedoch Algorithmen, die über eine größere Anzahl von Intensitätswer ten, beispielsweise 8, 16 oder 32, die Phase im Signal wie auch den Ort des Mo dulationsmaximums bestimmen. Das gesamte Know-how der Signalverarbeitung, wie es in der Elektrotechnik bereits bekannt ist, kann hier angewendet werden. Bei spiele für die erfolgreiche Applikation derartiger Signalauswertungen sind aus der Weißlicht-Interferenzmikroskopie bekannt. Im allgemeinen werden diese Signalauswertungs-Methoden bei kurzkohärenten Methoden angewendet.Better for the accuracy of the phase determination and thus for the depth measurement accuracy, however, are algorithms that use a larger number of intensity values ten, for example 8, 16 or 32, the phase in the signal as well as the location of the Mo. Determine maximum dulations. The entire know-how of signal processing, as is already known in electrical engineering, can be used here. At games for the successful application of such signal evaluations are from the White light interference microscopy known. Generally these will Signal evaluation methods applied to short-coherent methods.
Da die Periodenlänge, die Gitterkonstante, des Sender-Arrays vorzugsweise kon stant ist, ist die Phasenänderungsgeschwindigkeit bei einer konstanten Bewegung des Sender-Arrays, ebenfalls konstant. Dies ermöglicht auch das Anwenden der Sub-Nyquist-Abtastung, da hier aufgrund der Kenntnis der Signalfrequenz das be kannte Abtast-Theorem ohne Nachteile verletzt werden kann. Dies reduziert die An zahl der aufzunehmenden Bilder ganz erheblich, so daß grundsätzlich eine höhere Geschwindigkeit der Bewegung des Gitters realisiert werden kann und so eine Hochgeschwindigkeits-Auswertung realisierbar wird. Filteroperationen sind in der bekannten Art mit den Phasen-Auswerte-Methoden zu kombinieren, bzw. bereits vor der Phasenauswertung durchzuführen. Dieser Sachverhalt wird hier nicht weiter ver tieft, obwohl von der optimalen Gestaltung der Algorithmen die Leistungsfähigkeit des gesamten Auswerte-Verfahrens abhängt. Die Ausführung der Rechenoperatio nen kann dabei mittels spezieller Hochgeschwindigkeits-Prozessoren erfolgen.Since the period length, the lattice constant, of the transmitter array is preferably con is constant, is the phase change speed with a constant movement of the transmitter array, also constant. This also enables the application of Sub-Nyquist sampling, because here the be. Based on the knowledge of the signal frequency known sampling theorem can be violated without disadvantages. This reduces the number number of pictures to be taken quite considerably, so that basically a higher one Speed of movement of the grid can be realized and so one High-speed evaluation becomes feasible. Filter operations are in the to combine the known type with the phase evaluation methods, or already before the phase evaluation. This fact will not be discussed further here low, although the performance of the optimal design of the algorithms of the entire evaluation process. The execution of the arithmetic operation NEN can be done using special high-speed processors.
Es ist vorteilhaft, wenn das Sender-Array, hier das Liniengitter, zusätzlich eine Null punktmarke aufweist und die laterale Gitterbewegung mit einem Gegengitter pha senmäßig erfaßt wird. Durch das Positionieren der Referenzplatte im Objektraum in einer bekannten zOB-Position zOB = zOR wird die absolute Phase des Nullpunktes be stimmt. Auch werden die Referenz-Phasen mod 2π als relative Referenzphasen ϕRR durch die Auswertung des Signalverlaufs in den Abbildungsstrahlen im Bereich der scharfen Abbildung der Referenzplatte ermittelt und gespeichert. Bei einem unbe kannten Objekt wird durch den Signalverlauf im Schärfebereich des Objektpunktes die zugehörige Phase des Gitters ϕGitter an der Stelle im Signalverlauf im Bereich des Maximums der Modulation ermittelt, die der zugehörigen Referenz- Anfangsphase im Bereich des Maximums der Modulation entspricht.It is advantageous if the transmitter array, here the line grating, additionally has a zero point mark and the lateral grating movement is detected in terms of phase with a counter grating. The absolute phase of the zero point is determined by positioning the reference plate in the object space in a known z OB position z OB = z OR . The reference phases mod 2π are also determined and stored as relative reference phases ϕ RR by evaluating the signal curve in the imaging beams in the area of the sharp image of the reference plate. In the case of an unknown object, the associated phase of the grating ϕ grating is determined by the signal curve in the focus area of the object point at the point in the signal curve in the area of the maximum of the modulation, which corresponds to the associated reference starting phase in the area of the maximum of the modulation.
Dann kann die Objektphase für jede Ebene in der Entfernung zOB mittels der Phase, die aus der Gitterverschiebung abgeleitet wird, bestimmt werden. Die hochstabile Nullpunktmarke kann als Startpunkt für die laterale Bewegung des Gitters dabei so einjustiert werden, daß der Start der Bildaufnahme kurz vor dem Erreichen der scharfen Abbildung der Referenzplatte durch die koordinierte Bewegung von Gitter und Bildempfänger beginnt. Auch nach dem Entfernen der Referenzplatte bleibt die Lage der Referenzplatte beim Einmessen jeweils als "die Referenzfläche des 3D-Aufnahmesystems" bis zum neuen Einmessen bestehen.The object phase can then be determined for each level at a distance z OB using the phase derived from the grid shift. The highly stable zero point mark can be adjusted as a starting point for the lateral movement of the grating in such a way that the start of the image recording begins shortly before the sharp image of the reference plate is reached due to the coordinated movement of the grating and the image receiver. Even after removing the reference plate, the position of the reference plate remains as "the reference surface of the 3D recording system" until the new measurement.
In der vorangegangenen Darstellung wurde davon ausgegangen, daß das Beleuchtungsobjektiv und das Abbildungsobjektiv stets fest angeordnet sind und in sich starre Objektive darstellen, also keine eigene Fokussierung aufweisen, bzw. die gegebenenfalls vorhandene, objektiveigene Fokussierung nicht benutzt wird. Die Brennebenen der Objektive stehen demzufolge fest im Raum. Das Fokussieren im Sinne des Veränderns der Lage der Schärfeflächen im Raum des Objektes erfolgte in der bisherigen Darstellung jeweils über das Bewegen des Sender- und Empfänger-Arrays in einer Komponente parallel zur optischen Achse der Objektive.In the previous presentation it was assumed that the Lighting lens and the imaging lens are always fixed and in present rigid lenses, i.e. do not have their own focus, or that any existing, objective focusing is not used. The Focal planes of the lenses are therefore fixed in the room. Focusing in In order to change the position of the focus areas in the space of the object in the previous illustration, each time moving the transmitter and Receiver arrays in a component parallel to the optical axis of the lenses.
Im Fall des Veränderns der Lage der Schärfeflächen im Raum des Objektes über die Fokussierung des Objektivs, beispielsweise durch eine interne Fokussierung, wie es dem Stand bei modernen Fotoobjektiven entspricht, muß die Fokussierung elektronisch steuerbar sein, d. h. die Objektive müssen auch eine motorische Fokussierung gestatten. Auch beim Verschieben des gesamten Objektivs zum Zweck der Fokussierung muß eine motorische Verschiebung gewährleistet sein. Aus Gründen der bei der erfinderischen Lösung erforderlichen hohen Dynamik der bewegten Komponenten wird die Möglichkeit des Verschiebens des gesamten Objektivs hier nicht weiter betrachtet.In the case of changing the position of the focus areas in the space of the object above the focusing of the lens, for example by internal focusing, such as If it corresponds to the state of modern photo lenses, the focus must be be electronically controllable, d. H. the lenses also need a motor Allow focus. Even when moving the entire lens to A motor shift must be ensured for the purpose of focusing. Out Reasons for the high dynamics required in the inventive solution moving components becomes the possibility of moving the whole Objectively not considered here.
Da moderne Objektive mit interner Fokussiermöglichkeit durch das Verschieben von massearmen, optischen Komponenten im allgemeinen eine recht schnelle Fokussierung ermöglichen, wird dagegen dieser Fall betrachtet, obwohl zur Zeit noch keine lichtstarken Objektive mit einem bildseitig telezentrischen Strahlengang und einer motorischen Fokussiermöglichkeit bekannt geworden sind und auch eine Ausnahme darstellen würden. Deshalb wurde in der bisherigen Darstellung die Möglichkeit des Veränderns der Lage der Schärfeflächen im Raum des Objektes über das Bewegen des Sender- und Empfänger-Arrays eindeutig favorisiert.Because modern lenses with internal focusing options by moving Low-mass, optical components are generally quite fast Allowing focus, on the other hand, is considered in this case, although currently not yet bright lenses with a telecentric beam path on the image side and a motorized focusing option have become known and also one Would be an exception. Therefore, in the previous presentation, the Possibility of changing the position of the focus areas in the space of the object clearly favored by moving the sender and receiver arrays.
Grundsätzlich kommt es aber bei der erfindungsgemäßen 3D-Aufnahme-Anordnung und dem 3D-Aufnahme-Verfahren jedoch nur darauf an, eine definierte Relativbewegung zwischen den Brennebenen der Objektive und den jeweils zugehörigen Arrays oder den Orten der Extrema der Leuchtdichte auf diesen zu erreichen. Im Fall einer cos2-ähnlichen Leuchtdichteverteilung auf dem Sender-Array soll die Phasenlage dieser Leuchtdichteverteilung die definierte Relativbewegung erfahren. Zum Erreichen der Relativbewegung können auch die Brennebenen im Raum bewegt werden, beispielsweise durch eine interne Fokussierung des Objektivs.Basically, however, it is only a matter of achieving a defined relative movement between the focal planes of the lenses and the respectively associated arrays or the locations of the extremes of the luminance on the 3D recording arrangement and the 3D recording method according to the invention. In the case of a cos 2 -like luminance distribution on the transmitter array, the phase position of this luminance distribution should experience the defined relative movement. To achieve the relative movement, the focal planes can also be moved in space, for example by internally focusing the lens.
Ziel ist letztlich die Detektierung eines modulierten cos2-ähnlichen Signals mit einem Modulationsmaximum in den Bildpunkten des Empfänger-Arrays. Die Annäherung an die cos2-Charakteristik wird bekannterweise in der Regel durch die optische Mo dulationsübertragungfunktion des Objektivs in der jeweiligen Abbildungssituation unterstützt.The ultimate goal is the detection of a modulated cos 2 -like signal with a modulation maximum in the pixels of the receiver array. As is known, the approximation to the cos 2 characteristic is generally supported by the optical modulation transfer function of the lens in the respective imaging situation.
Es muß realisiert werden, daß die Bewegung des Punktes des Sender-Arrays, welcher in der Brennebenenlage des Sender-Arrays mit dem Brennpunkt des Beleuchtungsobjektivs koinzidiert, auf einer Geraden gA erfolgt. Andere Punkte, bzw. Elemente des Sender-Arrays bewegen sich auf parallelen Geraden zur Geraden gA. Diese Gerade gA ist ja so definiert, daß diese stets den Brennpunkt des Beleuch tungsobjektivs im Raum der Arrays schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Raum der Arrays und Abstand des Brennpunktes vom Abbildungsobjektiv, aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist. Demzufolge bewegt sich die Gerade gA gemeinsam mit der Brennebene des Be leuchtungsobjektivs. Da sich beim internen Fokussieren der Brennpunkt stets auf der Achse des Beleuchtungsobjektivs bewegt, ist zur Realisierung der Bewegung der Elemente des Sender-Arrays auf einer Geraden gA, noch eine zusätzliche Bewe gung des Sender-Arrays senkrecht zur optischen Achse erforderlich. Bei einem elek tronisch steuerbaren Gitter wird eine Veränderung der Orte der lokalen Extrema der Leuchtdichte erzeugt. Dies kann auch als eine Bewegung senkrecht zur optischen Achse verstanden werden.It must be realized that the movement of the point of the transmitter array, which coincides with the focal point of the illumination lens in the focal plane position of the transmitter array, takes place on a straight line g A. Other points or elements of the transmitter array move on parallel straight lines to straight line g A. This straight line g A is defined such that it always intersects the focal point of the lighting objective in the area of the arrays and has the increase, defined as the quotient of the focal length of the lighting objective in the area of the arrays and the distance of the focal point from the imaging lens, this increase being the Line g A is related to a line perpendicular to the axis of the illumination lens. As a result, the straight line g A moves together with the focal plane of the lighting lens. Since the focal point always moves on the axis of the illumination lens during internal focusing, an additional movement of the transmitter array perpendicular to the optical axis is required to implement the movement of the elements of the transmitter array on a straight line g A. With an electronically controllable grating, a change in the locations of the local extremes of the luminance is generated. This can also be understood as a movement perpendicular to the optical axis.
Es ist sehr wesentlich für die Genauigkeit des Meßverfahrens, daß die beschriebene Bewegung oder Verschiebung der Brennebene des Beleuchtungsobjektivs sehr ge nau erfolgt, so daß die Bewegung auf der Geraden gA nur mit möglichst kleinen La geabweichungen erfolgt. Dies kann mittels eines hochauflösenden, internen Weg meßsystems für die zwecks interner Fokussierung bewegten optischen Komponen ten im Beleuchtungsobjektiv unterstützt werden. An die Führungsgenauigkeit der mi niaturisierten Linearführung der bewegten Komponenten im Objektiv sind ebenfalls hohe Anforderungen zu stellen, da deren Querabweichungen ebenfalls schädlich sind.It is very important for the accuracy of the measuring method that the described movement or displacement of the focal plane of the lighting lens is very precise, so that the movement on the line g A occurs only with the smallest possible deviations. This can be supported by means of a high-resolution, internal position measuring system for the optical components in the lighting lens that are moved for internal focusing. The guiding accuracy of the miniaturized linear guidance of the moving components in the lens must also be subject to high demands, since their transverse deviations are also harmful.
Die interne Fokussierung des Abbildungsobjektivs mit einer miniaturisierten Linearführung sollte so erfolgen, daß die Schärfefläche des Abbildungsobjektivs mit der durch das Beleuchtungsobjektiv vorgegebenen Schärfefläche im Raum des Objektes möglichst gut koinzidiert. Möglich ist auch hier die Verwendung eines hoch auflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung im Ab bildungsobjektiv bewegten optischen Komponenten. Auch ist eine starre Kopplung der bewegten Komponenten der beiden Objektive grundsätzlich möglich.The internal focusing of the imaging lens with a miniaturized Linear guidance should be done so that the focus of the imaging lens with the focus area in the space of the Object coincides as well as possible. It is also possible to use a high here resolving, internal measuring system for the purpose of internal focusing in the Ab educational lens moving optical components. There is also a rigid coupling of the moving components of the two lenses is basically possible.
Um die Anforderungen an die Genauigkeit der internen Fokussierung des Abbil dungsobjektivs zu verringern, kann das Abbildungsobjektiv etwas stärker abgeblendet werden, da sich dann der Schärfentiefebereich vergrößert. Im Extremfall ist auch eine so starke Abblendung des Abbildungsobjektivs denkbar, daß dann bei einem Objekt mit begrenzter Tiefenausdehnung sowohl auf dessen interne Fokussierung als auch auf eine Bewegung des Empfänger-Arrays - also auf eine Fokussierung im Abbildungsstrahlengang überhaupt - verzichtet werden kann. Es ist dadurch jedoch eine unerwünschte Verbreiterung der Modulationskurve im Signal gegeben, welches in den Bildpunkten des Empfänger-Arrays detektiert wird, wodurch eine Verringerung des Tiefenauflösungsvermögens bei der 3D-Aufnahme zu erwarten ist.To meet the requirements for the accuracy of the internal focusing of the fig To reduce the lens, the imaging lens can be slightly stronger be dimmed, since the depth of field then increases. in the In extreme cases, such a dimming of the imaging lens is also conceivable that then for an object with a limited depth, both on its internal Focusing as well as on a movement of the receiver array - i.e. on one Focusing in the imaging beam path at all - can be dispensed with. It is however, this causes an undesired broadening of the modulation curve in the signal given which is detected in the pixels of the receiver array, which reduces the depth resolution in 3D imaging is to be expected.
So wird erfindungsgemäß auch eine Anordnung vorgeschlagen, die mit einem elektronisch steuerbaren Gitter als Sender-Array arbeitet, welches eine Verschiebung der Orte der lokalen Extrema der Leuchtdichte auf dem Empfänger-Array, beziehungsweise bei einer cos2-ähnlichen Leuchtdichteverteilung auf dem Sender-Array eine Verschiebung der Phasenlage, erzeugt, und das zugehörige Beleuchtungsobjektiv gleichzeitig eine interne Fokussierung aufweist. Dadurch bewegen sich die Orte der Extrema oder die Orte gleicher Phase der Leuchtdichteverteilung auf dem Sender-Array auch bei der internen Fokussierung auf einer sich im Raum bewegenden Geraden gA.According to the invention, an arrangement is also proposed which works with an electronically controllable grating as a transmitter array, which shifts the locations of the local extremes of the luminance on the receiver array or, in the case of a cos 2 -like luminance distribution, on the transmitter array Shift of the phase position, generated, and the associated lighting lens has an internal focusing at the same time. As a result, the locations of the extremes or the locations of the same phase of the luminance distribution on the transmitter array move even with the internal focusing on a straight line g A moving in space.
Grundsätzlich ist es möglich, daß die beiden Achsen von Beleuchtungsobjektiv und Abbildungsobjektiv zueinander geneigt sind. Jedoch ist es in diesem Fall von großem Vorteil, wenn der Brennpunkt des Abbildungsobjektivs im Raum des Objektes in der Brennebene des Beleuchtungsobjektivs liegt. Die Lage dieses Brennpunktes definiert den Ort der Geraden gO, die als Bild der Geraden gA definiti onsgemäß diesen Brennpunkt enthalten und parallel zur Achse des Beleuchtungs objektivs liegen muß. Dies führt dazu, daß die Tiefenempfindlichkeit der 3D-Aufnahme-Anordnung in einer zur Achse des Beleuchtungsobjektivs senkrech ten Ebene im Raum des Objektes eine Konstante ist, also die Tiefenempfindlichkeit keine laterale Abhängigkeit in der Ebene aufweist.In principle, it is possible for the two axes of the illumination lens and the imaging lens to be inclined to one another. However, in this case it is of great advantage if the focal point of the imaging lens lies in the space of the object in the focal plane of the illumination lens. The location of this focal point defines the location of the straight line g O , which, as an image of the straight line g A, by definition contains this focal point and must lie parallel to the axis of the lighting objective. This means that the depth sensitivity of the 3D recording arrangement in a plane perpendicular to the axis of the illumination lens in the space of the object is a constant, that is to say the depth sensitivity has no lateral dependence in the plane.
Bei einer gegebenen Anordnung von Beleuchtungs- und Abbildungsobjektiv muß die Richtung der Bewegung der Elemente des Sender-Arrays parallel zur Geraden gA liegen. Wie bereits dargestellt, ist die Gerade gA dabei so definiert, daß deren Bild im Raum des Objektes, die Gerade gO, den Brennpunkt des Abbildungsobjektivs im Raum des Objektes bei gleichzeitig paralleler Lage zur Achse des Beleuchtungsob jektivs schneidet. Die Anordnung mit zueinander geneigten optischen Achsen der Objektive bringt Vorteile, wenn sich Bereiche des Objektes in besonders geringer Entfernung vom Beleuchtungsobjektiv befinden und diese vom Abbildungsobjektiv bei einer parallelen Anordnung der Objektive nicht mehr aufgenommen werden kön nen. Hierbei ist es von Vorteil, wenn das Abbildungsobjektiv so aus der parallelen Lage herausgedreht ist oder motorisch und rechnergesteuert herausgedreht wird, daß es die Bereiche des Objektes in besonders geringer Entfernung erfassen kann. Dabei ist zu beachten, daß die Schärfeflächen nur noch teilweise koinzidieren und das gemeinsame Bewegen von Sender- und Empfänger-Array im Sinne einer star ren Kopplung nicht mehr uneingeschränkt möglich ist. Auch vergrößert sich bei der Berechnung der 3D-Punktwolke der numerische Aufwand aufgrund der Berücksichti gung der komplizierteren Abbildungsverhältnisse. Dennoch kann diese Variante bei speziellen Objekten durchaus von Vorteil sein, auch wenn der technische Aufwand erheblich ist. Weiterhin ist es möglich, daß das Empfänger-Array zusätzlich rechner gesteuert drehbar angeordnet ist, um die Scheimpflugbedingung zu erfüllen, wo durch die Koinzidenz der Schärfeflächen im Raum des Objektes erreichbar ist. Es ist auch möglich, daß die beiden Objektive unterschiedliche Brennweiten aufweisen können, wobei das Abbildungsobjektiv wesentlich kurzbrennweitiger gestaltet ist, wenn sich nur der Brennpunkt des Abbildungsobjektivs in der Brennebene des Be leuchtungsobjektivs im Raum des Objektes befindet.For a given arrangement of illumination and imaging lens, the direction of movement of the elements of the transmitter array must be parallel to the line g A. As already shown, the straight line g A is defined such that its image in the space of the object, the straight line g O , intersects the focal point of the imaging lens in the space of the object while at the same time being parallel to the axis of the lighting object. The arrangement with the optical axes of the lenses inclined relative to one another brings advantages if regions of the object are at a particularly short distance from the illumination lens and these can no longer be recorded by the imaging lens with a parallel arrangement of the lenses. It is advantageous here if the imaging lens is rotated out of the parallel position or rotated out in a motor and computer-controlled manner so that it can capture the areas of the object at a particularly short distance. It should be noted that the focus areas only partially coincide and the joint movement of transmitter and receiver array in the sense of a rigid coupling is no longer possible without restrictions. Also when calculating the 3D point cloud, the numerical effort increases due to the consideration of the more complicated imaging relationships. Nevertheless, this variant can be an advantage for special objects, even if the technical effort is considerable. Furthermore, it is possible for the receiver array to be additionally rotatably arranged under computer control in order to meet the Scheimpflug condition, where the focus areas in the space of the object can be reached by the coincidence. It is also possible that the two lenses can have different focal lengths, the imaging lens being designed to have a significantly shorter focal length if only the focal point of the imaging lens is in the focal plane of the lighting lens in the space of the object.
Es ist weiterhin von Vorteil für das Einmessen und Kontrollieren der 3D-Aufnahme-Anordnung, daß eine transparente Platte als permanent verbleibende Referenzplatte achssenkrecht in der Nahdistanz im Objektraum zur Selbsteinmes sung zugeordnet ist, wobei auf mindestens einer der beiden Flächen eine schwach lichtstreuende Mikrostruktur aufgebracht ist. Dann kann beliebig oft die Einmessung kontrolliert und gegebenenfalls korrigiert werden, beispielsweise beim Auftreten von Temperaturänderungen. Auch ist es möglich, die Anordnung zu kapseln und ther misch durch eine Temperaturregelung zu stabilisieren, um ein temperaturbedingtes Driften der Phasenlagen zu verhindern. Auch ist zum Einmessen die Verwendung einer Anordnung mit zwei parallel angeordneten transparenten Platten mit Luftspalt im Raum des Objektes möglich, wobei der Luftspalt konstant und bekannt ist.It is also advantageous for measuring and checking the 3D recording arrangement that a transparent plate as a permanent one Reference plate perpendicular to the axis at close range in the object space for self measurement Solution is assigned, with a weak on at least one of the two surfaces light-scattering microstructure is applied. Then the measurement can be carried out as often as required checked and corrected if necessary, for example when Temperature changes. It is also possible to encapsulate the arrangement and ther to stabilize mix by a temperature control to a temperature-related To prevent the phase drifts. The use is also for calibration an arrangement with two transparent plates with an air gap arranged in parallel possible in the space of the object, the air gap being constant and known.
Grundsätzlich können die mit einer Referenzplatte gemessenen relativen Phasenwerte ϕRR in einer Referenzphasen-Matrix abgelegt werden und zur Berechnung der Objektkoordinaten genutzt werden, auch wenn die Referenzplatte bereits wieder entfernt ist.In principle, the relative phase values ϕ RR measured with a reference plate can be stored in a reference phase matrix and used to calculate the object coordinates, even if the reference plate has already been removed.
Es ist auch möglich, Verzeichnungen der Objektive, und Justierfehler der Anordnung als Phasenbeträge über die Raumkoordinaten zu ermitteln und zu speichern und bei Bedarf zur Korrektur zu verwenden.It is also possible to get distortion of the lenses, and misalignment of the arrangement to determine and store as phase amounts via the spatial coordinates and at Need to use for correction.
Die beschriebene Vorgehensweise gestattet grundsätzlich die zeitoptimale Auswertung auf der Basis von straight formrard-Algorithmen. Diese Algorithmen können in speziellen Hochgeschwindigkeits-Prozessoren implementiert werden, wo durch eine Echtzeitauswertung von bewegten Objekten und Personen möglich wird.The procedure described basically allows the optimal time Evaluation based on straight formrard algorithms. These algorithms can be implemented in special high-speed processors where through real-time evaluation of moving objects and people.
Für ein optimales Signal-Rausch-Verhältnis in den Signalen kann die Helligkeit der Lichtquelle in Abhängigkeit von der Position des Sender-Arrays gesteuert werden. Für die Anpassung an das lateral unterschiedliche Reflexionsvermögen in den ein zelnen Objektpunkten kann dagegen in einem elektronisch steuerbaren Sender- Array die Lichtintensität pixelweise objektorientiert angepaßt werden. Dabei kann das elektronisch steuerbare Sender-Array lateral bewegt werden, um die Phase zu ändern, aber auch lateral feststehen und elektronisch durch Verschieben der Gitter linien eine Phasenänderung erzeugen, beispielsweise mit konstanter Phasengeschwindigkeit.For an optimal signal-to-noise ratio in the signals, the brightness of the Light source can be controlled depending on the position of the transmitter array. For the adaptation to the laterally different reflectivity in the one individual object points, on the other hand, can be Array the light intensity can be adjusted pixel-by-pixel in an object-oriented manner. It can the electronically controllable transmitter array is moved laterally to phase change, but also laterally fixed and electronically by moving the grid lines produce a phase change, for example with a constant Phase velocity.
Weiterhin kann die Lichtstärke der Objektive verändert werden. Es kann abgeblen det werden, um den Schärfentiefebereich beispielsweise bei schnellen Orientierungsmessungen vergrößern zu können. Dies verringert die Anzahl der not wendigen Bilder, verringert aber auch die Tiefenmeßgenauigkeit. Um dagegen den Schärfentiefebereich verkleinern zu können, werden eine oder zwei Apodisations blenden angeordnet, eine in der Austrittspupille des Beleuchtungsobjektivs und eine in der Eintrittspupille des Abbildungsobjektivs also jeweils im Raum des Objektes. Diese Blenden sind so gestaltet, daß die achsnahen Strahlen geschwächt oder aus geblendet werden, um eine stärkere Wirkung der Randstrahlen zu erreichen. Es sind die aus der Spektroskopie bekannten Apodisationsfunktionen, beispielsweise Rechteck, Dreieck- oder Gaußfunktion einsetzbar.The light intensity of the lenses can also be changed. It can drop off det to the depth of field, for example, at fast To be able to enlarge orientation measurements. This reduces the number of emergencies agile images, but also reduces the depth measurement accuracy. To the contrary To be able to reduce the depth of field becomes one or two apodizations arranged diaphragm, one in the exit pupil of the lighting lens and one in the entrance pupil of the imaging lens in each case in the space of the object. These diaphragms are designed so that the rays close to the axis are weakened or out be dazzled in order to achieve a stronger effect of the marginal rays. It are the apodization functions known from spectroscopy, for example Rectangle, triangle or Gaussian function can be used.
Andererseits kann in bestimmten Fällen, beispielsweise für die besonders schnelle 3D-Aufnahme, auch ein Bewegungssystem mit einem rotatorischen Antrieb zur kon tinuierlichen, rotatorischen Bewegung eines Sender-Arrays, vorzugsweise in der Art eines Radialgitters mit mindestens einer Referenzmarke, angeordnet sein, wobei ein Ausschnitt des Radialgitters das Feld des Beleuchtungsobjektivs vollständig ausfüllt. Dem Radialgitter ist ein Gegengitter zur phasenmäßigen Abtastung zugeordnet, wel ches die Gegenstruktur zur Abtastung enthält, sowie die Beleuchtung, ein Optikmo dul und die Auswerte-Elektronik mit Rechnerschnittstelle. Auch auf dem Gegengitter befindet sich außerdem noch eine Referenzmarke für das Gewinnen mindestens ei nes hochgenauen Nullpunkt-Signals.On the other hand, in certain cases, for example for the particularly fast 3D recording, also a movement system with a rotary drive for con continuous, rotary movement of a transmitter array, preferably in the manner of a radial grid with at least one reference mark, wherein a Detail of the radial grid completely fills the field of the lighting lens. The radial grating is assigned a counter-grating for phase sampling, wel ches contains the counter structure for scanning, as well as the lighting, an Optikmo dul and the evaluation electronics with computer interface. Also on the counter grid there is also a reference mark for winning at least one egg high-precision zero point signal.
Weiterhin weist dieses Bewegungssystem eine Linearführung auf, die den rotatori schen Antrieb zur vorzugsweise kontinuierlichen rotatorischen Bewegung des Sender-Arrays und das Empfänger-Array trägt. Die Bewegungsrichtung der Linear führung liegt parallel zur optischen Achse des Abbildungsobjektivs in zA-Richtung. Durch die Kopplung des Radialgitters mit einem rotatorischen Antrieb wird erreicht, daß das Sender-Array einen kontinuierlichen Lauf erfährt, der durch die phasenmä ßige Abtastung hochgenau geregelt werden kann. Als nicht ganz optimal erweist sich bei dieser Lösung, daß wegen der Struktur des Radialgitters eine gewisse Va riation der Gitterkonstante entlang der Koordinate χA auftritt. Für Radialgitter mit ei nem vergleichsweise großen Durchmesser zum Feld des Abbildungsobjektivs ist diese Tatsache in Verbindung mit numerischen Korrekturmethoden akzeptierbar. Dies wird hier im Einzelnen jedoch nicht weiter dargestellt.Furthermore, this movement system has a linear guide which carries the rotary drive for preferably continuous rotary movement of the transmitter array and the receiver array. The direction of movement of the linear guide is parallel to the optical axis of the imaging lens in the z A direction. The coupling of the radial grid with a rotary drive ensures that the transmitter array undergoes a continuous run, which can be controlled with high precision by the phase-based scanning. It turns out to be not quite optimal in this solution that a certain variation of the lattice constant along the coordinate χ A occurs because of the structure of the radial lattice. For radial gratings with a comparatively large diameter to the field of the imaging lens, this fact is acceptable in connection with numerical correction methods. However, this is not shown in detail here.
Es ist grundsätzlich möglich, für das Beleuchtungs- und das Abbildungsobjektiv Zoom-Objektive einzusetzen, die jeweils mit der gleichen Brennweiteneinstellung arbeiten.It is basically possible for the lighting and imaging lens Use zoom lenses, each with the same focal length setting work.
Um vom Sender-Array weit geöffnete Strahlenbündel ausgehen zu lassen, kann das Sender-Array mit einem speziellen Mikrolinsen-Array gekoppelt sein, beispielsweise kann dieses Mikrolinsen-Array dem Sender-Array in Lichtrichtung vorgeordnet sein. Es ist auch möglich, das Sender-Array selbst als Zylinderlinsen-Array hoher Apertur auszuführen.In order to let beams of rays open wide from the transmitter array, this can be done Transmitter array can be coupled to a special microlens array, for example This microlens array can be arranged upstream of the transmitter array in the direction of light. It is also possible to use the transmitter array itself as a high-aperture cylindrical lens array to execute.
Der Vorgang der Aufnahme von mehreren Bildern mit bewegten Arrays wird auch als Tiefen-Scannen bezeichnet.The process of taking multiple pictures with moving arrays is also referred to as deep scanning.
Die Kontrolle der Parallelität der optischen Achsen der beiden Objektive kann mit Hilfe des Vergleichs der Phasenlagen zwischen der Phase des am Sender-Array ab genommenen Signals und der Phase, die im Signal in einem Bildpunkt auf der opti schen Achse des Abbildungsobjektivs detektiert werden kann, erfolgen, wenn eine Referenzplatte dabei in der Tiefe verschoben wird und der Verschiebeweg dabei ge messen wird.The parallelism of the optical axes of the two lenses can be checked with Using the comparison of the phase positions between the phase of the transmitter array taken signal and the phase in the signal in a pixel on the opti rule of the imaging lens can be detected, if a The reference plate is shifted in depth and the displacement path is ge will measure.
Es ist mit einem elektronisch gesteuerten Sender-Array möglich, die durch Telezen triefehler des Beleuchtungsobjektivs beim Tiefen-Scannen auftretenden Phasenfeh ler durch Dehnen oder Stauchen des elektronisch gesteuerten Sender-Arrays auszugleichen.It is possible with an electronically controlled array of transmitters through Telezen drifting error of the illumination lens during phase scanning by stretching or compressing the electronically controlled transmitter array balance.
Für das Einmessen und Kontrollieren der Tiefenempfindlichkeit der Anordnung kann eine Stiftplatte verwendet werden. Die Stifte sind sehr präzise und fest an einer Trä gerplatte in einem bekannten Raster befestigt und weisen bezogen auf die Träger platte zwei unterschiedliche, aber bekannte Stiftlängen auf. Die Abstände der Stifte sind so groß gewählt, daß in einem bestimmten Entfernungsbereich der Platte von der Anordnung auf den Stirnflächen der Stifte keine Abschattung auftritt. So werden zwei Ebenen mit einem sehr genau bekannten Abstand dargestellt. Dieser Abstand kann mit einer hochgenauen Koordinaten-Meßmaschine vermessen werden. In ver schiedenen Abständen der Platte von der Anordnung kann so die Tiefenempfindlich keit dieser Anordnung, aber auch die Verzeichnungen der Objektive bestimmt werden.For measuring and checking the depth sensitivity of the arrangement a pin plate can be used. The pens are very precise and firmly attached to a bracket gerplatte attached in a known grid and point based on the carrier plate two different but known pin lengths. The spacing of the pens are chosen so large that in a certain distance range of the plate from the arrangement on the end faces of the pins no shadowing occurs. So be two levels are shown with a very well-known distance. This distance can be measured with a high-precision coordinate measuring machine. In ver Different distances of the plate from the arrangement can make the depth sensitive speed of this arrangement, but also the distortion of the lenses become.
Außerdem kann in dieser Art eine Platte mit nur einer einzigen Stiftlänge hergestellt werden. Auch ist die Verwendung einer Mehrebenenplatte mit verschiedenen Stift längen möglich und kann zur Einmessung der Anordnung mit Vorteil verwendet werden.In addition, a plate with only a single pin length can be produced in this way become. Also the use of a multi-level plate with different pen lengths possible and can be used to measure the arrangement with advantage become.
Mit einer Doppel-Sphären-Stift-Platte, bei der die planen oder sphärischen Stirnflä chen dünner Stifte zwei konzentrische Sphären darstellen, kann die Formmeßge nauigkeit der 3D-Aufnahme-Anordnung in verschieden Abständen getestet werden.With a double-spherical pin plate, in which the flat or spherical end faces Chen thin pins represent two concentric spheres, the Formmeßge accuracy of the 3D recording arrangement can be tested at different intervals.
Auch die Verwendung einer Ein-Sphären-Stift-Platte kann mit Vorteil genutzt wer den. Diese ist bei der Verwendung der Anordnung in einer Koordinaten- Meßeinrichtung sinnvoll, um die lateralen Koordinaten der 3D-Aufnahme-Anordnung bestimmen zu können. Auch eine fest in einer Koordinaten-Meßeinrichtung angeord nete Planplatte kann für das Einmessen der 3D-Aufnahme-Anordnung sehr vorteil haft sein.The use of a single-sphere pin plate can also be used to advantage the. This is when using the arrangement in a coordinate Measuring device useful to the lateral coordinates of the 3D recording arrangement to be able to determine. Also arranged in a coordinate measuring device Nete plane plate can be very advantageous for measuring the 3D recording arrangement be clingy.
Um sehr große Objekte teilweise oder rundum vermessen zu können, wird aus einer größeren Zahl von 3D-Aufnahme-Anordnungen ein Schirm beispielsweise ver gleichbar mit einem Himmel in einem Planetarium, aufgebaut. Die 3D-Aufnahme- Anordnungen stellen dann 3D-Meßmodule dar, die in großer Anzahl als 3D-Video-Sensoren eingesetzt werden können. Auch ist es möglich, daß dieser Schirm näherungsweise die Grobform des zu vermessenden Objektes, beispielswei se die Form einer kompletten Automobilkarosserie, aufweist. Die erfaßten Objekt räume der 3D-Aufnahme-Anordnungen überdecken sich teilweise. Das Einmessen kann durch mehrere Referenzkörper, auch Planplatten, gegebenenfalls mit Marken erfolgen, die gleichzeitig von zwei 3D-Aufnahme-Anordnungen im Überdeckungsbe reich erfaßt werden.In order to be able to measure very large objects partially or all around, a A larger number of 3D recording arrangements, for example, a screen similar to a sky in a planetarium. The 3D recording Arrangements then represent 3D measuring modules, which in large numbers as 3D video sensors can be used. It is also possible that this Screen approximately the rough shape of the object to be measured, for example se in the form of a complete automobile body. The captured object 3D imaging arrangements partially overlap. The calibration can be made using several reference bodies, including flat plates, possibly with marks take place simultaneously from two 3D recording arrangements in the covering area be grasped richly.
Auch ist es möglich, daß mehrere 3D-Aufnahme-Anordnungen nebeneinander so positioniert sind, daß sich ein Objekt oder eine Szene vollständig oder in einem gro ßen Bereich erfassen läßt, wobei sich die erfaßten Bereiche im Raum des Objektes der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt mit einer jeweils an dersfarbigen Lichtquelle ab. Dann beleuchten beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt mit rotem Licht und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Posi tionsnummer das Objekt mit grünem Licht. Im Abbildungsstrahlengang der 3D-Aufnahme-Anordnungen befinden sich entsprechend schmalbandige Filter, die nur das Licht der eigenen Lichtquelle passieren lassen. Denkbar sind auch mehrere Lichtfarben, wodurch mehr als zwei 3D-Aufnahme-Anordnungen den gleichen Teil des Objektes erfassen können.It is also possible that several 3D recording arrangements next to each other are positioned that an object or scene is complete or in a large size ß area can be detected, the detected areas in the space of the object partially of the 3D recording arrangements positioned directly next to each other cover up. However, there is no overlap with the next but one 3D recording arrangement taking place. The positioned next to each other 3D recording arrangements illuminate and form the object with one each the colored light source. Then, for example, illuminate the 3D recording arrangements with an even number of the object with red light and the 3D recording arrangements with an odd posi the object with the green light. In the imaging beam path the 3D recording arrangements are correspondingly narrow-band filters that just let the light from your own light source pass through. Several are also conceivable Light colors, making more than two 3D imaging arrangements the same part of the object.
Weiterhin können mehrere Beleuchtungsobjektive einem Abbildungsobjektiv zuge ordnet sein, beispielsweise zwei. Dabei kann jedem Beleuchtungsobjektiv eine an dersfarbige Lichtquelle zugeordnet sein, beispielsweise dem ersten eine rote und dem zweiten eine grüne. Dem Abbildungsobjektiv ist ein mechanisch oder elektro nisch schaltbares Filter zugeordnet, um jeweils nur Licht einer einzigen Lichtquelle auf den Bildempfänger gelangen zu lassen.Furthermore, several illumination lenses can be assigned to one imaging lens be ordered, for example two. Each lighting lens can have one the colored light source can be assigned, for example a red and the first the second a green one. The imaging lens is mechanical or electrical nisch switchable filter assigned to only light from a single light source to get to the image receiver.
Andererseits kann auch eine farbtüchtige Kamera angeordnet sein, um gleichzeitig das strukturierte Licht aus den beiden Beleuchtungsobjektiven getrennt zu verarbei ten. So können verschiedene Beleuchtungsrichtungen im Raum des Objektes reali siert werden, um beispielsweise direkte Reflexe von einem speziellen Objektdetail wenigstens bei einer Aufnahme nicht auftreten zu lassen. Auch werden die Schatten der jeweils anderen Aufnahme ausgeleuchtet und so können auch diese Objektteile sichtbar gemacht werden.On the other hand, a color camera can also be arranged to simultaneously to process the structured light from the two lighting lenses separately Different lighting directions in the space of the object can be realized be, for example, direct reflections from a special object detail not to appear at least during a recording. The shadows too the other picture is illuminated and so can these object parts be made visible.
Möglich ist Trennung der Bilder von verschiedenen Beleuchtungsobjektiven auch mittels drehbarer Polarisatoren und der Verwendung von polarisiertem Licht.It is also possible to separate the images from different lighting lenses using rotating polarizers and the use of polarized light.
Für die Farb-Aufnahmetechnik mit farbsensitiven Bildaufnehmern ist dagegen fol gendes möglich: Beleuchtet wird mit weißem Licht. Mehrere 3D-Aufnahme-Anordnungen sind so positioniert, daß sich ein Objekt oder eine Sze ne vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereich oder Winkel-Bereiche im Raum des Objektes der unmittelbar nebeneinan der positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es fin det keine Überdeckung der mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt zu jeweils unterschiedlichen Zeiten ab. Zu diesem Zweck sind alle 3D-Aufnahme-Anordnungen von einer Leitstelle aus synchronisiert, so daß das Aufnehmen von Bildern auch synchron erfolgt. Dann erfassen beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt im Hinlauf der bewegten Arrays und die 3D-Aufnahme-Anordnungen mit einer unge radzahligen Positionsnummer das Objekt im Rücklauf der bewegten Arrays und die Objekte sind nur beleuchtet, wenn jeweils die Aufnahme von Bildern erfolgt.For color recording technology with color-sensitive image sensors, however, fol Possible: Illuminated with white light. Several 3D imaging arrangements are positioned so that an object or scene ne can be recorded completely or in a large area, the recorded Area or angular areas in the space of the object immediately next to each other partially cover the positioned 3D recording arrangements. However, it fin there is no overlap of those with the next but one 3D recording arrangement. Illuminate the 3D recording arrangements positioned next to each other and depict the object at different times. For this purpose all 3D recording arrangements synchronized from a control center, so that the Taking pictures is also done synchronously. Then, for example, capture the 3D recording arrangements with an even number of the object in the direction of the moving arrays and the 3D recording arrangements with an un wheel numbered item number the object in the return of the moving arrays and the Objects are only illuminated when pictures are taken.
Bei Verwendung einer farbtüchtigen Kamera als Bildaufnehmer sind vorzugsweise die jeweils zusammengehörenden farblich sensitiven Elemente, auch als RGB- Sensoren bekannt, linienförmig und in Richtung der Streifen des Liniengitters, also auf Linien gleicher Phase, angeordnet. Dadurch wird erreicht, daß es keine farblich bedingten Phasenlagen in den Signalen gibt. Dagegen kann die Phase zwischen den RGB-Sensoren objektbedingt durchaus verschieden sein.When using a color-capable camera as an image sensor are preferred the color-sensitive elements that belong together, also as RGB Known sensors, linear and in the direction of the stripes of the line grid, that is arranged on lines of the same phase. This ensures that there is no color conditional phase positions in the signals there. In contrast, the phase between the RGB sensors may be quite different depending on the object.
Weiterhin ist es auch möglich, daß ein Roboterarm eine einzige 3D-Aufnahme- Anordnung über das Objekt führt und die Daten nacheinander eingelesen werden. Durch Überdeckung der erfaßten Bereiche der Objektoberfläche erfolgt ein "Weiter hangeln" über die Objektoberfläche, welches grundsätzlich ohne das Vorhandensein von Bezugsmarken auf der Objektoberfläche möglich ist.Furthermore, it is also possible for a robot arm to take a single 3D image Arrangement over the object leads and the data are read in successively. By covering the detected areas of the object surface, a "Next" takes place shimmy "over the surface of the object, which is basically without the presence of reference marks on the object surface is possible.
Es ist machbar, daß das Abbildungsobjektiv fest angeordnet ist und mindestens ein Beleuchtungsobjektiv gemeinsam mit dem Sender-Array und der kompletten Be leuchtungsanordnung um das Abbildungsobjektiv drehbar oder schwenkbar an geordnet ist, wobei vorteilhafterweise die Drehachse des Beleuchtungsobjektivs die optische Achse des Abbildungsobjektivs darstellen kann. Damit ist eine Beleuchtung des Objektes aus verschiedenen Richtungen möglich, um Schatten zu eliminieren. Die Drehbewegung wird rechnergesteuert.It is feasible for the imaging lens to be fixed and at least one Lighting lens together with the transmitter array and the complete Be lighting arrangement rotatable or pivotable about the imaging lens is arranged, advantageously the axis of rotation of the illumination lens can represent the optical axis of the imaging lens. This is lighting of the object from different directions to eliminate shadows. The rotation is computer controlled.
Vorteilhaft ist es, wenn zu Beginn eines 3D-Aufnahmeverfahrens in einem Bildauf nahmevorgang ein erster Datensatz gewonnen und gespeichert wird und die errech neten Objektpunkte eliminiert werden, die eine Abweichung vom Modulationsmaxi mum aufweisen. Anschließend kann das Sender-Array um einen Bruchteil der Git terperiode verschoben werden und mindestens ein zweiter Datensatz aufgenommen und gespeichert wird, wobei die errechneten Werte ebenfalls eliminiert werden, die sich nicht in unmittelbarer Lage des Modulationsmaximums befinden. Aufgrund der durch die Gitterverschiebung im Bruchteil der Gitterperiode erfolgten Phasen änderung sind die errechneten Objektpunkte der ersten Messung mit denen der zweiten Messung nicht identisch, so daß eine vollständige Erfassung der Mehrzahl der Objektpunkte erreicht wird.It is advantageous if at the beginning of a 3D recording process in an image a first data record is obtained and saved and the computed Object points that deviate from the maximum modulation are eliminated have mum. The transmitter array can then be moved by a fraction of the git ter period are postponed and at least one second data record added and is stored, the calculated values also being eliminated, the are not in the immediate position of the maximum modulation. Due to the phases caused by the lattice shift in a fraction of the lattice period Change are the calculated object points of the first measurement with those of the second measurement is not identical, so that a complete detection of the majority the object points is reached.
Vorzugsweise entspricht die oben beschriebe Verschiebung des Sender-Arrays dem Betrag der viertel Gitterperiode.The displacement of the transmitter array described above preferably corresponds to this Amount of the quarter grid period.
Auch ist es möglich, daß sich vor der 3D-Aufnahme-Anordnung ein schwenkbarer Planspiegel befindet, der in den Strahlengang geschwenkt werden kann und so eine fest angeordnete Referenzplatte vermißt und nach erfolgter Vermessung der Plan spiegel zurückgeschwenkt wird.It is also possible that there is a swivel in front of the 3D recording arrangement Plane mirror is located, which can be pivoted into the beam path and so one fixed reference plate is missing and after measuring the plan mirror is pivoted back.
Weiterhin ist für eine Hochleistungs-3D-Aufnahme-Anordnung, ein Netzwerk aus Sender- und Empfänger-Arrays mit den bereits beschriebenen zugehörigen Kompo nenten aufgebaut. Es ist von Vorteil, wenn beispielsweise neun Empfänger-Arrays in einer 3 × 3-Matrix angeordnet und im Feld der 3 × 3-Matrix vier Sender-Arrays in ei ner 2 × 2-Matrix angeordnet werden, wobei sich die Sender-Arrays auf den Diagona len der 3 × 3-Matrix befinden. Damit ist ein Empfänger-Array als Zentral-Empfänger angeordnet. Weiterhin sind die Sender-Arrays als Liniengitter ausgebildet und die Li nien sind vorzugsweise parallel zu den Außenlinien der 3 × 3-Matrix-Anordnung. Den Sender- und Empfänger-Arrays sind die Beleuchtungs- und Abbildungsobjekti ve in paralleler Achslage zugeordnet und die Hauptebenen der Objektive liegen nä herungsweise in einer gemeinsamen Ebene. Für das Bewegen der Empfänger- und Sender-Arrays in Richtung der optischen Achse ist vorzugsweise eine zentrale erste Linearführung zugeordnet. Für das Bewegen der Sender-Arrays in lateraler Richtung der optischen Achse kann eine ebenfalls zentrale, zweite Linearführung angeordnet sein, die eine Bewegung parallel zu den Außenkanten der 3 × 3-Matrix ausführt. Auch kann grundsätzlich jedem Array ein eigenes Linearführungssystem zugeordnet werden.Furthermore, a network is made for a high-performance 3D recording arrangement Sender and receiver arrays with the associated compo already described built up. It is advantageous if, for example, nine receiver arrays in a 3 × 3 matrix arranged and in the field of 3 × 3 matrix four transmitter arrays in egg ner 2 × 2 matrix can be arranged, with the transmitter arrays on the Diagona len of the 3 × 3 matrix. This makes a receiver array as a central receiver arranged. Furthermore, the transmitter arrays are designed as line gratings and the Li lines are preferably parallel to the outer lines of the 3 × 3 matrix arrangement. The transmitter and receiver arrays are the lighting and imaging objects ve assigned in a parallel axis position and the main planes of the lenses are next approximately on a common level. For moving the receiver and Transmitter arrays in the direction of the optical axis is preferably a central first Linear guide assigned. For moving the transmitter arrays in the lateral direction A central, second linear guide can also be arranged on the optical axis be that makes a movement parallel to the outer edges of the 3 × 3 matrix. In principle, each array can also be assigned its own linear guide system become.
Es sind ebenfalls Anordnungen auf der Basis von Dreiecken möglich, wobei sich im Flächenzentrum der Dreiecke die Sender und auf den Eckpunkten die Empfänger- Arrays befinden. Auch hier ergibt sich eine empfängerzentrierte Anordnung mit ins gesamt sieben Empfänger-Arrays und sechs Sender-Arrays.Arrangements based on triangles are also possible Area center of the triangles the transmitters and on the corner points the receiver Arrays. Here too there is a receiver-centered arrangement with ins a total of seven receiver arrays and six transmitter arrays.
Grundsätzlich sind auch senderzentrierte 3D-Aufnahme-Anordnungen möglich. In allen Fällen werden die Bewegungen und Bildaufnahmen von einem Leitsystem koordiniert und durch zugeordnete Prozessoren verarbeitet. Das gewonnene Bilddaten-Massiv wird schließlich in eine 3D-Punktwolke umgerechnet, wobei die Redundanz im System zur Verbesserung durch Mittelwertbildung genutzt werden kann.In principle, transmitter-centered 3D recording arrangements are also possible. In In all cases, the movements and images are recorded by a control system coordinated and processed by assigned processors. The won Image data massif is finally converted into a 3D point cloud, the Redundancy in the system can be used for improvement through averaging can.
Die Anzahl der verwendeten Sender- und Empfänger-Arrays ist nur durch die techni schen Möglichkeiten und die damit verbundenen Kosten begrenzt. So können ver gleichsweise große Netzwerke mit sehr vielen kleinen 3D-Aufnahme-Anordnungen aufgebaut werden, die jeweils eine hohe Tiefenauflösung in einem vergleichsweise kleinen Objektfeld besitzen und so das Objekt senkrecht, in der Art eines Nadelkis sens, detektieren, wobei es praktisch keine Lücken bei der Erfassung der Objekto berfläche gibt. Eine derartiges Netzwerk kann in einer 3D-Koordinaten-Meßmaschine für die Inspektion filigraner, reliefartiger Strukturen, die auch Durchbrüche aufweisen können, mit Vorteil eingesetzt werden.The number of transmitter and receiver arrays used is only due to the techni possibilities and the associated costs. So ver equally large networks with a large number of small 3D image arrangements be built, each with a high depth resolution in a comparative manner have a small object field and thus the object vertically, in the manner of a needle ski sens, detect, with practically no gaps in the detection of the object surface there. Such a network can be in a 3D coordinate measuring machine for the inspection of filigree, relief-like structures, which can also have openings can be used with advantage.
Den Netzwerken aus Sender- und Empfänger-Arrays können neuronale Netze zur Auswertung der optischen Primärdaten zugeordnet sein. The networks of transmitter and receiver arrays can be used for neural networks Evaluation of the optical primary data can be assigned.
In der Fig. 1 werden die Anordnung und das Verfahren dargestellt. Es wird zwi schen dem Raum der Arrays und dem Raum des Objektes unterschieden. Es wird die folgende Notation verwendet, die von der üblichen abweicht, aber bei dieser opti schen Schaltung sich als vorteilhaft für die Beschreibung erwiesen hat: Die Größen und Punkte des Raumes der Arrays werden an erster Stelle mit A indiziert und die Größen und Punkte des Raumes des Objektes mit O. An zweiter Stelle im Index wird das zugehörige Objektiv gekennzeichnet und zwar im Falle der Zugehörigkeit zum Beleuchtungsobjektiv mit B und im Falle der Zugehörigkeit zum Abbildungsob jektiv mit A.In FIG. 1, the arrangement and the method are represented. A distinction is made between the space of the arrays and the space of the object. The following notation is used, which differs from the usual one, but has proven to be advantageous for the description in this optical circuit: The sizes and points of the space of the arrays are first indicated with A and the sizes and points of the space of the object with O. In the second position in the index, the associated lens is identified, namely with B if it belongs to the lighting lens and with A if it belongs to the imaging lens.
im Raum der Arrays befinden sich ein Liniengitter mit der Gitterkonstante p und eine vorgeordnete Beleuchtung. Das Liniengitter ist dem Beleuchtungsobjektiv mit einem streng telezentrischen Strahlengang im Raum der Arrays achssenkrecht und extra fokal zugeordnet. Das Beleuchtungsobjektiv bildet das Liniengitter in den Raum des Objektes ab, wodurch eine strukturierte Beleuchtung des Objektes entsteht. Zur Ver einfachung sind die beiden Hauptebenen des Beleuchtungsobjektivs HAB und HOB in der Zeichnung zusammengelegt. Bei realen Objektiven dieser Klasse liegen die bei den Hauptebenen weit auseinander.In the space of the arrays there is a line grating with the grating constant p and an upstream lighting. The line grating is assigned to the lighting lens with a strictly telecentric beam path in the space of the arrays, perpendicular to the axis and extra focal. The lighting lens reproduces the line grid in the space of the object, creating a structured lighting of the object. To simplify the two main planes of the lighting lens H AB and H OB are merged in the drawing. In real lenses of this class, the main planes are far apart.
Im Raum der Arrays ist eine Empfänger-Matrix dem Abbildungsobjektivs mit einem ebenfalls streng telezentrischen Strahlengang im Raum der Arrays achssenkrecht und extrafokal zugeordnet. Das Abbildungsobjektiv bildet das Objekt in den Raum der Arrays ab. Ein einzelner Abbildungsstrahl ist dargestellt. Zur Vereinfachung sind die beiden Hauptebenen des Abbildungsobjektivs HAA und HOA ebenfalls in der Zeichnung zusammengelegt.In the area of the arrays, a receiver matrix is assigned to the imaging lens with a likewise strictly telecentric beam path in the area of the arrays, perpendicular to the axis and extrafocal. The imaging lens depicts the object in the space of the arrays. A single imaging beam is shown. To simplify the two main planes of the imaging lens H AA and H OA are also merged in the drawing.
Das Beleuchtungs- und das Abbildungsobjektiv sind mit ihren optischen Achsen zu einander parallel mit dem Achsenabstand d angeordnet. Das Beleuchtungs- und das Abbildungsobjektiv weisen die array-seitigen Brennpunkte FAB und FAA und im Raum des Objektes die Brennpunkte FOB und FOA auf.The illuminating and imaging objectives are arranged with their optical axes parallel to one another with the center distance d. The illumination and the imaging lens have the focal points F AB and F AA on the array side and the focal points F OB and F OA in the space of the object.
Die hier nicht dargestellte erste Linearführung des Bewegungssystems ist mit der Empfänger-Matrix starr verbunden und trägt eine zweite hier ebenfalls nicht darge stellte kleinere Linearführung, die wiederum das Liniengitter trägt. Dieses Liniengitter ist deutlich länger ausgeführt als es dem vom Beleuchtungsobjektiv erfaßten Bildfeld entspricht, um im gesamten Bewegungsvorgang stets das gesamte Bildfeld zu überdecken.The first linear guide of the movement system, not shown here, is with the Receiver matrix rigidly connected and also does not carry a second here put smaller linear guide, which in turn carries the line grid. This line grid is significantly longer than the image field captured by the lighting lens corresponds to always the entire image field in the entire movement process cover up.
Die erste Linearführung ist mit einem hochgenauen Längen-Meßsystem verbunden, welches einen hochstabilen Nullpunkt aufweist. Die Bewegungsachse der ersten Li nearführung ist parallel zu den Objektivachsen und die Meßachse des Längen- Meßsystems liegt dabei parallel zu den beiden Objektivachsen. Die Bewegungsrich tung der zweiten Linearführung liegt senkrecht zu den Objektivachsen.The first linear guide is connected to a highly precise length measuring system, which has a highly stable zero point. The movement axis of the first Li near guidance is parallel to the objective axes and the measuring axis of the Measuring system is parallel to the two lens axes. The movement direction The second linear guide is perpendicular to the objective axes.
Dem Liniengitter auf der zweiten Linearführung ist ein mit der ersten Linearführung fest verbundenes Gegengitter mit einer kompletten Beleuchtungs- und Empfänger- Optik in der Art eines inkrementalen Längenmeßsystems zugeordnet. Die vorhan dene Auswerte-Elektronik weist eine elektronische Schnittstelle zum Rechner auf, um die berechnete Verschiebung des Liniengitters als Phaseninformation in Echtzeit im Rechner zur Vertilgung zu haben. Gleichzeitig ist auf 16199 00070 552 001000280000000200012000285911608800040 0002019846145 00004 16080dem Liniengitter im Teil au ßerhalb des genutzten Bildfeldes eine erste Referenzstruktur aufgebracht, die von einer zweiten Referenzstruktur, die ebenfalls auf dem Gegengitter aufgebracht ist, optisch abgetastet wird. Auch dabei ist die Beleuchtungs- und Empfänger-Optik bei geordnet und eine Auswerte-Elektronik vorhanden. Die zweite Auswerte-Elektronik weist ebenfalls eine elektronische Schnittstelle zum Rechner auf, um das Durchfah ren des Nullpunktes des Liniengitters in Echtzeit im Rechner zur Verfügung zu haben.The line grid on the second linear guide is one with the first linear guide firmly connected counter grid with a complete lighting and receiver Optics assigned in the manner of an incremental length measuring system. The existing The evaluation electronics have an electronic interface to the computer, around the calculated shift of the line grid as phase information in real time to have in the computer for extinction. At the same time on 16199 00070 552 001000280000000200012000285911608800040 0002019846145 00004 16080 A first reference structure is applied outside the image field used a second reference structure, which is also applied to the counter grid, is optically scanned. The lighting and receiver optics are also included orderly and evaluation electronics available. The second evaluation electronics also has an electronic interface to the computer for the passage The zero point of the line grid is available in real time in the computer to have.
Beide Linearführungen des Bewegungssystems starten aus der Nullposition heraus. Die Bewegungsrichtung der ersten Linearführung ist parallel zur optischen Achse des Abbildungsobjektivs ausgerichtet. Die Bewegung erfolgt zu den Brennpunkten. Der kleineren zweiten Linearführung, die das Liniengitter trägt, ist ein Positions- Regelsystem zugeordnet, um eine Bewegung des Liniengitters mit einer möglichst konstanten Phasengeschwindigkeit realisieren zu können. Die Bewegungsrichtung der zweiten Linearführung ist senkrecht zur optischen Achse des Beleuchtungsob jektiv und erfolgt nach dem Start in Richtung des Beleuchtungsobjektivs.Both linear guides of the motion system start from the zero position. The direction of movement of the first linear guide is parallel to the optical axis of the imaging lens. The movement takes place to the focal points. The smaller second linear guide that supports the line grid is a position Control system assigned to a movement of the line grid with a possible to be able to realize constant phase velocity. The direction of movement the second linear guide is perpendicular to the optical axis of the lighting object jective and takes place after the start in the direction of the lighting lens.
Aus der aktuellen, absoluten Istphase des Liniengitters ϕGitter, die von einem Null punkt abgeleitet ist, werden die Sollwerte für die Position der ersten Linearführung errechnet. Dies erfolgt so, daß sich die Orte gleicher Phase oder Helligkeit auf dem Liniengitter parallel zu einer Geraden gA bewegen. Diese Gerade gA ist so definiert, daß sie den Brennpunkt FAB des Beleuchtungsobjektivs und außerdem den Haupt punkt HAA des Abbildungsobjektivs schneidet. Durch dieses Bewegungsregime wer den die achssenkrechten Ebenen des Raumes der Objekte von der Schärfefläche nacheinander "durchfahren", indem sich in jeder dieser Ebenen bei Vorhandensein einer Objektoberfläche ein vom Beleuchtungsobjektiv scharf abgebildetes Streifen muster beobachten läßt, welches durch das Abbildungsobjektiv auf die Empfänger- Matrix abgebildet wird. Durch das so realisierte Bewegen der Orte gleicher Phase oder Helligkeit auf dem Liniengitter parallel zu einer Geraden gA wird das sogenann te "Mitführen der Phase in der Schärfefläche erreicht. Dies führt dazu, daß jedes hinreichend kleine Objektdetail, im Raum des Objektes, wenn es von der Schärfeflä che "erfaßt" wird, ein moduliertes periodisches Signal im zugehörigen Pixel ij auf der Empfänger-Matrix erzeugt, in welchem die Information über die absolute Phase des Objektpunktes ϕObj_ij enthalten ist. Diese absolute Phase entspricht beispielsweise für den Objektpunkt AO2 in Fig. 1 der gedachten Anzahl der Streifen n, einschließ lich der Streifenbruchteile Δn, zwischen den beiden Objektiv-Achsen, also n + Δn. Diese Streifen sind im Fall einer ebenen, achssenkrecht angeordneten Platte direkt zu beobachten. Dennoch kann im allgemeinen die so zu beobachtende absolute Objektphase aufgrund der nicht genau bekannten Zuordnung der beiden optischen Achsen zu den Pixeln der Empfänger-Matrix nicht bestimmt werden.The setpoints for the position of the first linear guide are calculated from the current, absolute actual phase of the line grid ϕ grid , which is derived from a zero point. This is done in such a way that the locations of the same phase or brightness on the line grid move parallel to a straight line g A. This straight line g A is defined so that it intersects the focal point F AB of the illumination lens and also the main point H AA of the imaging lens. Through this movement regime, who passes through the plane of focus of the objects from the focus surface one after the other by observing in each of these planes, in the presence of an object surface, a stripe pattern sharply imaged by the illumination lens, which is imaged by the imaging lens onto the receiver matrix becomes. By moving the locations of the same phase or brightness on the line grid parallel to a straight line g A in this way , the so-called "carrying along of the phase in the focus area is achieved. This leads to the fact that every sufficiently small object detail, in the space of the object, if it is a modulated periodic signal is generated in the associated pixel ij on the receiver matrix, which contains the information about the absolute phase of the object point ϕ Obj_ij . This absolute phase corresponds, for example, for the object point A O2 in Fig. 1 n the imaginary number of the strips confining Lich the strip fractions .DELTA.n, between the two lens axes, that is n + .DELTA.n. These strips are in the case of a flat, axially perpendicular plate arranged to observe directly. generally Nevertheless, the thus observing absolute object phase due to the not exactly known assignment of the two optical axes to the pixels of the Receiver matrix cannot be determined.
Anhand der Fig. 1 läßt sich zeigen, daß in der Position AO1BO1 die Anzahl der Strei fen n + 1 + Δn, die zwischen den beiden Objektivachsen zu beobachten ist, genau der Anzahl n + 1 + Δn der Gitterperioden des Liniengitters im Raum der Arrays entspricht, die sich beim Zählen von der Achse des Beleuchtungsobjektivs in χAB-Richtung ergibt.On the basis of Fig. 1 it can be shown that in the position A O1 B O1, the number of Stripes fen n + 1 + .DELTA.n, which can be observed between the two lens axes, n exactly to the number + 1 + .DELTA.n the grating periods of the line grid in the Corresponds to the space of the arrays, which results when counting from the axis of the lighting lens in the χ AB direction.
Weiterhin definiert der Punkt GAB genau den Ort auf dem Gitterelement des Linien gitters, welcher beim Bewegen auf der Geraden gA im Teilbereich des Gitterinkre ments den Brennpunkt FAB des Beleuchtungsobjektivs schneidet. Demzufolge entspricht, die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene dem Abstand .Furthermore, the point G AB precisely defines the location on the grating element of the line grating, which intersects the focal point F AB of the illumination lens when moving on the straight line g A in the partial region of the grating increment. As a result, the absolute, laterally invariant object phase ϕ Obj of the plane perpendicular to the axis corresponds to the distance.
Bei Kenntnis des zugehörigen Punktes GAB auf dem Gitter und des Wertes χAB1 so
wie der Gitterkonstanten p läßt sich grundsätzlich die absolute, lateral invariante Ob
jektphase ϕObj der achssenkrechten Ebene im Raum des Objektes mit
With knowledge of the associated point G AB on the grid and the value χ AB1 and the grid constant p, the absolute, laterally invariant object phase ϕ Obj of the plane perpendicular to the axis in the space of the object can basically be determined
errechnen. Im Fall der Übereinstimmung der realen Lage der Objektivachse des Ab bildungsobjektivs mit der Geraden gO, die ja definitionsgemäß parallel zur Objektiv achse des Beleuchtungsobjektivs liegt, gelten die dargestellten Zusammenhänge nach Gleichung (7).calculate. If the real position of the lens axis of the imaging lens matches the straight line g O , which is by definition parallel to the lens axis of the lighting lens, the relationships shown in equation (7) apply.
Bevor die Messung, d. h. die Gewinnung der Punktwolke eines unbekannten Objek tes erfolgen kann, muß das System mit Hilfe einer Referenzplatte in einer achssenk rechten Position erfolgen. Dies erfolgt mit Vorteil in der Nahdistanz der 3D Aufnahme-Anordnung, kann aber auch in jeder anderen Entfernung im Erfas sungsbereich der 3D-Aufnahme-Anordnung erfolgen. Die in den Pixel der Empfänger-Matrix sich dabei ergebenden Signalverläufe werden gespeichert. Aus diesen Signalverläufen wird mit Hilfe eines phasenauswertenden Algorithmus, die re lative Referenzphase ϕRR_ij im Pixel ij des Empfänger-Arrays im Bereich des Modula tionsmaximums berechnet, welches ein Signal von der Referenzplatte erhält. Die so bestimmten relativen Referenzphasen mod 2π werden der absoluten Phase ϕGitter des Liniengitters zugeordnet, s. Fig. 2, und unter Beachtung des jeweiligen Vorzei chens von dieser subtrahiert und in einem Feld als Phasenwerte ϕGitterR_ij in der Re gel längerfristig gespeichert. Die relativen Objektphasen der Objektpunkte ϕRObj_ij mod 2π werden jeweils von der absoluten Phase ϕGitter des Liniengitters unter Beach tung des jeweiligen Vorzeichens von dieser subtrahiert, wodurch die Phasenwerte ϕGitterObj_ij als Feld entstehen. Aus diesen Feldern werden punktweise die Phasendif ferenzen ΔϕGitter_ij gebildet.Before the measurement, ie the extraction of the point cloud of an unknown object, can take place, the system must be carried out in a position on the right-hand axis using a reference plate. This is advantageously done in the near distance of the 3D recording arrangement, but can also be done at any other distance in the detection area of the 3D recording arrangement. The signal curves resulting in the pixels of the receiver matrix are stored. With the aid of a phase-evaluating algorithm, the relative reference phase i RR_ij in the pixel ij of the receiver array in the region of the maximum modulation is calculated from these signal curves and receives a signal from the reference plate. The relative reference phases mod 2π determined in this way are assigned to the absolute phase ϕ grid of the line grid , see FIG. Fig. 2, and taking into account the respective sign subtracted from this and stored in a field as phase values ϕ gridR_ij in the rule longer term. The relative object phases of the object points ϕ RObj_ij mod 2π are each subtracted from the absolute phase ϕ grid of the line grid taking into account the respective sign, whereby the phase values ϕ gridObj_ij arise as a field. The phase differences Δϕ lattice_ij are formed point by point from these fields.
Zuvor wurde aus der möglichst gut bekannten Entfernung zOR der Referenzplatte
von der Brennebene die absolute, lateral invariante Phase ϕR der Referenzfläche
mit der hier noch einmal dargestellten Gleichung (2)
The absolute, laterally invariant phase ϕ R of the reference surface was previously calculated from the distance z OR of the reference plate from the focal plane, which is as well known as possible, using the equation (2) shown here again
bestimmt, wobei diese Bestimmung iterativ zur Annäherung an den wahren Wert mehrfach erfolgen kann. Es stellen d den Achsenabstand der beiden Objektive, fB die Brennweite des Beleuchtungsobjektivs und p die Gitterkonstante des Liniengit ters dar.determined, this determination can be made several times iteratively to approximate the true value. It represents d the distance between the axes of the two lenses, f B the focal length of the illumination lens and p the lattice constant of the line grating.
Mit der Beziehung entsprechend Gleichung (3), wobei ΔϕGitter_ij sich für den Objekt
punkt ij aus der Gleichung (2) ergibt,
With the relationship according to equation (3), where Δϕ grid_ij for the object point ij results from equation (2),
(-)ϕObj_ij = (-)ϕR + ΔϕGitter_ij (8)
(-) ϕ Obj_ij = (-) ϕ R + Δϕ grid_ij (8)
wird für den Objektpunkt ij die absolute Objektphase (-)ϕObj_ij aus Gleichung (8) ge
wonnen. Aus der Beziehung
the absolute object phase (-) ϕ Obj_ij is obtained from equation (8) for the object point ij. From the relationship
kann die zOB-Koordinate des Objektpunktes zObj_ij im Objektraum berechnet werden, wobei der Objektpunkt mit dem Pixel ij der Empfänger-Matrix optisch konjugiert ist.the z OB coordinate of the object point z Obj_ij can be calculated in the object space, the object point being optically conjugated with the pixel ij of the receiver matrix.
Durch achsparallele Verschiebungen ΔzOB von Planplatten, wobei die Verschiebun gen mit einem Präzisions-Längenmeßsystem gemessenen werden, können Fehler abgeschätzt werden, indem die errechneten Verschiebungen mit den gemessenen verglichen werden.Through axially parallel displacements Δz OB of flat plates, the displacements being measured with a precision length measuring system, errors can be estimated by comparing the calculated displacements with the measured ones.
Die Nachjustierung der 3D-Aufnahme-Anordnung erfolgt iterativ. Die Restabwei chungen werden in ein numerisches Modell eingegeben, welches hier nicht darge stellt ist, und können zur Korrektur benutzt werden.The readjustment of the 3D recording arrangement is carried out iteratively. The remainder are entered into a numerical model, which is not shown here is, and can be used for correction.
Aus der Einrechnung des zu jedem Objektpunkt mit der Koordinate zObj_ij gehören den aktuellen Abbildungsmaßstabes werden die kartesischen Koordinaten für jeden Objektpunkt ermittelt. Dabei kann ein neues Koordinatensystem mit dem Brenn punkt des Abbildungsobjektiv als Nullpunkt für die lateralen Koordinaten in x- und y-Richtung verwendet werden. Damit stehen die 3D-Koordinaten des Objektes in di gitaler Form zur Verfügung. Diese Punktwolke wird je nach Aufgabenstellung für meßtechnische Applikationen oder Aufgaben mit einer 3D-Wiedergabe verwendet.The Cartesian coordinates for each object point are determined from the calculation of the current image scale for each object point with the coordinate z Obj_ij . A new coordinate system with the focal point of the imaging lens can be used as the zero point for the lateral coordinates in the x and y directions. The 3D coordinates of the object are thus available in digital form. Depending on the task, this point cloud is used for measurement applications or tasks with 3D rendering.
Bei der Verschiebung eines Objektpunktes, der sich in der AO1BO1-Position in Fig. 1 befindet, in die AO2BO2 Position entlang des gezeichneten Abbildungsstrahls erfährt das im Bildpunkt dieses Objektpunktes detektierte Signal eine Änderung in der Pha senlage von 2π. Die Änderung in der zOB-Koordinate entspricht dem Δz2π-Wert, also der Tiefenänderung, die einer Phasenänderung von 2π entspricht. Dieser Δz2π-Wert wird auch als effektive Wellenlänge bezeichnet.When an object point, which is in the A O1 B O1 position in FIG. 1, is shifted into the A O2 B O2 position along the drawn imaging beam, the signal detected in the image point of this object point undergoes a change in the phase position of 2π. The change in the z OB coordinate corresponds to the Δz 2π value, that is to say the change in depth, which corresponds to a phase change of 2π. This Δz 2π value is also referred to as the effective wavelength.
Fig. 2 zeigt beispielsweise die Signalverläufe in einem Bildpunkt der Empfänger- Matrix in Bezug zum Signalverlauf, der am Gitter mit Hilfe eines Gegengitters beim Bewegen des Gitters detektiert werden kann. Dargestellt werden der Signalverlauf im Bildpunkt eines Objektpunktes und der Signalverlauf im Bildpunkt eines Refe renzpunktes. Hierbei befindet sich die Referenzplatte näher am Brennpunkt FOB als die Objektoberfläche. Am Abtastpunkt im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Referenzpunktes wird die relative Phase ϕRR errechnet und am Abtastpunkt im Bereich des Modulationsmaximums des Signals im Bild punkt eines Objektpunktes die relative Phase ϕRObj. Mittels der Gleichung (3) wird die absolute Phasendifferenz ΔϕGitter errechnet und mittels dieser mit Gleichung (4) die absolute Objektphase ϕObj, aus der mit der Gleichung (5) die zOB-Koordinate ei nes jeden Objektpunktes, nämlich zObj bestimmt wird. Fig. 2, for example, shows the waveforms in a pixel matrix of the receiver with respect to the waveform which can be detected on the grid with the aid of a counter-grid upon movement of the grating. The signal curve in the pixel of an object point and the signal curve in the pixel of a reference point are shown. Here, the reference plate is closer to the focal point F OB than the object surface. The relative phase ϕ RR is calculated at the sampling point in the area of the modulation maximum of the signal in the pixel of a reference point and the relative phase ϕ RObj at the sampling point in the area of the modulation maximum of the signal in the pixel of an object point. The absolute phase difference Δϕ grid is calculated using equation (3) and the absolute object phase ϕ Obj using equation (4), from which the z OB coordinate of each object point, namely z Obj , is determined using equation (5) .
Fig. 3 zeigt eine 3D-Aufnahme-Anordnung vorteilhafterweise mit nur einer Linear führung, beispielsweise für eine 3D-Aufnahme-Anordnung für Multimedia- Applikationen. Der Schlitten der Linearführung trägt ein Liniengitter zur strukturierten Beleuchtung des Objektes. Die Beleuchtung erfolgt durch eine Öffnung in der Basis der Führung. Weiterhin trägt der Schlitten die beweglichen Teile für ein Meßsystem für den Verschiebeweg s, wobei dem Meßsystem auch ein Nullpunktgeber zugeord net ist. Außerdem ist eine Auswerteelektronik mit Schnittstelle zum hier nicht darge stellten Auswerterechner vorhanden. Fig. 3 shows a 3D recording arrangement advantageously with only one linear guide, for example for a 3D recording arrangement for multimedia applications. The slide of the linear guide carries a line grid for structured lighting of the object. The lighting is provided through an opening in the base of the guide. Furthermore, the carriage carries the moving parts for a measuring system for the displacement path s, the measuring system also being assigned a zero point transmitter. In addition, evaluation electronics with an interface to the evaluation computer, not shown here, are available.
Der Schlitten wird von einem Linear-Motor angetrieben und die Führung weist ein miniaturisiertes Präzisionslager auf. Anstelle des Präzisionslagers ist auch ein Hochpräzisions-Parallelfedersystem mit hochelastischen Federn aus kristallinem Si lizium einsetzbar. Als Empfänger-Matrix kann auch eine farbtüchtige Kamera einge setzt werden, wobei die farbsensitiven Pixel jeweils auf einer Linie quer zu den Li nien des Liniengitters angeordnet sind.The carriage is driven by a linear motor and the guide has one miniaturized precision bearings. Instead of the precision bearing there is also a High-precision parallel spring system with highly elastic springs made of crystalline Si silicon can be used. A color-capable camera can also be used as the receiver matrix are set, the color sensitive pixels each on a line across the Li lines of the line grid are arranged.
Nach dem Start des Schlittens in (-)s-Richtung wird der Nullpunkt durchfahren und das Gitter durch das Beleuchtungsobjektiv nacheinander in unterschiedliche Tiefen des Objektraumes scharf abgebildet. Auf der Objektoberfläche entsteht beim Bewe gen des Gitters das scharfe Bild desselben, welches vom Abbildungsobjektiv auf die Empfänger-Matrix scharf abgebildet wird, da diese sich in der gleichen Ebene wie das Liniengitter befindet. Durch die Bewegung des Schlittens der Führung gibt es ei ne laterale Bewegung der Empfänger-Matrix, wobei das Bild des Objektes feststeht. Um diese laterale Bewegung zu kompensieren, um eine feste Zuordnung der Punk te des Objektes, also der Abbildungsstrahlen, zu den Pixeln der Empfänger-Matrix beizubehalten, werden die gewonnenen Bildinformationen pixelweise im Bilddaten- Massiv verschoben. Damit wird erreicht, daß ein realer Abbildungsstrahl jeweils ei nem lateral feststehenden Bildpunkt unabhängig von der Bewegung der Empfänger- Matrix fest zugeordnet bleibt.After starting the slide in the (-) s direction, the zero point is passed through and the grating through the lighting lens in succession to different depths of the object space in sharp focus. When moving, the object surface is created the sharp image of the same, which is transferred from the imaging lens to the Receiver matrix is shown sharply, since this is in the same plane as the line grid is located. Through the movement of the slide of the guide there is an egg ne lateral movement of the receiver matrix, the image of the object being fixed. In order to compensate for this lateral movement, a fixed assignment of the punk te of the object, i.e. the imaging rays, to the pixels of the receiver matrix to maintain, the image information obtained is pixel by pixel in the image data Massively shifted. This ensures that a real imaging beam each egg a laterally fixed pixel regardless of the movement of the receiver Matrix remains assigned.
Aus der bekannten Gitterkonstanten p des Liniengitters wird aus dem gemessenen
Verschiebeweg s mittels der aus der Neigung des Schlittens abgeleiteten Kompo
nente sx die Istphase des Liniengitters ϕGitter mit
From the known grid constant p of the line grid, the actual phase of the line grid ϕ grid is obtained from the measured displacement path s by means of the component s x derived from the inclination of the slide
bestimmt. Aus der punktweisen Auswertung eines Feldes von absoluten Phasendif ferenzen zwischen den Phasenlagen der Signale aus der Messung einer Referenz platte und den Signalen aus der Messung am Objekt werden die Koordinaten des Objektes zObj punktweise in der bereits beschriebenen Art ermittelt. Außerdem wer den auch die lateralen Koordinaten der Objektpunkte bestimmt. certainly. From the point-by-point evaluation of a field of absolute phase differences between the phase positions of the signals from the measurement of a reference plate and the signals from the measurement on the object, the coordinates of the object z Obj are determined point by point in the manner already described. In addition, who also determines the lateral coordinates of the object points.
ϕGitter ϕ grid
- absolute Istphase des Liniengitters
ϕGitter_R - absolute actual phase of the line grid
ϕ grid_R
- absolute Istphase des Liniengitters für einen Referenzpunkt
ϕGitter_Obj - absolute actual phase of the line grid for a reference point
ϕ grid_obj
- absolute Istphase des Liniengitters für einen Objektpunkt
ΔϕGitter - absolute actual phase of the line grid for an object point
Δϕ grid
- absolute Phasendifferenz
zwischen der absoluten Istphase des Liniengitters für
einen Referenzpunkt und der absoluten lstphase des
Liniengitters für einen Objektpunkt
ϕAabs - Absolute phase difference between the absolute actual phase of the line grid for a reference point and the absolute actual phase of the line grid for an object point
ϕ Aabs
- absolute Phase im Raum der Arrays im Durchstoßpunkt der Geraden gA - absolute phase in the space of the arrays at the intersection of the straight line g A
durch das Liniengitter
ϕObj through the line grid
ϕ Obj
- absolute, lateral invariante Objektphase
ϕfB - absolute, laterally invariant object phase
ϕ fB
- absolute, lateral invariante Objektphase in der Brennebene des
Beleuchtungsobjektivs
ϕR - Absolute, laterally invariant object phase in the focal plane of the lighting lens
ϕ R
- absolute, lateral invariante Phase der Referenzfläche
ϕRR_ij - absolute, laterally invariant phase of the reference surface
ϕ RR_ij
- relative Referenzphase eines Punktes der Referenzfläche im
Bereich des Modulationsmaximums, optisch konjugiert
mit dem Pixel ij des Empfänger-Arrays
ϕRObj_ij - Relative reference phase of a point of the reference surface in the area of the modulation maximum, optically conjugated with the pixel ij of the receiver array
ϕ RObj_ij
- relative Objektphase eines Objektpunktes im Bereich
des Modulationsmaximums, optisch konjugiert mit dem Pixel ij
des Empfänger-Arrays
ϕObj_ij - Relative object phase of an object point in the area of the modulation maximum, optically conjugated with the pixel ij of the receiver array
ϕ Obj_ij
- absolute Phase eines Objektpunktes, der mit dem Pixel ij
optisch konjugiert ist
d - Abstand des Brennpunktes des Abbildungsobjektivs im
Raum des Objektes von der Achse des Beleuchtungsobjektivs,
auch Abstand der Geraden gO - Absolute phase of an object point that is optically conjugated with the pixel ij
d - distance of the focal point of the imaging lens in the space of the object from the axis of the lighting lens, also distance of the straight lines g O
von der Achse des
Beleuchtungsobjektivs,
auch Abstand der Achsen von Beleuchtungs- und Abbildungs
objektiv bei paralleler Lage derselben zueinander
fA from the axis of the lighting lens, also the distance between the axes of the lighting and imaging lens when they are parallel to each other
f A
- Brennweite des Abbildungsobjektivs
fB - Focal length of the imaging lens
f B
- Brennweite des Beleuchtungsobjektivs
p - Gitterkonstante des Liniengitters
χ - kartesische Koordinate
χA - Focal length of the lighting lens
p - grid constant of the line grid
χ - Cartesian coordinate
χ A
- Koordinate des Raum der Arrays
χAB1 - Coordinate of the space of the arrays
χ AB1
- laterale Koordinate des Durchstoßpunktes der Geraden gA - lateral coordinate of the intersection point of the straight line g A
durch das Gitterelementes GAB through the grid element G AB
im Raum der Arrays
χOB in the space of the arrays
χ OB
- Koordinate des Raum der Arrays, dem Beleuchtungsobjektiv
zugeordnet
z - kartesische Koordinate
zA - Coordinate of the space of the arrays assigned to the lighting lens
z - Cartesian coordinate
z A
- Koordinate des Raum der Arrays
zOB - Coordinate of the space of the arrays
z OB
- Koordinate des Raumes des Objektes, dem
Beleuchtungsobjektiv zugeordnet, auch Abstand einer achs
senkrechten Ebene im Objektraum im Raum des Objekts von
der Brennebene des Beleuchtungsobjektivs
zObj - Coordinate of the space of the object, assigned to the lighting lens, also the distance of an axis-perpendicular plane in the object space in the space of the object from the focal plane of the lighting lens
z Obj
- Koordinate eines Objektpunktes im Objektraum
zObj_ij - Coordinate of an object point in the object space
z Obj_ij
- Koordinate eines Objektpunktes im Objektraum, der mit dem
Pixel ij der Empfänger-Matrix optisch konjugiert ist
zOR - Coordinate of an object point in the object space, which is optically conjugated with the pixel ij of the receiver matrix
z OR
- Abstand der Referenzfläche im Raum des Objekts von
der Brennebene des Beleuchtungsobjektivs
zORexp - Distance of the reference surface in the space of the object from the focal plane of the lighting lens
z ORexp
- experimentell ermittelter Abstand der Referenzfläche im Raum
des Objektes von der Brennebene des Beleuchtungsobjektivs
Δz2π - Experimentally determined distance of the reference surface in the space of the object from the focal plane of the lighting lens
Δz 2π
- Betrag der Verschiebung eines Objektpunktes auf einem Abbildungsstrahl, bei der sich die absolute Phase genau um 2π im selben Abbildungsstrahl verändert hat- Amount of the displacement of an object point on a Imaging beam in which the absolute phase is exactly around 2π changed in the same imaging beam
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1998146145 DE19846145A1 (en) | 1998-10-01 | 1998-10-01 | Three-dimensional imaging device for shape measurement has transmitter array whose elements move in straight, parallel lines |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1998146145 DE19846145A1 (en) | 1998-10-01 | 1998-10-01 | Three-dimensional imaging device for shape measurement has transmitter array whose elements move in straight, parallel lines |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19846145A1 true DE19846145A1 (en) | 2000-04-20 |
Family
ID=7883668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE1998146145 Ceased DE19846145A1 (en) | 1998-10-01 | 1998-10-01 | Three-dimensional imaging device for shape measurement has transmitter array whose elements move in straight, parallel lines |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19846145A1 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005001774A3 (en) * | 2003-06-18 | 2005-02-24 | Dimensional Photonics | Methods and apparatus for reducing error in interferometric imaging measurements |
DE10344051A1 (en) * | 2003-09-23 | 2005-04-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Measurement device for measuring distance and spatial coordinates of object, has light source that generates spatially structured light pattern imaged on object surface using projection optics |
DE102005002190B4 (en) * | 2005-01-17 | 2007-04-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scanner and method for operating a scanner |
WO2009000341A1 (en) * | 2007-06-22 | 2008-12-31 | Automation W+R Gmbh | Method and arrangement for optically testing tunnel-type cavities, which are open on one side, in workpieces, in particular cooling ducts in brake disks |
WO2009024757A1 (en) | 2007-08-17 | 2009-02-26 | Renishaw Plc | Phase analysis measurement apparatus and method |
US9329030B2 (en) | 2009-09-11 | 2016-05-03 | Renishaw Plc | Non-contact object inspection |
DE102014226729A1 (en) * | 2014-12-19 | 2016-06-23 | Sac Sirius Advanced Cybernetics Gmbh | Method for optical shape detection and / or shape testing of an object and illumination device |
CN107655423A (en) * | 2017-11-27 | 2018-02-02 | 中山路得斯空调有限公司 | A kind of vehicle's contour measurement apparatus and method |
WO2018206233A1 (en) | 2017-05-08 | 2018-11-15 | Universität Stuttgart | Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets |
DE102017004429B4 (en) | 2017-05-08 | 2019-05-09 | Universität Stuttgart | Method and device for robust, deep-scanning / focusing strip triangulation |
CN113866997A (en) * | 2021-09-17 | 2021-12-31 | 深圳技术大学 | Display system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4007500A1 (en) * | 1990-03-09 | 1991-09-12 | Zeiss Carl Fa | METHOD AND DEVICE FOR CONTACTLESS MEASUREMENT OF OBJECT SURFACES |
DE4301538A1 (en) * | 1992-03-17 | 1994-07-28 | Peter Dr Ing Brueckner | Method and arrangement for contactless three-dimensional measurement, in particular for measuring denture models |
-
1998
- 1998-10-01 DE DE1998146145 patent/DE19846145A1/en not_active Ceased
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4007500A1 (en) * | 1990-03-09 | 1991-09-12 | Zeiss Carl Fa | METHOD AND DEVICE FOR CONTACTLESS MEASUREMENT OF OBJECT SURFACES |
DE4301538A1 (en) * | 1992-03-17 | 1994-07-28 | Peter Dr Ing Brueckner | Method and arrangement for contactless three-dimensional measurement, in particular for measuring denture models |
Non-Patent Citations (1)
Title |
---|
SCHILLING, A., WIEGEL, E.: "Optische Koordinatenmessung, schnell, präzise und sicher", In: Feinwerktechnik & Messtechnik 97 (1989) 8-9, S. 380-383 * |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005001774A3 (en) * | 2003-06-18 | 2005-02-24 | Dimensional Photonics | Methods and apparatus for reducing error in interferometric imaging measurements |
DE10344051A1 (en) * | 2003-09-23 | 2005-04-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Measurement device for measuring distance and spatial coordinates of object, has light source that generates spatially structured light pattern imaged on object surface using projection optics |
DE10344051B4 (en) * | 2003-09-23 | 2008-05-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for measuring distances and / or spatial coordinates of an object |
DE102005002190B4 (en) * | 2005-01-17 | 2007-04-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scanner and method for operating a scanner |
US7469834B2 (en) | 2005-01-17 | 2008-12-30 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Scanner and method for operating a scanner |
WO2009000341A1 (en) * | 2007-06-22 | 2008-12-31 | Automation W+R Gmbh | Method and arrangement for optically testing tunnel-type cavities, which are open on one side, in workpieces, in particular cooling ducts in brake disks |
US8923603B2 (en) | 2007-08-17 | 2014-12-30 | Renishaw Plc | Non-contact measurement apparatus and method |
JP2010537182A (en) * | 2007-08-17 | 2010-12-02 | レニショウ パブリック リミテッド カンパニー | Apparatus and method for performing phase analysis measurement |
US8605983B2 (en) | 2007-08-17 | 2013-12-10 | Renishaw Plc | Non-contact probe |
US8792707B2 (en) | 2007-08-17 | 2014-07-29 | Renishaw Plc | Phase analysis measurement apparatus and method |
WO2009024757A1 (en) | 2007-08-17 | 2009-02-26 | Renishaw Plc | Phase analysis measurement apparatus and method |
USRE46012E1 (en) | 2007-08-17 | 2016-05-24 | Renishaw Plc | Non-contact probe |
US9329030B2 (en) | 2009-09-11 | 2016-05-03 | Renishaw Plc | Non-contact object inspection |
DE102014226729A1 (en) * | 2014-12-19 | 2016-06-23 | Sac Sirius Advanced Cybernetics Gmbh | Method for optical shape detection and / or shape testing of an object and illumination device |
WO2018206233A1 (en) | 2017-05-08 | 2018-11-15 | Universität Stuttgart | Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets |
DE102017004428B4 (en) | 2017-05-08 | 2018-11-29 | Universität Stuttgart | Method and device for robust, deep-scanning focusing strip triangulation with multiple wavelets |
DE102017004429B4 (en) | 2017-05-08 | 2019-05-09 | Universität Stuttgart | Method and device for robust, deep-scanning / focusing strip triangulation |
US10866088B2 (en) | 2017-05-08 | 2020-12-15 | Universität Stuttgart | Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets |
CN107655423A (en) * | 2017-11-27 | 2018-02-02 | 中山路得斯空调有限公司 | A kind of vehicle's contour measurement apparatus and method |
CN113866997A (en) * | 2021-09-17 | 2021-12-31 | 深圳技术大学 | Display system |
CN113866997B (en) * | 2021-09-17 | 2023-10-24 | 深圳技术大学 | Display system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0534284B1 (en) | Method and device for determining the absolute coordinates of an object | |
EP1497613B1 (en) | Method and device for determining the spatial co-ordinates of an object | |
DE19727281C1 (en) | Geometric calibration device for CCD camera | |
DE102016118562A1 (en) | THREE-DIMENSIONAL IMAGE DEVICE CONTAINING A DICHROITIC CAMERA | |
DE102011114674C5 (en) | Method and device for determining the 3D coordinates of an object | |
EP2400261A1 (en) | Optical measurement method and system for determining 3D coordination in a measuring object surface | |
EP2079981A2 (en) | Device and method for the contactless detection of a three-dimensional contour | |
DE102008002725B4 (en) | Method and device for 3D reconstruction | |
EP2791619B1 (en) | Method and device for the 3d measurement of depth-limited objects | |
DE19919584A1 (en) | 3D recording method and arrangement | |
DE102012002161A1 (en) | Method for three-dimensional optical surface measurement of objects by measurement device, involves projecting spectral narrow band optical patterns on object, and detecting patterns as location-differing image pattern of object surface | |
DE102006042311A1 (en) | Method and device for the three-dimensional measurement of objects in an extended angle range | |
DE19846145A1 (en) | Three-dimensional imaging device for shape measurement has transmitter array whose elements move in straight, parallel lines | |
DE4142676A1 (en) | Measurement of objects, esp. gear wheels, using projected stripe pattern, - involves evaluating periodically projected stripe patterns with projection-detection arrangements for front and rear tooth edges | |
DE102014016087B4 (en) | Three-dimensional optical detection of object surfaces | |
EP4046133A1 (en) | Method and apparatus for determining a contour of a frame groove | |
DE19749974C2 (en) | Method and apparatus for generating a 3D point cloud | |
DE102012001307A1 (en) | Method for three dimensional measurement of objects, particularly under obstructive lighting conditions, involves detecting to be changed or multiple different patterns by detector, where patterns are projected on object surface | |
DE2247217A1 (en) | HOLOGRAMMETRIC MEASURING METHOD AND DEVICE FOR IMPLEMENTATION | |
EP0867689B1 (en) | Microphotogrammatic measuring device | |
DE19748062C2 (en) | Method and device for three-dimensional optical measurement of objects | |
DE4428055A1 (en) | Opto-electronic photogrammetric image and measurement data prodn. system | |
WO2014114663A1 (en) | Optical device and method for determining spatial coordinates of surfaces of macroscopic objects by triangulating two line-scan cameras | |
DE4428054C1 (en) | Stereoscopic opto-electronic image generating appts. | |
DE102005044912A1 (en) | 3D optical measurement of mirrored surfaces involves irradiating surface with different statistical radiation patterns, detecting reflected radiation at different angles, evaluating radiation patterns according to similarity criterion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8122 | Nonbinding interest in granting licenses declared | ||
8127 | New person/name/address of the applicant |
Owner name: UNIVERSITAET STUTTGART, 70174 STUTTGART, DE |
|
8181 | Inventor (new situation) |
Free format text: KOERNER, KLAUS, DR., 15566 SCHOENEICHE, DE |
|
8131 | Rejection |