EP1188035A1 - Verfahren und vorrichtung zur objektabtastung - Google Patents

Verfahren und vorrichtung zur objektabtastung

Info

Publication number
EP1188035A1
EP1188035A1 EP00925063A EP00925063A EP1188035A1 EP 1188035 A1 EP1188035 A1 EP 1188035A1 EP 00925063 A EP00925063 A EP 00925063A EP 00925063 A EP00925063 A EP 00925063A EP 1188035 A1 EP1188035 A1 EP 1188035A1
Authority
EP
European Patent Office
Prior art keywords
array
elements
receiver
imaging
approximately
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP00925063A
Other languages
English (en)
French (fr)
Inventor
Klaus KÖRNER
Hans Tiziani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universitaet Stuttgart
Original Assignee
Universitaet Stuttgart
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universitaet Stuttgart filed Critical Universitaet Stuttgart
Publication of EP1188035A1 publication Critical patent/EP1188035A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Definitions

  • the present invention relates to the preambles of the independent claims.
  • the present invention is concerned with the three-dimensional scanning of objects.
  • the 3D shape of surfaces is often measured using strip triangulation methods.
  • the object or the scene is illuminated from a large angle of incidence, for example between 30 ° and 60 °. However, this leads to disturbing shadowing of the object.
  • Discontinuous surfaces often pose a problem in optical 3D measurement. For example, larger paragraphs in the surface of the object can lead to a violation of the sampling theorem. This is remedied by the Gray code method, in which a sequence of binary images is projected on.
  • Gray code method in which a sequence of binary images is projected on.
  • COMET-500 system from Steinbichler Optotechnik GmbH.
  • all of the methods mentioned are usually dimmed down, both in terms of lighting and imaging the object surface.
  • the company GF in D-14513 Teltow offers digital light projection on the basis of illuminated micro mirrors, digital micromirror devices. Grid images with a repetition frequency of approximately 10 Hz can be obtained generated and read. However, this frequency is not yet sufficient for high-speed imaging.
  • Patent specification WO 92/14118 describes a 3D measuring arrangement, which is referred to as "confocal", which evaluates the contrast of a striped pattern projected onto the object surface. Both the lighting and the imaging lens or a common lens are each focused on the same level in the space of the object. However, no possibility is given to achieve high accuracy for object distances in the decimeter and meter range.
  • the aim of the present invention is to provide something new for commercial use.
  • the invention thus proposes a device for three-dimensional object detection with at least two imaging systems which have imaging optics facing the object, at least one being designed as an observation system for object observation and at least one having an elementary means which is movable in front of the imaging optics and whose elementary image moves on a pixel line through the object space, it being provided that the elementary means is designed as an elementary means which is also movable with a lateral component to the optical axis of the imaging optics, whereby the pixel line is inclined to the optical axis of the imaging optics, and the observation system for observation along the pixel line is arranged.
  • a first essential aspect of the invention is thus to be seen in the fact that two separate optical systems are provided with elementary means which are movable, the observation being carried out with one of the two systems along the pixel line.
  • the elementary means can move against one another.
  • the imaging systems represent systems.
  • Detector arrays in particular CCD arrays, can be used which are moved synchronously, for example with piezo actuators.
  • the signals obtained from these detectors can preferably be selected by detecting when a specific object area results in a specific signal behavior.
  • luminous objects for example in the case of brightly illuminated or even luminous objects, this will be the case if a particularly large signal is detected by the observed object point in the first and second arrays.
  • a scanner can be provided in which one of the imaging systems comprises an illumination system.
  • This lighting system will preferably illuminate the object with a series of separate lighting elements which implement the movable elementary means.
  • the observation system will comprise a multiplicity of observation elements, wherein an object area can be assigned to each observation element.
  • An advantage of the arrangement according to the invention consists in particular in that the evaluation of the signals can take place by the detection of the surface being accepted when a specific signal, such as a signal maximum, is recorded on a specific pixel of the array.
  • the pupil of the observation system is preferably arranged in the focal plane of the imaging optics and / or at least essentially.
  • the invention thus solves the task of flat testing the 3D shape of technical and natural surfaces of objects in space and scenes, preferably with dimensions in the range above one millimeter.
  • the invention thus enables the rapid acquisition and testing of the 3D shape of bodies in scenes with a large depth. Complete scenes can be recorded in real time.
  • the light output required for the illumination of object surfaces in a scene is sometimes greatly reduced. This is due to the fact that an object is recorded when a particularly large amount of light reaches the detector. A further improvement is the significant increase in the evaluation speed for 3D acquisition. There is the technical possibility of making the 3D point cloud of the object or scene available in video clock.
  • At least one electromagnetic radiation source is arranged and this is formed by means of at least one structured array as at least one structured, luminous array with at least two surface elements. At least one surface element lights up.
  • the structured, luminous array can also be understood as a transmitter array and the luminous surface elements can be understood as transmitter elements of this transmitter array.
  • the structured luminous array can represent an array of controllable micro light sources, for example micro light emitting diodes.
  • the radiation source can also act as an unstructured radiation source in a structured array, which can be a transmission or a reflection grating. be upstream.
  • the luminous areas of the structured luminous array represent luminous flat elements in a luminance distribution in the structurally luminous array.
  • at least one illuminating beam path is arranged with at least one illuminating lens, which is assigned to at least one structurally luminous array. This is how an image is realized and the object surfaces can be illuminated in a structured way.
  • at least one imaging beam path for imaging elements of the object surface and at least one receiver array with at least two elements and at least one imaging lens assigned to the receiver array are arranged. Elements of the receiver array detect radiation from elements of the illuminated object surface in the recording process. Furthermore, elements of the receiver array are always formed by the imaging lens with a geometric-optical focus volume in the object space that corresponds to the scene space.
  • At least one luminous flat element of the structured luminous array can experience a shift.
  • an image of at least one luminous flat element in the object space is formed with a geometrical-optical sharp volume.
  • the receiver array can be a target with a coating that is sensitized to X-ray, UV, VIS or IR radiation and is scanned out.
  • the receiver array can be designed as a CCD matrix camera. This enables optimal image acquisition for standard tasks with a good signal-to-noise ratio.
  • the receiver array can be designed as a CMOS matrix camera. The random access to pixels enables tracking of moving elements of the object surface in space.
  • the detection of radiation from the elements of the object surface by the elements of the receiver array takes place in a time range ⁇ t B in which the displacement of at least one luminous flat element of the structured luminous array is also carried out, at least one signal value being obtained in each case. It is within the
  • Time range ⁇ t B at least with a luminous flat element of the structured luminous array has been carried out an at least approximately predetermined displacement - including a predetermined optical displacement thereof as a result of a geometrical-optical path length change - and so transmits at least one luminous flat element to different ones Points in time at at least two different locations.
  • the focus volume of at least one image of at least one luminous flat element of the at least one structured luminous array is formed in the object space, and the focus volume of at least one image of at least one element of the receiver array, this focus volume also in the object space is formed, and at least one element of the at least one object surface is coincident at least approximately once due to the implementation of the predetermined displacement of at least one luminous surface element of the structured luminous array with at least one displacement component, parallel to the optical axis of the illumination objective.
  • the coincidence of the sharp volume of an image of a luminous flat element of the structured luminous array and the sharp volume of an image of an element becomes at least once and at least approximately in the object space of the receiver array and at least one element of the at least one object surface.
  • the coincidence occurs, at least the element of the receiver array involved in this coincidence experiences at least once a time-varying irradiation compared to the case of non-coincidence, and so this element of the receiver array detects a changed signal at least once.
  • a luminous flat element can be firmly bound to a structure of a body, for example to a maximum of transparency on a displaceable transmission grating in connection with a radiation source.
  • the positions of the luminous flat elements of the structured luminous array and the positions of the images of the luminous flat elements in the object space are determined and determined according to the Newtonian imaging equation from the position of the illumination lens in the 3D image arrangement and the focal length f B of the illumination lens realized as far as the associated approximations are acceptable.
  • the shift is preferably carried out at a constant speed.
  • the structured, luminous array can be an electronically controllable, structured, luminous array, for example an LCD with an upstream radiation source, which is shifted in a straight line by a movement system.
  • These distances can be understood in the object space as traces of successively imaged light points are, for example, as the shifted extrema of the luminance in an illuminated line grating at the maximum transparency or the trace of an image of an illuminated slit.
  • the traces of the light spots can be observed on an object surface if the image of a light spot and the observed point of the object surface at least approximate each other. Due to the triangulation effect, a lateral migration of the image of the light point can be observed when the image of a luminous flat element is shifted and the image of an element of the receiver array that coincides with it.
  • the offset from the starting position increases with increasing deviation of the illuminated area of the object surface from the current point of coincidence of the two images, the element of the receiver array detecting an increasingly blurred image of the luminous flat element.
  • This method enables a predetermined displacement process of the structured, luminous array in a displacement direction with a component mz A direction to make a clear statement about the presence of an element of the object surface at a predetermined location in the object space.
  • the amount in z A direction is selected such that the sharp surface gradually passes through the object space from a close range to a far range through a predetermined, controlled displacement of the luminous surface elements of the structured luminous array.
  • This method is carried out with the entirety of the luminous surface elements of the structured luminous array and the entirety of the elements of the receiver array for the entirety of the elements of the object surfaces in the detection volume of the 3D recording arrangement.
  • an interpolation can be carried out to improve the accuracy of the determination of the location of a detected element of the object surface.
  • the aperture diaphragm of the imaging lens can in this case preferably be made small, for example the relative aperture can be 1:22, so that the sharp volume of the image of the elements of the receiver array has a great depth.
  • the lighting lens can have a comparatively large relative aperture.
  • the relative opening can be 1: 2.
  • the sharp volume can have a small depth.
  • the focus volume in the case shown here moves in each case an image of a luminous flat element in the
  • Sharp volume of an image of an element of the receiver array An element of the object surface can thus be permanently in the sharp volume of an image of a receiver element. However, it is only when the sharp volume of the image of a luminous surface element coincides with an element of the object surface that this element of the object surface is structured. Thus, by means of the element of a receiver array that is read out multiple times during the predetermined displacement of a luminous surface element, a signal curve with a relative maximum at the time of the coincidence can be detected.
  • the predetermined displacement of the luminous surface elements can be controlled electronically. In addition, an electronically controlled change in the optical path length in the space in front of the receiver array can also be carried out.
  • a method for 3D recording of object surfaces areas proposed in a scene in which the luminous surface elements are shifted relative to the illumination lens, each in a separate displacement distance, preferably in the time intervals ⁇ t x of the detection of light.
  • the luminous surface elements preferably have an at least approximately predetermined constant luminance at least at a point in time t x within a time interval ⁇ t x .
  • the luminous surface elements are each positioned on a B segment BS A , the B segments BS AJ being the target locations for the luminous surface elements at a point in time tj. represent within the time interval ⁇ t x .
  • the images of these B sections BS A3 are preferably formed in the object space by imaging with at least one illumination lens to form a section bundle SBi with a convergence point Ki.
  • the convergence point Ki is at least at a distance d K ⁇ mm from the optical axis of the illumination lens from the last part of the distance d of the pupil center PZ 0B of the illumination lens from the pupil center of the most distant imaging lens. Accordingly, the sensitivity to depth is low.
  • the maximum distance d ⁇ max is five times the same.
  • the value dki d is preferably realized.
  • At least in a time range .DELTA.t B during the shift operation of the illuminating surface elements are in each case exactly one image by a receiver element and in each case exactly one image of a luminous surface element in the object space at least at a single time t ⁇ within each time interval ⁇ ti the detection of at least approximately together on the Image of a B section BS A3 positioned. So at least at this point in time tj . a pair is formed in the object space from the image of a receiver element and the image of a luminous surface element and so such pairs are generated in the object space and these are pushed through the object space. Sharpness volumes of images of the luminous surface elements coincide with surface elements of the object surface at least once in the displacement process.
  • a current point of coincidence is formed at this point in time t in the focus of the current cutting volume of the focus volume of the two images.
  • the elements of the receiver array preferably detect a signal curve with at least one relative extremum of the signal size in the time interval ⁇ t x of the coincidence.
  • the focal length f B of the illumination lens and the focal length f A of the imaging lens are determined and implemented.
  • both the luminous surface elements of the structured luminous array and the elements of the receiver array are at least approximately mapped in the same plane in a part of the object space.
  • the electronically controlled displacement of the luminous surface elements to another location can take place using micromechanical means. An electronically controlled shift is also possible.
  • the average object point brightness and the color information can also be obtained from the signal curve by using a color camera.
  • a method for 3D recording in which ⁇ t preferably in the time intervals .
  • the detection of light a luminous surface element is positioned on each B section BS A -.
  • the B routes BS A - will thereby directed at the pupil center PZ 0A of the imaging lens in the array space, so that the convergence point Ki is at least approximately positioned in the pupil center of the imaging lens.
  • the convergence point Ki is also positioned in the pupil plane of the illumination objective, and so during the displacement process an image of a receiver element and an image of a luminous flat element in the object space are at least approximately together on the image of a B section BS A -, positioned.
  • a pair with a fixed assignment can be formed from the image of a receiver element and the image of a luminous flat element in the object space and, during the displacement process of the luminous flat elements, one image from a receiver element and one image from a luminous flat element in the object space, at least approximately once to be brought to coincidence.
  • the receiver array can be fixed and set such that the "continuous" focus area or the focus plane of the illumination lens coincides at least once with the focus plane of the imaging lens. It is advantageous if the "continuous" focus plane of the illumination lens is always in the comparatively large depth of field of the imaging lens remains.
  • This approach can be implemented with electronic grids with a very high number of pixels. Electronic grids can be continuously stretched or compressed in the displacement process in order to meet the condition of the convergence of the track bundle.
  • a method for 3D recording of obect areas proposed in a scene, in which a luminous surface element is preferably positioned at least at one point in time ti within each time interval ⁇ ti with an at least approximately constant relative luminance in each case on a B path BS Aj in the time intervals ⁇ ti of the detection of light.
  • the convergence point Ki is positioned at least approximately in the focal plane of the illumination objective in the object space and additionally in the pupil center PZ 0A of the pupil of an imaging objective in the object space.
  • an image of a receiver element and an image of a luminous surface element in the object space are positioned at least approximately together on the image of a B section BS Aj at least at a time t within each time interval ⁇ t of the detection, and so at least At this point in time ti, a pair with a fixed assignment is formed in the object space from the image of a receiver element and the image of a luminous surface element, and pairs with a fixed assignment are thus generated in the object space.
  • the B sections BS Aj are positioned parallel to a straight line g AP , the straight line g AP intersecting the focal point F AB of the illumination lens in the array space and the increase with the amount from the quotient “distance from the pupil center PZ 0A of the pupil of the Imaging lens in the object space from the axis of the lighting lens and the focal length f B of the lighting lens ", this increase in the straight line g AP being related to the axis of the lighting lens.
  • Two central perspective lenses with mutually inclined axes can be used.
  • the array can preferably be fixed and set in such a way that the “continuous” focus plane of the illumination objective is included at least once the focal plane of the imaging lens coincides.
  • a straight-line relative displacement of the receiver array relative to the imaging lens is carried out parallel to the optical axis of the imaging lens, and during the shift, signal values are read out successively from a receiver element in each case, and so a signal curve is formed by means of a receiver element and generated when imaging multiple times Displacement sections of elements of the receiver array with the imaging lens are at least approximately formed from their images in the object space at least approximately one section cluster SB 2 with a convergence point K 2 in the focal point F 0A of the imaging lens.
  • the displacement of the receiver array is carried out in such a way that, during the displacement process, an image of a receiver element and an image of a luminous flat element in the object space are at least approximately together at least at a time t x within each time interval ⁇ t x the image of a B segment BS, are brought to coincidence and shifted, and pairs of images are thus generated in the object space. Since each element of the receiver array enables the acquisition of a signal curve, parallel processing is possible. Furthermore, the imaging lens can also be moved to the receiver array.
  • a method for 3D recording of object surfaces in a scene in which preferably the convergence point Ki of the route bush egg SBi together with the convergence point K 2 of the route bush egg SB 2 in the object space both with the focal point F 0A and with the pupil center PZ 0A Pupil of the imaging lens at least anna- are brought to coincidence, with the illumination lens and the imaging lens being at least approximately telecentric on the array side.
  • the luminous surface elements are shifted at least approximately parallel to a straight line g A on sections.
  • the straight line g A penetrates the focal point F AB of the illumination lens in the array space.
  • the increase is realized with the amount from the quotient "focal length of the illumination lens and distance d of the focal point F ⁇ of the imaging lens from the axis of the illumination lens in the object space", this increase in the straight line g A to an axis perpendicular to the axis of the illumination lens "and because of the telecentricity of the imaging lens in the array space the line g A coincides with the line g AP in this case.
  • This method enables 3D recording in a very large depth measurement range, an arrangement with parallel and at least approximately identical lenses can advantageously be selected.
  • the structured lighting is preferably carried out with an illuminated line grid.
  • a linear shift is carried out parallel to the optical axis of the imaging lens.
  • a separate displacement path is generated for each element of the receiver array.
  • these displacement paths are imaged with the imaging lens, a second cluster of routes with a convergence point K of the imaged routes in the object space at the focal point F 0A of the imaging lens is created from the images of these displacement routes.
  • the convergence point Ki and the focal point F 0A of the imaging lens in the object space are brought at least approximately to the coincidence.
  • the point of convergence K x of the distances in the object space is formed by the locations of certain relative luminance of the illuminated line grid, for example the maxima of the transmis- sion of the line grid, are displaced at least approximately parallel to a straight line g A on displacement paths.
  • periodic signals with a modulation maximum can be detected in the elements of the receiver array, from which the information about the absolute phase of an object point in connection with the arrangement can be obtained. If the illuminated line grid is moved at a constant speed, periodic signals with a constant frequency can be obtained in the elements of the structured illuminated array. This simplifies the signal evaluation and can therefore lead to a considerable reduction in the computing time. The sharpness areas are brought to coincidence by the synchronous positioning of the structured luminous array and the receiver array.
  • the position of the at least one luminous flat element can also be stationary and in this case at least components of the illumination lens move.
  • a method for 3D recording of object surfaces in a scene in which preferably one luminous surface element each in the time intervals ⁇ t x of the detection of light in a time range ⁇ t B at least approximately at its own location 0 AB3 in the structured light Array is arranged relative to the lighting lens and brought to light by control and is imaged by the lighting lens and this luminous surface element is always mapped to a predetermined location in the object space 0 0B3 at least at a point in time t x within the time interval ⁇ t x .
  • This image location 0 0B3 of a luminous flat element is shown in the object space a control is changed by actuating a different, predetermined flat element and lighting it up, so that the image of a luminous flat element on a controllable path curve, structured from distance increments AI 0 of the images of the distances AI A of the luminous
  • an image of a detected and read element of the receiver array is coincident in the object space with the image of a luminous flat element at least at a time t x within the time interval ⁇ t x , and thus a pair of images with changing images is generated, which takes on different positions in the object space.
  • the object space is gradually penetrated in depth by such pairs.
  • sharp volumes of the image of a luminous flat element each coincide with a flat element of the object surface at least once in the time range ⁇ t B in a time interval and the detected and the read elements of the receiver array tinterval ⁇ ti of the coincidence on a signal curve with at least one relative extremum of the signal size, the time range ⁇ t B being made larger than the time interval ⁇ ti and thus at least one time interval ⁇ ti being temporally fitted into the time range ⁇ t B.
  • the structured, luminous array and the receiver array can represent rigid, preferably three-dimensional structures; for example, the luminous array can have luminous diodes or vertically radiating laser diodes in a 3D arrangement. Little by little, individual surface elements are electronically controlled and illuminated. By controlling predetermined, luminous surface elements and reading out elements of a receiver array, whose images in the object space represent a pair of images, an extremum in the signal value of an element of the receiver array is obtained if and only if the image pair with an element of the ob - jektobe flat at least approximately coincides.
  • a luminous surface element represents a small volume element due to its fixed position in the composite of the structured, luminous array and the parameters of its representation in the object space.
  • the mechanical array of the luminous array can represent a 3D model of the object surface to be examined and the luminous surface elements are simultaneously mapped onto the object surface.
  • This also applies analogously to the structure of the receiver array.
  • This can also have an object-adapted 3D structure.
  • Both the luminous array and the receiver array can have several surfaces with luminous elements or receiving elements in the depth, so that the detection of three-dimensional object surfaces of great depth is possible without mechanical displacement. In this way, unknown object surfaces can be detected in a defined measuring volume.
  • a method for 3D recording of object surfaces in a scene in which preferably one with object surfaces illuminated by a radiation source with a first and at least a second imaging beam path between the two axes of two imaging lenses for imaging the object surfaces Symmetry line is formed.
  • At least one receiver array is assigned to each imaging beam path, and the two receiver arrays each have elements that detect light from the elements of the illuminated object surfaces in the object space in the acquisition process in the time range ⁇ t B the two receiver arrays are each moved to another location during the recording process.
  • the light from the elements of the object surfaces is detected for a period of time ⁇ t x by the elements of the receiver array, and the elements of the receiver array are then read out, signal values being obtained in each case.
  • the two receiver arrays are shifted simultaneously on shift paths AS A ⁇ and AS A2 .
  • the images of the displacement sections AS Ai and AS A2 , the sections AS 0 ⁇ and AS 02 are positioned in the object space at least approximately on the line of symmetry between the two axes of the lenses.
  • a convergence point K 2i is formed from the route bundle SB 2 and the images of the displacement routes AS Alj of the individual elements of the first receiver array, the routes AS 0 ij, and from the route bundle SB 22 of the images of the displacement routes AS 2j of the individual elements of the second receiver array, the lines AS 023 , a convergence point K 22 is formed and the convergence point K X2 and the convergence point K 22 are brought to coincidence on the line of symmetry and form a convergence point K 0 on the line of symmetry and the two receiver arrays shifted such that their images at least partially coincide in the object space, so that the images of the elements of the first receiver array and the images of the elements of the second receiver array in the object space are brought at least approximately in coincidence in pairs, the pair-forming elements of the represent corresponding elements in both receiver arrays.
  • a current point of coincidence is preferably formed from two images of elements, which is shifted through the object space. is pushed. This is preferably done with all elements of the receiver arrays.
  • Signal profiles Si of the first receiver array are preferably formed by reading out the elements during the displacement of the first receiver array.
  • the displacement of the first receiver array is carried out parallel to a straight line g AlP and so the elements of the first receiver array are shifted at least approximately parallel to a straight line g AiP on displacement paths AS Aij .
  • signal curves S 2 of the second receiver array are formed by reading out the elements during the displacement of the second receiver array, and the displacement of the second receiver array is carried out parallel to a straight line g A2P , and the elements of the second receiver array are thus Arrays shifted at least approximately parallel to a straight line g A2P on displacement paths AS A2j , the displacement of the second receiver array taking place at least approximately simultaneously with that of the first receiver array.
  • the line g AiP is cut at a point P Ai on the symmetry line in the main plane of the first imaging lens in the array space and the straight line g A2P is cut at a point P A2 on the symmetry line in the main plane of the second imaging lens , the straight line g AiP additionally contains the focal point F Ai of the first imaging lens and the straight line g A2P contains the focal point F A2 of the imaging lens in the array space. Due to the natural structuring of the illuminated or even self-illuminating object surface, the signal profiles S 3 and S 2 j recorded in each element of the receiver array are more or less modulated.
  • the z 0 position of the respective associated element of the object surface is to be determined from the evaluation of this modulation, which occurs particularly on the sharply depicted elements of the object surface.
  • the two signal profiles Sij and S 2j of two corresponding elements lj and 2j Receiver arrays are stored in the memory of a computer by moving the two receiver arrays.
  • the elements of two receiver arrays represent corresponding elements, the images of which coincide in the object space in a focus volume at least at one point in time.
  • an element of the first and an element of the second receiver array in a common focus volume form at least one Time of a pair of corresponding elements.
  • each of the two signal profiles Si- and S 2 - by means of a window function with at least one single window, with a minimum window length corresponding to two signal values and a maximum window length that is at least approximately the length of the signal profiles Si-, and S 2 - , corresponds to overlapping signal pieces Si part 3 and S 2 te ⁇ i 3 in each of the two signal profiles Si and S 2] formed from the windows.
  • Window lengths with a length of, for example, 8 or 16 signal values are advantageous.
  • This window function is synchronously shifted by at least one signal value, which corresponds to an increment of the shifting of the receiver arrays, over each of these two signal profiles S 3 and S 2] and from each current window in the position k, with 1 ⁇ k ⁇ m, a signal piece Si part position 3 and S 2 t e ⁇ i position k 3 is formed.
  • these one after the other signal pieces Si te i l D Posiion k] and S 2 formed covering eil 3 position 3 n j each of the two waveforms Si and S 2 -, in a part region, wherein in each case at the same end of the two waveforms Si, and S 2] is started with the shifting of the window function in both signal pieces.
  • S 2 part position ⁇ j i calculates the cross-correlation function, but first inverting one of the two signal pieces, that is to say mirroring all the values of the same, and so from an original signal piece S x Te ⁇ l pos i t i on 1 3 and an inverted signal piece S 2 Te ⁇ l P os i t i on 1 INV 3, the maximum of the cross correlation function MCC i 2 - is calculated pos i t i on 1 and stored .
  • the inversion is necessary in order to obtain correctable signals, since the imaging beams of the elements of a corresponding pair move in opposite directions along a track in the object space during the displacement in an at least approximately identical section of the scene, that is, for example, towards one another.
  • This track lies parallel to the main section of the 3D recording arrangement.
  • a maximum value curve is formed from the m calculated maxima MCC m , the resulting maximum M m 3 again being determined in this maximum value curve and the location of the maximum M m - the maximum value curve of the two original signal curves and thus the path of the displacement of the two receiver arrays is assigned.
  • This maximum value curve calculated in this way can have the course of a Gaussian function.
  • an intensity threshold can be used, whereby signal pieces with a very low average intensity are excluded from further processing.
  • the location of the respective maximum M - is defined as the location of the image of the respective element of the object surface associated with the two corresponding elements lj and 2j in the array space.
  • this maximum M - in the array space becomes z 0 coordinate of the respective element of the object surface in the z 0 direction and also the x 0 and y 0 position of the respective element of an object surface, since the geometry of the 3D recording arrangement is known. In this way, the positions of the elements of an object surface from which signal profiles are recorded can be calculated, the geometry of the 3D recording arrangement being known and the displacements, including the step size of the displacement, of the two receiver arrays being predetermined.
  • the axis of a first imaging lens for imaging the object surfaces can be aligned parallel to the axis of a second imaging lens for imaging the object surfaces. It is possible that the main plane of the first imaging lens in the array space and the main plane of the second imaging lens coincide at least approximately in a common plane and the receiver arrays are at least approximately jointly in one plane.
  • the point P Ai lies on the line of symmetry and the point P A2 lies on the line of symmetry and so the two points P A1 and P A2 are brought to coincidence at least approximately in one point P A.
  • the 3D point cloud can also be obtained from free-space scenes in the background of the scene.
  • a method for 3D recording of object surfaces in a scene in which preferably illuminated object surfaces are imaged with a first and at least one second imaging beam path.
  • the two receiver arrays are simultaneously and parallel to the respective optical axes of the parallel, at least approximately identical imaging beams. corridors whose main planes coincide are shifted, with the object surfaces in the scene being illuminated.
  • the signal course Siz is formed by reading out laterally adjacent elements of the first receiver array during the displacement of the first receiver array so that exactly those elements of the receiver array are used for signal formation that lie on lines that are parallel to one another Straight lines g AiP are aligned, which intersects the point P A in the common main plane of the imaging lenses.
  • the signal curve formed corresponds at least approximately to the signal curve Si which arises during a real shift parallel to a straight line g AiP
  • the signal curve S 2z is formed by reading out elements of the second receiver array lying laterally next to one another during the shift of the second receiver array, that exactly those elements of the receiver array are used for signal formation which lie on lines which are aligned parallel to a straight line g A2P which intersects the point P A in the common main plane of the imaging objectives.
  • the signal curve S 2z formed thus corresponds at least approximately to the signal S 2 which arises during a real shift parallel to a straight line g A2P .
  • a current point of coincidence of elements of the two receiver arrays is formed, which is formed in succession at different predetermined locations in the object space in the time range ⁇ t B.
  • the two signal courses Si j , S 2j of two elements of the receiver arrays which correspond at least at one time in each case, become, by means of the correlation method already described above, with two windowed signal courses with the piecewise inversion of signal pieces for determining the z 0 position of an element of the object surface, the z 0 coordinate of the respective element of the object surface is calculated, and thus also its x 0 and y 0 position, and so the entire 3D point cloud calculated from object surfaces in a scene, the geometry of the 3D recording arrangement being known and the displacements of the receiver arrays being predetermined.
  • the imaging lens can also be moved to the receiver array.
  • a method for 3D recording of object surfaces in a scene with at least one electromagnetic radiation source is proposed, which is designed as a structured, luminous array with regions of different luminance.
  • at least one radiation source is preferably designed as at least one structured array as a structured, luminous array with luminous surface elements.
  • a structured array in the manner of a line grating with an upstream radiation source can preferably also be used.
  • an electronically controllable line grid can be implemented in the array space.
  • the radiation source and the structured array together form the structured, luminous array.
  • the locations of certain relative luminance of the structured luminous array and also the local extremes of the luminance of this structured luminous array can be made electronically displaceable.
  • the radiation source can be designed for radiation in the visible and in the invisible spectral range, for example in the spectral range from 750 nm to 900 nm.
  • at least one illumination beam path is arranged with at least one illumination objective.
  • the structured, luminous array is assigned to the lighting objective.
  • an image of the structured, luminous array can also be assigned to the lighting objective for imaging.
  • the lighting objective has an effective aperture diaphragm with an extension D B and a diaphragm center BZ B.
  • the structured, luminous array and the lighting lens are used for structured lighting of the object surfaces in the scene.
  • at least one imaging beam path with at least one imaging stage is arranged for imaging the elements of the object surfaces in the scene.
  • At least one receiver array is assigned to this imaging lens.
  • the imaging lens has an effective aperture diaphragm with an aperture center BZ A for imaging the elements of the object surfaces.
  • This imaging lens is assigned at least one receiver array with elements that detect light from the elements of the structured illuminated object surfaces in the object space during the recording process.
  • the distance d of the pupil center PZ 0 B of the illumination lens, as an image of the aperture center BZ B in the object space, from the pupil center PZ 0A of the imaging lens , as an image of the aperture center BZ A in the object space, is at least one eighth of the extent D B of the aperture diaphragm of the illumination lens.
  • an image of a luminous surface element in the object space is formed from a luminous surface element in a luminance distribution with a preferred, at least approximately predetermined constant relative luminance by imaging with the illumination lens.
  • a movement system with preferably at least one movable component is arranged, which is assigned to the structured, luminous array.
  • the displacement distances of the luminous surfaces Chen elements in the array space are preferably formed from the mechanical movement of the structured, luminous array.
  • the luminous surface elements it is also possible for the luminous surface elements to be moved electronically at the same time, for example in the lateral direction, and for the movement system to use at least one movable component to move the structurally luminous array parallel to the optical axis of the illumination objective. After mapping these displacement paths through the illumination lens into the object space, their image is at least approximately formed as a path cluster SBi with a convergence point K x .
  • the displacement distances of the luminous surface elements can be arranged at least approximately in parallel, and thus the convergence point Ki can be positioned at least approximately in the focal plane of the illumination lens in the object space and in the pupil center of the imaging lens in the object space.
  • the luminous array can be designed as an electronically controllable line grid with controllability of the location of the lines and the line width.
  • the lines can be arranged perpendicular to the main section and the displacement distances of the luminous flat elements and thus also the luminous surface elements with local extrema of the luminance in the array space - as a result of the mechanical movement of the structured luminous array and the electronic control of the structured luminous
  • Arrays can be formed in the array space. From these displacement distances in the array space in the main section and in each to Main section parallel section plane at least approximately at least one cluster of lines with a convergence point K x be formed.
  • the convergence point K x of the cluster of lines can be arranged in the pupil center PZ ⁇ of the imaging objective in the array space.
  • the displacement distances of the luminous surface elements can be arranged at least approximately parallel to a defined straight line g AP .
  • the luminous surface elements in a luminance distribution preferably have an at least approximately predetermined predetermined constant luminance.
  • the straight line g AP intersects the focal point F AB of the illumination lens in the array space and has the increase with the amount from the quotient “distance of the pupil center PZ 0A of the pupil of the imaging lens in the object space from the axis of the illumination lens and focal length f B of the illumination lens” , this increase in the straight line g AP being related to the axis of the illumination lens.
  • a component of the movement system can be assigned to the receiver array, and thus, during the mechanical movement of the receiver array on a displacement path, its elements displacement paths AS A;] on parallel straight lines may be assigned, preferably from the images AS ⁇ D of these lines AS A -, when imaging by the imaging lens at least approximately a line bundle SB 2 with a convergence point K 2 in the object space.
  • the convergence point K x and the convergence point K 2 with the focal point F 0A and the pupil center can PZ 0A of the pupil of the imaging lens in the object space can be brought at least approximately to the coincidence.
  • the imaging lens can be implemented telecentrically on the side of the space of the arrays.
  • a component of the movement system can be assigned to the receiver array, and thus the elements of displacement elements AS A -, on a displacement path during the mechanical movement of the receiver array be assigned to parallel straight lines, at least approximately at least one line tuft SB 2 with a convergence point K 2 in the object space being formed from the images of these lines when imaged by the imaging lens.
  • the convergence point K x and the convergence point K 2 can be brought at least approximately to the coincidence with the focal point F 0A and the pupil center PZ 0A of the pupil of the imaging lens in the object space and the illumination lens and the imaging lens can each be designed telecentrically on the side of the space of the arrays.
  • the axes of the illumination lens and the imaging lens can be arranged parallel to one another and the focal planes of the same can be brought to coincide in the object space.
  • the components of the movement system can be arranged such that in the array space with the focal point F AB of the illumination lens as a reference point for the luminous array, a total direction of movement is at least approximately parallel to a straight line g A is realized in the array space, so that the elements of the structured, luminous array move on parallel straight lines to the straight line g A and this straight line g A with the focal point F AB of the lighting object in the array space is brought to the section and has the increase with the amount from the quotient "focal length f B of the illumination lens and distance d of the focal point F ⁇ of the imaging lens in the object space from the axis of the illumination lens ", this increase in the straight line g A to a perpendicular straight line Axis of the lighting lens is related.
  • the structured array can be formed at least on a partial area of a disk, which is preferably associated with a rotary precision bearing with a shaft with a rotary motor, so that a rotating disk is formed.
  • the rotating disk can be formed with transparent plate sectors of different geometrical-optical thickness.
  • the receiver array can represent a color camera.
  • the use of a special receiver array with RGB channels and a fourth channel, the NIR channel, for example with a wavelength interval of 750 nm to 900 nm, is possible for obtaining the information for the 3D point cloud.
  • the radiation source is designed as a structured, luminous array with luminous flat elements by means of at least one structured array.
  • At least one illumination beam path with at least one illumination lens which has an effective aperture diaphragm with an extent D B and a diaphragm center BZ B , is arranged for structured illumination of the object surfaces in the object space.
  • the lighting lens is assigned to the structured, luminous array, including an image thereof.
  • the at least one illumination beam path is assigned an imaging beam path with at least one imaging stage for the at least one object surface with at least one imaging lens assigned to the receiver array or an image of the same for imaging the elements of the object surface, which has an effective aperture diaphragm with a Aperture center BZ A.
  • a receiver array is used to detect electromagnetic radiation from the elements of the illuminated object surfaces in the object space during the recording process.
  • the distance d from the pupil center PZ 0B of the illumination lens as an image of the aperture center BZ B in the object space, from the pupil center PZ 0A of the imaging lens, as an image of the aperture center BZ A in the object space, is at least one eighth of the extent D B of the aperture diaphragm of the illumination lens.
  • the luminous flat elements have an at least approximately predetermined luminance in a luminance distribution, so that at least one image of a luminous flat element is formed in the object space by imaging with the illumination objective.
  • the sharp volume of at least one image of a luminous flat element in a structured luminous array is in the object space - by the predetermined assignment of the luminous flat element to Illumination lens and the assignment of the elements of the receiver array to the imaging lens and the assignment of lighting lens to the imaging lens in the SD recording arrangement using Newton's imaging equation - permanently fitted into the focus volume, which is defined by the totality of the images of the elements of the receiver Arrays is shown in the object space.
  • the sharpness volume which is given by the totality of the images of the elements of the receiver array in the direction of beam propagation, has at least as great a depth as the sharpness volume of an individual image of a luminous surface element.
  • an image of a luminous surface element of a structured array is permanently assigned to at least one image of an element of the receiver array.
  • a structured, luminous array with a plurality of permanently arranged luminous surface elements can be designed in a spatial structure from the data record from a known target object surface.
  • the lighting lens creates images of the same at different locations.
  • at least one element of a receiver array is arranged in the optically conjugated locations in the array space of the imaging objective.
  • Threshold In this case, a parallel detection is carried out by the elements of the receiver array. This can be done with a at high speed.
  • the structured array can be designed as a transparent microlens array and the focal length and the axial position of the microlenses can be designed such that their foci are arranged in a 3D area, which at least approximately represents an optically conjugated surface to the target surface.
  • the foci of the microlenses represent at least approximately some optically conjugated locations on the target surface of a test specimen. The deviation from a target position can be determined by determining the focus position in the image.
  • At least one relief with a spatial structure with at least one period in the form of at least one ramp with at least one inclined ramp surface in the compensation surface can be formed.
  • luminous surface elements are preferably arranged as a binary code pattern. These flat elements are formed by window areas which are illuminated by the radiation source.
  • the ramp surfaces are preferably inclined in such a way that the compensation line AG A - due to the oblique ramp surface in the main section as shown by the illumination lens in the object space as a picture, provides a straight line AG 0] which at least approximately targets the pupil center PZ of the imaging lens.
  • the different compensating lines AG 0] of several different ramps after their imaging by the illumination lens from their images form a bundle of straight lines with one Convergence point K x is formed.
  • the lighting lens is preferably opened high.
  • the convergence point K x is brought to coincidence, at least approximately, in the pupil center PZ of the imaging objective. This means that when taking pictures of the surface of the object, a ramp can be clearly traced at all depths without problems with lateral misalignments.
  • the imaging lens can be comparatively short in focal length, shorter than the lighting lens, and is so far dimmed that there is a large depth of field. The depth of focus range of the imaging lens thus determines the depth range for the 3D recording arrangement.
  • the main section of the images of the ramps form a cluster with the point of origin in the PZ pupil center.
  • the ramp images intersect the object surface to be detected. At the intersection of a ramp image with the object surface, a sharp image of the mask is created on the ramp surface.
  • the main planes of the two imaging lenses can be brought to coincidence and each of them can be assigned a receiver array with detecting elements, so that a first and a second receiver array are arranged, to which at least one movement system is assigned.
  • the resulting movement of the first receiver array can take place on a segment AS Ax on the first upper branch of a letter Y and the segment AS Ax can be parallel to a straight line g A i P lie on the one hand intersecting the focal point of the first imaging lens in the array space and on the other hand intersecting the intersection point P A of the line of symmetry between the two optical axes of the two imaging lenses through the coinciding main planes, so that the detecting ones intersect Move elements of the first receiver array on the lines AS ⁇ I -, with part of the line of symmetry forming the lower part of the letter Y.
  • the resulting movement of the second receiver array can take place on a segment AS A2 on the second upper branch of the letter Y, and the segment AS Ax can lie parallel to a line g A2P , which on the one hand is the focal point of the second imaging lens in the array space intersects and on the other hand intersects the intersection point P A of the line of symmetry between the two optical axes of the two imaging lenses through the coinciding main planes.
  • the detecting elements of the second receiver array can thus move on the lines AS Ax -.
  • the scene can be an open space scene.
  • the resulting movement of the first receiver array can take place on a path parallel to the optical axis of the first imaging lens, and precisely the elements of the first receiver array can be read out and a signal curve can be formed from them, which are located on paths AS Ax - which lie parallel to a straight line g AxP , which on the one hand intersect the focal point of the first imaging lens in the array space and on the other hand intersect the intersection point P A of the line of symmetry between the two optical axes of the two imaging lenses through the coinciding main planes.
  • the elements of the first receiver array used for signal formation correspond to those which are located on lines AS A -, with part of the symmetry Trieline forms the lower part of a letter Y and the resulting direction of movement of the second receiver array can take place over a distance parallel to the optical axis of the second imaging lens, exactly the elements of the second receiver array are read out and a signal curve is formed from these, which are located on lines AS A2j , which are parallel to a straight line g A2P , which on the one hand intersects the focal point of the second imaging lens in the array space and on the other hand intersects the intersection point P A of the line of symmetry between the two optical axes of the two imaging lenses through the coinciding main planes .
  • the elements of the second receiver array used for signal formation correspond to those which are located on lines AS A2j .
  • the main planes of the two imaging lenses can be brought at least approximately to the coincidence and each each of which can be assigned a receiver array with detecting elements, so that a first and a second receiver array with elements are arranged, and the first and the second receiver array each have at least one receiver surface, each of which is perpendicular to the main section .
  • the receiver surface of the first receiver array preferably contains a segment AS Ai that lies parallel to a line g AxP on the first upper branch of a letter Y, which on the one hand intersects the focal point of the first imaging lens in the array space and on the other hand that Penetration point P A of the symmetry line SL intersects between the two optical axes of the two imaging lenses through the coinciding main planes, so that the detecting elements of the first receiver array are arranged in the main section on the line AS Ax .
  • Part of the line of symmetry SL preferably forms the lower part of the letter Y.
  • At least one receiver surface of the second receiver array is preferably on a path AS 2 on the second upper branch of the letter Y parallel to a straight line g A2P , which on the one hand is the focal point of the second imaging lens in the array space and on the other hand intersects the intersection point P A of the symmetry line SL between the two optical axes of the two imaging lenses through the coinciding main planes, so that the detecting elements of the second receiver array are arranged in the main section on the path AS Ax .
  • This arrangement enables the detection of illuminated elements of the object surface in the object space on a plane perpendicular to the main section.
  • the structure of the receiver matrices is the same and is arranged in a position symmetrical to the symmetry line SL and at the same height.
  • the procedure is preferably as follows:
  • the signals from the two receiver areas are preferably read out line by line, so that the receiver area of the first receiver array supplies the signal profiles Si and the receiver area of the second receiver array provides the signal profiles S 2 .
  • These signal profiles are evaluated line by line, the lines containing the corresponding elements at the same distance from the main cut.
  • the evaluation is carried out in accordance with the correlation described above. ons procedure with two windowed signal curves for use.
  • signal pieces are generated by a window function.
  • a signal piece is inverted by mirroring the signal values.
  • the cross-correlation is carried out in each case by an original signal piece and in each case by an inverted signal piece, the signal pieces each representing symmetrically arranged line sections in the 3D arrangement, and a correlation coefficient is obtained and stored in each case.
  • the window of the window function which can have a length of 64 pixels, for example, is shifted, for example, in increments of one, which here corresponds to a pixel in the respectively evaluated line. For overview measurements, the window can also be shifted more than one pixel.
  • the length of the window is chosen depending on the relative opening. The window length can also be designed variably.
  • the z 0 position of the elements of the object surface is thus determined in a plane perpendicular to the main section in the symmetry line SL.
  • a lighting objective can be assigned a first imaging objective with a receiver array and a second imaging objective with a receiver array, the pupil center PZ 0A of the first imaging objective at a distance d from the pupil center PZ 0B of the lighting lens is arranged.
  • a spatially structured receiver array is assigned to each of the two imaging lenses, so that a first and a second receiver array are arranged in the array space.
  • the first and the second spatially structured receiver array at least two receiver areas each on spatially separate areas and the receiver areas of the first and the receiver areas of the second receiver array are each arranged such that at least approximately pairs of optically conjugated images of at least parts of receiver areas of the first receiver array and of parts of the receiver areas of the second receiver array are formed in the object space.
  • the evaluation is carried out using the correlation method with two windowed signal profiles, as already shown above.
  • FIG. 1 to 10 different representations of the invention. 11 to 15 for understanding the invention and its
  • 11 shows the illumination of an object with an object surface 200 by means of a lens 201 by means of a light source realized by a pinhole 202.
  • the opening of the pinhole 202 is arranged on the dashed optical axis 203 of the lens 201.
  • 11a, 11b and 11c differ in the distance of the pinhole from the lens, as indicated by the distances A, B, C.
  • Main plane of the lens 201 selected so that the pixel of the
  • Pinhole 202 is inside the object. Accordingly, the light cone projected into the object space from the pinhole 202 is comparatively extended on the object surface, as indicated by the area A ⁇ .
  • the distance between the pinhole and the lens is chosen so that the pinhole is imaged exactly on the object surface.
  • the illuminated area on the object surface is very small.
  • the distance between the pinhole and the lens is so large that the light cone has its smallest extent in front of the object surface and diverges again towards the object surface.
  • FIGS. 11a, 11b, 11c lie on a straight line, as indicated in FIG. 11D. It should also be noted that the different dimensions of the light cones in the situations of FIGS. 11a to 11c lead to a differently high light intensity on the surface and accordingly the illuminated spot appears more or less bright. This is symbolized in FIGS. 11a to 11c by the arrows, the length of which represents the intensity of the light scattered on the surface in any direction. The highest intensity of the scattered light occurs in FIG. 11b.
  • FIG. 12 once again illustrates the relationship between pinhole spacing, light spot expansion and intensity of the scattered light.
  • the light from the surface of the object 200 is diffusely scattered on typical surfaces, so that it can be observed from different viewing directions. This is shown in Fig. 13.
  • the spatial assignment is now typically carried out using a detector array by evaluating the signals thus obtained.
  • another effect known from optics is used in the invention, which is illustrated with reference to FIG. 14.
  • FIG. 14a shows the illumination of the object surface (which is located in the image plane in the case shown) with a pinhole whose opening lies exactly on the optical axis 203.
  • the pinhole image point projected onto the object also lies on the optical axis. If, as shown in FIG. 14b, the pinhole is laterally displaced to the optical axis and was at a distance A, the image point moves laterally on the surface by a distance AA. This is well known from geometric optics.
  • the invention now proposes to observe an object point by means of an observation system which lies exactly on the inclined pixel straight line, which is described by the movement of the pixels through the object space.
  • luminous dots located at different distances from the optical axis such as openings of a shading diaphragm provided at different distances from the optical axis result in straight lines of pixels with different inclinations in the object space with the same movement of a shading grating .
  • Figure 15a It can be shown that all these pixel straight lines converge in a single point, namely the confocal point, which lies on the focal plane of the imaging optics.
  • the invention makes use of this knowledge by placing the pupil of the observation system in this point; observation of the object surface areas is only possible along the straight line of pixels, as illustrated by FIG. 15b, which simplifies the evaluation in the desired manner.
  • 15c shows signal behavior in an arrangement in which a single opening is used for illumination, compare FIG. 11a.
  • the observed light intensity I is plotted over the grating displacement path X.
  • FIGS. 1 to 10 The arrangement and the method are shown in FIG. A distinction is made between the array space and the object space. The following notation is used: The sizes and points of the array space are indicated with the letter A in the first place and the sizes and points of the object space with the letter 0. In the second place in the index, the associated lens is identified, namely in the case belonging to the illumination lens 1 with the letter B and in the case of belonging to the imaging lens 2 with the letter A. In the array space there are a line grating 3 with a grating constant p and an upstream radiation source with visible light, ie a light source 4.
  • This light source 4 can be computer-controlled, so that the average illuminance of the distance of the respective focus plane after photometric law is adapted.
  • the line grating 3 is assigned to the illumination lens 1 with a telecentric beam path in the array space perpendicular and extrafocal.
  • the illumination objective 1 maps the line grating 3 into the object space, as a result of which structured illumination of the object surface 5 occurs at least at one point in time.
  • the two main planes of the illumination lens 1, H AB and H 0B are combined in FIG. 1. In lenses of this class, the two main levels are far apart.
  • a receiver matrix 6 is assigned to the imaging objective 2, which also has a telecentric beam path in the array space, perpendicular to the axis and extrafocal.
  • the imaging objective 2 images the object surface 5 in the array space.
  • a single imaging beam A 0 ⁇ is shown.
  • H ⁇ and H 0A in Figure 1 are also merged.
  • the optical lens 1 and the imaging lens 2 are arranged with their optical axes parallel to one another with the axis spacing d.
  • the illumination lens 1 and the imaging lens 2 have the focal points F AB and F ⁇ on the array side and the focal points F 0B and F 0A in the object space.
  • the focal points F 0B and F 0A coincide with the exit pupils PZ 0B and PZ 0A in the object space.
  • Two illumination beams BLSoi and BLS 02 and an imaging beam ABS 0 are shown.
  • the first linear guide of the movement system is rigidly connected to the receiver matrix 6 and carries a second, smaller linear guide, not shown here, which in turn carries the line grating 3.
  • the first linear guide is connected to a high-precision length measuring system which has a highly stable zero point.
  • the axis of movement of the first linear guide is parallel to the
  • the objective axes and the measuring axis of the length measuring system lies parallel to the two lens axes.
  • the direction of movement of the second linear guide is perpendicular to the objective axes.
  • the line grating 3 on the second linear guide is assigned a counter-grating which is firmly connected to the first linear guide and has an illumination and receiver optics in the manner of an incremental length measuring system.
  • the evaluation electronics have an electronic interface to the computer in order to have the calculated displacement of the line grid 3 as real-time information available in the computer as phase information.
  • a first reference structure is applied to the line grating 3 in the part outside the image field used, which is optically scanned by a second reference structure, which is also applied to the counter grating. Both guides of the movement system start from the zero position.
  • the direction of movement of the first linear guide is aligned parallel to the optical axis of the imaging lens.
  • the movement takes place to the focal points hm.
  • a position control system is assigned to the smaller, second linear guide, which carries the line grating 3, in order to be able to realize a movement of the line grating with a speed that is as constant as possible and thus also with a constant phase speed.
  • the target values for the position of the first linear guide are calculated from the current, absolute actual phase ⁇ d ter of the Lmi- grating 3, which is derived from a zero point.
  • the straight line g A is defined such that it intersects the focal point F AB of the lighting object 1 and also the main point H A ⁇ of the imaging lens 2.
  • the luminous flat elements move in the array space on the B sections BS A -,.
  • the pictures of these B routes BS A3 , e - finally, the B sections BS Ax and BS A shown in FIG. 1 are mapped into the object space. For example, the B routes BS Ax and BS A2 become images BS 0 ⁇ and BS 02 .
  • the images BS 0 ⁇ and BS 02 form a cluster of lines SB X with the convergence point K x , which coincides with the focal point F 0A of the imaging lens 2. Furthermore, the elements of the receiver array are moved on AS Aj lines.
  • the routes AS Ax and AS A2 are shown . Their images represent the route bundle SB 2 with the routes AS 0 ⁇ and AS 02 with the convergence point K 2 in the object space, which coincides in the focus F 0A of the imaging lens 2 with the convergence point K x , the point of convergence of the convergence point Ki and of the convergence point K 2 is generally the coincidence point K 0 .
  • the planes of the object space perpendicular to the axis are “traversed” one after the other by the focus area in that, in the presence of an object surface, a stripe pattern can be observed in sharp focus from the illumination objective 1, which can be imaged onto the receiver matrix 6 by the imaging objective 2. is formed.
  • FIG. 2 shows, for example, the signal profiles S 0 and S R in a pixel of the receiver matrix 6 in relation to the signal profile S G , which can be detected on the line grating 3 with the aid of a counter grating when the grating 3 is moved.
  • the signal curve in the pixel S 0 of an object point and the signal curve S R in the pixel of a reference point are shown.
  • the reference plate is closer at the focal point F 0B as the object surface.
  • the relative phase ⁇ RR is calculated and at sampling point A P0 in the area of maximum modulation of the signal in the pixel of an object point the relative phase ⁇ RO bj is calculated using equation (3) the absolute phase difference ⁇ citter is calculated and with equation (4) the absolute object phase ⁇ 0 bj, from which the Z 0B coordinate of each object point, namely Z 0bjr , is determined with equation (5).
  • the highly stable zero point N serves as the starting point.
  • FIG. 3 shows a 3D recording arrangement with an illumination lens 1 and an imaging lens 2, both lenses in the array space having a beam path with central perspective on both sides and thus a small structural volume.
  • the axes of the two lenses are inclined to each other. The latter enables a particularly high depth sensitivity to be achieved in a comparatively small measurement volume, for example for the acquisition of teeth in orthodontics. Accordingly, the entire arrangement is miniaturized.
  • the light coming from the light source 4 illuminates a line grating 3. This is moved along a line parallel to the straight line g AP by means of a computer-controlled slide of a linear guide (not shown here) and is projected onto the object surface 5 by the illumination objective 1 with the pupil center PZ 0B .
  • the straight line g AP intersects the focal point F AB of the lighting lens 1 in the array space and the main plane H AB of the lighting lens 1 in the array space at the point H ABG.
  • the image of the straight line g AP , the straight line g 0P lies parallel to the axis of the Illumination lens 1 and intersects the main plane in the extension
  • the illumination lens 1 has the focal length f B.
  • the object surface 5 is imaged on a receiver matrix 6 by means of an imaging objective 2 is connected to a computer with a frame grabber, an evaluation of the recorded images being carried out by means of a computer.
  • the imaging objective 2 is arranged in relation to the illumination objective 1 in such a way that the pupil center PZ 0A is located on the straight line g 0P .
  • the pupil opening of the illumination objective 1 is made as large as possible, for example the aperture ratio is 1: 2.
  • the depth of field in the object space is thus very limited.
  • the pupil opening of the imaging objective 2 is made as small as possible, for example the aperture ratio is 1: 22.
  • the depth of field in the object space is thus comparatively large.
  • the line grating 3 is moved and 6 images are taken with the receiver mat ⁇ x, for example 32.
  • the movement of the grating 3 with the grating constant p is measured with high precision to about 1% of the grating constant p. Images are recorded, the phase change between two images generally being less than 2 ⁇ , for example 3 / 2 ⁇ .
  • the position of the receiver matrix 6, whereby a CMOS camera can be used due to the large dynamic range and the possibility of evaluating individual pixels, is selected so that the entire object area of interest can be grasped sharply.
  • the receiver matrix 6 can also be rotated according to the Scheimpflug condition so that it contains the two points A Ax and A A2 .
  • the 3D point cloud of the 3D measurement object is determined from the 32 images recorded.
  • the absolute object phase ⁇ 0b3 is determined for each object point. From this the z 0 b 3 ⁇ is calculated
  • the x 0 b 3 _ are determined via the imaging scale as a function of the z 0b] _ coordinate and the y 0 b 3 coordinates are calculated from the known pixel pitch of the receiver matrix 6.
  • FIG. 4 shows a 3D recording arrangement with an illumination objective 1 with a comparatively large pupil opening, for example with an aperture ratio of 1: 2.8 and a central perspective beam path optimized for the oblique image.
  • the illuminated field is asymmetrical to the axis of the illumination lens 1.
  • Lenses in the middle focal length range are preferably used here, for example with focal lengths around 25 mm.
  • the imaging lens 2, for example with an aperture ratio of 1: 2.8, has a telecentric beam path in the array space.
  • the axes of the two lenses are arranged parallel to each other.
  • the main planes of the illumination lens 1 and the imaging lens 2 coincide at least approximately in the array space.
  • the light emanating from the light source 4 illuminates a reflection grating, for example an electronically controllable digital micromirror device 61.
  • the electronically controllable digital micromirror device 61 and the receiver matrix 6 are rigidly connected to one another in the at least approximately the same level in the array space. Both components are located here on a computer-controlled slide of a linear guide. The direction of displacement of the slide of this linear guide is aligned parallel to the axes of the two objectives, so that both components move synchronously and parallel to the optical axis of the illumination objective 1. Due to the electronic control of the Digital Micromirror Device 61, it is not only possible to move a glowing lamp laterally
  • Flat element 3A are made, but also the displacement of a light curtain can be realized according to a program specification. So for a single Luminous flat element 3A on the direct mirror device 61, as well as for the luminescent elements with precise coordination with the displacement by the computer-controlled slide, a movement can be realized on a path BS A3 parallel to the straight line g AP .
  • the line g Ap intersects the focal point F AB of the illumination lens 1 in the array space and the main plane of the imaging lens 2 in the array space in the main point H ⁇ .
  • the image of the straight line g AP in the object space, the straight line g 0P lies in the axis of the imaging objective 2.
  • the luminous flat element 3A is shifted as a luminous flat element of constant relative luminance, from point B Ax to point B 2 .
  • the luminous flat element 3A can represent a maximum in an at least approximate cos 2 light distribution, that is to say have a phase value of 0 when a signal is detected.
  • the luminance distribution on the digital micromirror device 61 is projected onto the object surface 5 by the illumination lens 1.
  • the straight lines and lines parallel to the straight line g AP are imaged by the illumination lens 1, the images of the displacement lines BS A3 of the luminous flat elements, that is to say here the luminous micromirror of the digital micromirror device 61, forming a line cluster in the object space.
  • a luminous flat element 3A moves on the displacement path BS A3 .
  • the image of this displacement route BS A3 , route BS 03 , is aimed at the convergence point Ki in the object space.
  • the object surface 5 is imaged on a receiver matrix 6 by means of an imaging lens 2.
  • the computer-controlled slide of a linear guide also carries the receiver matrix 6 and so the pixels of the receiver matrix 6 each experience a shift on a distance AS A3 parallel to the optical axis of the imaging objective 2.
  • an object point 0 in the object space is tracked by an image of a luminous surface element 3A in the depth of the object space during the displacement.
  • FIG. 5 shows a 3D recording arrangement for objects that are illuminated with structured light. The aim here is to determine the point cloud of the latter particularly quickly and precisely by determining the absolute phase of elements of the object surface.
  • a light source 4 illuminates a concentrically designed grating 81, as a result of which a structured, luminous array is formed, which is located in a sector of a pane 83 on a flat surface which belongs to a transparent plane-parallel plate 84.
  • On the disk 83 there are several transparent segments with transparent plane parallel plates 84 in the entire area.
  • the concentrically formed, illuminated grating 81 is imaged with the illumination objective 1.
  • the disk 83 is driven by a motor 85.
  • the speed is, for example, 24 rpm.
  • the information about the axial position of the disk 83 can be obtained in a flat area on the upper side of the disk 83 in the immediate vicinity of the concentrically formed grid 81.
  • the information about the radial position of the disk 83 obtained in the optical sensor head 87 is fed to a piezo actuator 92 in a control circuit (not shown here) with an electronically controllable voltage source for the piezo actuator 92 as a control voltage.
  • the piezo actuator 92 is connected to the receiver matrix 6, so that here the radial position, rather than the distance between the concentrically formed grating 81 and the receiver matrix 6, is not really kept constant. In this way, a defined position between a luminous surface element and an element of the receiver matrix 6 is maintained.
  • the axial position of the associated structured illuminated area is determined by a second piezo actuator 93 in a control loop is kept in a constant position by holding the disk 83 in the desired position as it rotates. With precision bearings, the elimination of the axial runout can usually be dispensed with.
  • a plane-parallel transparent compensation plate 94 for axially compensating the position of the receiver matrix 6 is arranged in the imaging beam path after the imaging objective 2. In this way it is achieved that at each angular position of the disk 83, that is to say in each segment assigned to the light source and the receiver matrix 6, the optical paths are the same, ie the object distance for the structured illuminated array and the image width for the receiver matrix 6 are the same.
  • a sharply imaged strip pattern can be observed in the same plane in the object space on the object surface and this can also be imaged sharply on the receiver matrix 6 via the imaging objective 1 and a transparent plane-parallel plate 95 of a certain optical thickness, since the sharp plane of the Imaging beam path through the adaptation of the transparent plane parallel plate 95 lies in the same plane.
  • transparent segments with different geometrical-optical thicknesses enter both the illumination and the imaging beam path.
  • the geometrical-optical thicknesses are always coordinated so that the sharp planes of the two beam paths coincide in the object space.
  • the position of the focus planes in the object space changes from segment to segment, so that the entire object space is gradually "deeply focused" in depth.
  • the position of the concentric grating changes in the radial direction from segment to segment.
  • the phase is changed step by step every time a segment is changed, for example in steps of 90 °.
  • the evaluation of a synchronization pulse in the edge area ensures that only then an image of the receiver matrix is detected when the plane-parallel plate of defined thickness with the concentrically formed grating 81 is located in full area in front of the receiver area.
  • a periodic signal curve can thus be obtained in each element of the receiver matrix 6, each signal value of the recorded signal curve being generated in another sector by means of another plane parallel plate.
  • the phase difference from signal value to signal value is known with high precision due to the optically read reference grid.
  • FIG. 6 shows a 3D recording arrangement which is particularly suitable for mobile use, for example for the computer-aided 3D orientation of robots in the vicinity for gripping tasks. Furthermore, 3D hand-held devices for detecting objects in the close range up to 1 m can be based on this arrangement.
  • This 3D recording arrangement consists of an illumination lens 1 and an imaging lens 2, both lenses having a central perspective beam path in the array space, and a transparent profile grating 53, which can be viewed as a structured 3D array and by a light source 4 is illuminated. This can represent a flash light source with a flash frequency in video clock.
  • the transparent profile grid 53 has a plurality of ramps 54 and 56. As shown in FIG.
  • FIG. 7 represents.
  • the ramp surface 57 has several stages. There is a different binary code pattern on each level. The designations Ai, A 2 , A 3 and A 4 are assigned to the individual patterns.
  • the compensating line through the ramp area, the straight line AG A] points to the pupil center PZ of the imaging lens 2.
  • the ramp area 55 on the transparent profile grating 53 on the ramp 54, the main section of which can be represented by a compensation line AG A3 is represented by the lighting lens 1 mapped in the object space.
  • the illumination objective 1 should have a large relative aperture, for example 1: 1.2.
  • flat areas of the object surface are shown simultaneously in the pictures A ⁇ o, A 20 , A3 0 and A 40 for illustration in possible positions.
  • a luminous flat element 3A is also depicted and represents the image B FEL .
  • the sharp volume SV FEL of the image B FEL is shown. It is not very deep due to the large relative opening ratio.
  • the imaging lens on the other hand, is heavily dimmed. In this way, the elements of the receiver array are mapped with a much larger depth range.
  • the image of the entire ramp area is thus in the sharp volume SV EE of the associated element of the receiver matrix 6.
  • ramp surfaces 54 can be arranged on the transparent profile grid 53, each with a different mean object width, so that elements of an object surface 5 can be detected at different depths in the object space and the depth detection area is particularly large.
  • FIG. 9 shows an application for the extraction of digital point clouds, which are used for 3D television. This can be the case, for example, at sporting events where there is good lighting.
  • the arrangement according to FIG. 9 can also be used for 3D recordings in the amateur video field and in photography.
  • a sequence of images is recorded with the two receiver matrices 6 and 14 in order to generate a single 3D image.
  • the displacements of the receiver matrix 6 and the receiver matrix 14 are carried out in such a way that the focus area changes from image to image until the object space is completely covered in depth.
  • the lighting is done using natural light or artificial light, which usually has no spatial structure.
  • a first imaging lens 33 and a second imaging lens 2 are assigned to each of the two receiver matrices 6 and 14.
  • the first imaging lens 33 and the second imaging lens 2 are telecentric in the array space, as a result of which the focal point F 0 ⁇ and the pupil center PZ 0 ⁇ coincide in the imaging lens 33.
  • the focus F 02 and the pupil center PZ 02 also coincide due to the tele-center.
  • the images of the straight lines parallel to the straight line g A ⁇ P and thus also the displacement distances of the elements of the receiver matrix 6 on these straight lines are imaged by the imaging lens 33 in the object space and there set up a cluster of lines with the convergence point K 2i of the lines, respectively Tufts of straight lines with the cut in K 2i , which also contains the straight line g 0 ⁇ p.
  • the images of the straight lines parallel to the straight line g A2P and thus also the displacement distances of the elements of the receiver matrix 14 on these straight lines are imaged by the imaging objective 2, as a result of which, in the object space, a tufts of lines with the convergence point K 22 of the lines and a tufts of lines with the section arise in K 22 .
  • This tufts of straight lines contains the straight line g 02P , which coincides with the straight line g 0 ⁇ P.
  • the displacements of the receiver matrix 6 and the receiver matrix 14 are carried out in such a way that the stretching tufts with the convergence point K 2i and the stretching tufts with the convergence point K 22 coincide at the point of coincidence K 0 .
  • the two receiver matrices 6 and 14 are each equipped with at least one powerful computer, which in turn is integrated in a high-performance communication network, via an interface connected.
  • the receiver matrices 6 and 14 are connected to a precise linear guide 20, which in turn is connected to a computer-controlled, highly dynamic linear motor 21.
  • the two receiver arrays 6 and 14 are moved in the z A -R ⁇ chtung in the direction of the two foci F A and F ⁇ A2, the position of the common plane Sharp SCH i-1 whereby changes in the object space.
  • Objects 5, 18 and 19 are adequately illuminated by a light source 15.
  • the object 5 at point P 3 x which is located on the straight line g 03 ⁇ z P , which represents the location of the competing straight lines g 03 ⁇ P and g 0 3 2Pp , from the common plane of focus
  • the stroke frequency of the movement of the two receiver matrices 6 and 14 takes place, for example, at 24 Hz.
  • the evaluation of the images taken by the two receiver matrices 6 and 14 takes place in such a way that signals are formed from elements which are parallel to each other the straight line g A ⁇ P and g A2P located straight lines, for example on the straight lines gAjiPr gAkip, gAj 2 p or g A k 2 p at the same time in at least approximately the same location, that is to say represent corresponding elements.
  • the z 0 coordinates are calculated from the detected signals S Xj and S 2j of a pair of corresponding elements using correlation methods, and the entire point cloud of the object surface or the scene is derived from these by knowing the geometry of the arrangement and the imaging scales the z 0 coordinate.
  • point clouds are provided in the video cycle.
  • the information about the color of the respective object point results, for example, from the receiver element which is closest to the correlation maximum.
  • the surface models of the objects and the scene are calculated from the calculated point clouds. This requires a very high computing speed, which can, however, be achieved on the basis of special processors. It is possible to assign a separate processor to each element of the receiver matrices 6 and 14. This is very advantageous for the execution of the cross-correlation already described. Data reduction techniques can be used to transmit the calculated data for 3D playback.
  • FIG. 10 shows a 3D recording arrangement that can be used, for example, as a multi-level obstacle sensor in daylight.
  • Two imaging beam paths with two imaging lenses 33 and 2 are arranged, the imaging lenses 33 and 2 each being designed to be telecentric in the array space. This is not absolutely necessary, but it has constructive advantages.
  • Each imaging objective 33 and 2 is a spatially structured receiver array
  • receiver surfaces 107 and 108 as well as 109 and 110 are perpendicular to Main cut arranged.
  • these receiver surfaces 107 and 108 and 109 and 110 are parallel to a straight line g A ⁇ P or parallel to a straight line g A2P .
  • These straight lines g AiP and g A2P each intersect the focal point F ⁇ I and F AA2 of the associated lens and the point P A in the common main plane of the two imaging lenses 33 and 2.
  • the images of the receiver surfaces 107 and 108 and 109 and 110 become after the Scheimpflug condition mapped in the object space, the coincidence of the two images of the receiver surfaces 107 and 109 and 108 and 110 of the spatially structured receiver array 106 and 114 being given.
  • elements are imaged on the four receiver surfaces 107 and 109 as well as 108 and 110.
  • the points Oi and 0 2 are imaged on the object surface.
  • the correlation method already described in detail can be used for the determination of the z 0 position of the points O x and 0 2 using the gray value or color distributions from the environment when using color cameras as receiver matrices. This results in four signal curves Si and S 2 as well as S 3 and S 4 each in the line of the associated receiver matrix in the main section of the line-by-line reading, for example in the A A or B A position is started.
  • the associated, fixed elements of two receiver surfaces 107 and 108 or 108 and 110 each form a corresponding pair.

Abstract

Die Erfindung betrifft eine Vorrichtung zur dreidimensionalen Objekterfassung mit wenigstens zwei Abbildungssystemen, die dem Objekt zugewandte Abbildungsoptiken aufweisen, wobei wenigstens eines als Beobachtungssystem zur Objektbeobachtung ausgestaltet ist und wenigstens eines ein vor der Abbildungsoptik bewegliches Elementarmittel aufweist, dessen Elementarbild sich auf einer Bildpunktlinie durch den Objektraum bewegt. Hierbei ist vorgesehen, dass das Elementarmittel als mit Lateralkomponente zur optischen Achse der Abbildungsoptik bewegliches Elementarmittel ausgebildet ist und das Beobachtungssystem zur Beobachtung längs der Bildpunktlinie angeordnet ist.

Description

Titel: Verfahren und Vorrichtung zur Objektabtastung
Beschreibung
Die vorliegende Erfindung betrifft die Oberbegriffe der unab- hängigen Ansprüche. Damit befaßt sich die vorliegende Erfindung mit der dreidimensionalen Abtastung von Objekten.
Die 3D-Form von Oberflächen wird häufig mit Streifen- Triangulationsverfahren vermessen. Dabei wird in der Regel das Objekt oder die Szene unter einem großen Einfallswinkel beleuchtet, beispielsweise zwischen 30° und 60°. Dies führt jedoch zu störenden Abschattungen des Objekts.
Bei der optischen 3D-Messung stellen diskontinuierliche Ober- flächen oft ein Problem dar. Beispielsweise können größere Absätze in der Oberfläche des Objektes zu einer Verletzung des Sampling-Theorems führen. Abhilfe schafft hier das Gray- Code- Verfahren, bei dem eine Folge von Binärbildern aufpro- jiziert wird. Ein Beispiel stellt das COMET-500-System der Fa. Steinbichler Optotechnik GmbH dar. Um einen großen Schärfentiefebereich bei der Vermessung von tiefen Objekten zu erreichen, wird bei allen genannten Verfahren in der Regel stark abgeblendet, sowohl bei der Beleuchtung als auch bei der Abbildung der Objektoberfläche. Die Firma GF in D-14513 Teltow bietet die Digitale Lichtprojektion auf der Basis von beleuchteten Mikrospiegeln, Digital Micromirror Devices, an. Es können Gitterbilder mit einer Folgefrequenz von etwa 10 Hz erzeugt und eingelesen werden. Diese Frequenz ist jedoch für die Hochgeschwindigkeits-Bildaufnahme noch nicht ausreichend.
In der Patentschrift WO 92/14118 wird eine 3D-Meßanordnung beschrieben, die als "konfokal" bezeichnet wird, die den Kontrast eines auf die Objektoberfläche projizierten Streifenmusters auswertet. Dabei werden sowohl das Beleuchtungs- als auch das Abbildungsobjektiv oder ein gemeinsames Objektiv jeweils auf die gleiche Ebene im Raum des Objektes fokussiert. Es ist jedoch keine Möglichkeit angegeben, für Objektabstände im Dezimeter- und im Meterbereich eine hohe Genauigkeit zu erzielen.
Vorrichtungen zur 3D-Abtastung von Objekten sind beispiels- weise bekannt aus der DE 197 49 974, dem Aufsatz „Optical 3D- measurement using structured light" von R. Kowarsid, J. Gerber, G. Notni, W. Schreiber und P. Kühmstedt in „Technisches Messen", Bd 62, 1995, S. 321 - 329. Weiter befaßt sich der Aufsatz „Phase-shifting grating projection moire topography" von Y.-B. Choi und S.-W. Kim in Opt . Eng. 37 (3) 1995-1010 mit der Abtastung dreidimensionaler Objekte unter Verwendung von verschobenen Abschattungsgittern. Dabei wird ein Signal in Abhängigkeit von der Verschiebung eines abschattenden Gitters ausgewertet. Es sei darauf hingewiesen, daß der Begriff „abschattendes Gitter" verwendet wird, um klarzustellen, daß es in der Regel nicht auf Beugungseigenschaften eines Gitters für die vorliegende Erfindung ankommt. Dies gilt auch, soweit nicht anders erwähnt, im weiteren.
Während es prinzipiell verschiedene Möglichkeiten gibt, ein dreidimensionales Objekt abzutasten, ergeben sich Probleme, wenn ein großes dreidimensionales Objekt schnell und präzise abgetastet werden soll.
Das Ziel der vorliegenden Erfindung besteht darin, Neues für die gewerbliche Anwendung bereitzustellen.
Das Ziel wird erreicht mit den Merkmalen der unabhängigen Ansprüche.
In einer ersten Ausgestaltung schlägt die Erfindung somit ei- ne Vorrichtung zur dreidimensionalen Objekterfassung mit wenigstens zwei Abbildungssystemen vor, die dem Objekt zugewandte Abbildungsoptiken aufweisen, wobei wenigstens eines als Beobachtungssystem zur Objektbeobachtung ausgestaltet ist und wenigstens eines ein vor der Abbildungsoptik bewegliches Elementarmittel aufweist, dessen Elementarbild sich auf einer Bildpunktlinie durch den Objektraum bewegt, wobei vorgesehen ist, daß das Elementarmittel als mit auch lateraler Komponente zur optischen Achse der Abbildungsoptik bewegliches Elementarmittel ausgebildet ist, wodurch die Bildpunktlinie zur optischen Achse der Abbildungsoptik geneigt ist, und das Be- obachtungssystem zur Beobachtung längs der Bildpunktlinie angeordnet ist.
Ein erster wesentlicher Aspekt der Erfindung ist somit darin zu sehen, daß zwei getrennte optische Systeme mit Elementarmitteln vorgesehen werden, die beweglich sind, wobei die Beobachtung mit einem der beiden Systeme längs der Bildpunktlinie erfolgt. Dabei kann die Bewegung der Elementarmittel gegeneinander erfolgen.
Es ist möglich, auf diese Weise eine Stereokamera aufzubauen. In diesem Fall werden die Abbildungssysteme Beobachtungssy- steme darstellen. Es können Detektorarrays, insbesondere CCD- Arrays verwendet werden, die, beispielsweise mit Piezostell- mitteln, synchron bewegt werden. Die von diesen Detektoren erhaltenen Signale können bevorzugt ausgewählt werden, indem erfaßt wird, wann ein bestimmter Objektbereich ein bestimmtes Signalverhalten ergibt. Bei leuchtenden Objekten, beispielsweise bei hell angestrahlten oder selbst leuchtenden Objekten wird dies dann der Fall sein, wenn ein besonders großes Signal von dem beobachteten Objektpunkt im ersten und zweiten Array erfaßt wird.
Es ist jedoch nicht zwingend erforderlich, die erfindungsge- maße Vorrichtung als 3D-Kamera mit einem Stereoobjektiv auszustatten. Alternativ kann ein Scanner vorgesehen werden, bei welchem eines der Abbildungssysteme ein Beleuchtungssystem umfaßt. Dieses Beleuchtungssystem wird bevorzugt das Objekt mit einer Reihe separater Leuchtelemente beleuchten, welche die beweglichen Elementarmittel realisieren. Alternativ ist es möglich, eine Reihe von Leuchtfeldern zu simulieren, die die Elementarmittelbewegung als virtuelle Bewegung simulieren, das heißt nach einem vorgegebenen Muster erregt werden. Das Beobachtungssystem wird im Regelfall eine Vielzahl von Beobachtungselementen umfassen, wobei jedem Beobachtungselement ein Objektbereich zugeordnet werden kann. Ein Vorteil der erfmdungsgemaßen Anordnung besteht dann insbesondere darin, daß die Auswertung der Signale erfolgen kann, indem das Erfassen der Oberflache dann angenommen wird, wenn ein bestimmtes Signal, wie ein Signalmaximum auf einem bestimmten Pixel des Arrays erfaßt wird. Die Pupille des Beobachtungssy- stems wird bevorzugt in der Fokalebene der Abbildungsoptik und/oder zumindest im wesentlichen angeordnet.
Die Erfindung lost so die Aufgabe der flachenhaften Prüfung der 3D-Gestalt technischer und natürlicher Oberflächen von Objekten im Raum und Szenen, vorzugsweise mit Abmessungen im Bereich oberhalb eines Millimeters. Die Erfindung ermöglicht damit die schnelle Erfassung und Prüfung der 3D-Gestalt von Körpern in Szenen mit großer Tiefenausdehnung. Es können komplette Szenen echtzeitnah aufgenommen werden.
Weiterhin wird die benötigte Lichtleistung für die Ausleuchtung von Objektoberflächen in einer Szene zum Teil stark re- duziert. Dies liegt daran, daß eine Objekterfassung dann aufgenommen wird, wenn besonders viel Licht auf den Detektor gelangt. Eine weitere Verbesserung stellt die deutliche Erhöhung der Auswertegeschwindigkeit bei der 3D-Erfassung dar. Es besteht die technische Möglichkeit, die 3D-Punktwolke des Ob- jektes oder der Szene im Videotakt zur Verfügung zu stellen.
Schutz wird auch für die Verfahren gemäß den unabhängigen Ansprüchen begehrt. In einem ersten Verfahren zur 3D-Aufnähme von mindestens einer Objektoberfläche in mindestens einer Szene ist mindestens eine elektromagnetische Strahlungsquelle angeordnet und diese ist mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausgebildet. Dabei leuchtet mindestens ein Flächenelement. Das strukturiert leuchtende Array kann auch als ein Sender-Array und die leuchtenden Flächenelemente können als Senderelemente dieses Sender-Arrays verstanden werden. Weiterhin kann das strukturiert leuchtende Array ein Array aus steuerbaren MikroLichtquellen, beispielsweise Mikro-Leuchtdioden darstellen. Die Strahlungsquelle kann aber auch als eine unstrukturierte Strahlungsquelle einem strukturierten Array, welches ein Transmissions- oder ein Reflexionsgitter darstellen kann, vorgeordnet sein. In jedem Fall stellen d e leuchtenden Bereiche des strukturiert leuchtenden Arrays leuchtende Flachenelemente in einer Leuchtdichteverteilung im strukturiert leuchtenden Array dar. Weiterhin ist mindestens ein Beleuch- tungsstrahlengang mit mindestens einem Beleuchtungsobjektiv angeordnet, welches mindestens einem strukturiert leuchtenden Array zugeordnet ist. So wird eine Abbildung realisiert und die Objektoberflachen können strukturiert beleuchtet werden. Weiterhin sind mindestens ein Abbildungsstrahlengang für die Abbildung von Elementen der Objektoberflache und mindestens ein Empfanger-Array mit mindestens zwei Elementen und mindestens ein dem Empfanger-Array zugeordnetes Abbildungsobjektiv angeordnet. Dabei detektieren Elemente des Empfanger-Arrays im Aufnahmevorgang Strahlung von Elementen der beleuchteten Objektoberflache. Weiterhin werden von Elementen des Empfan- ger-Arrays durch das Abbildungsobjektiv stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Scharfevolumen gebildet. Mindestens ein leuchtendes Flachenelement des strukturiert leuchtenden Arrays kann eine Verschiebung erfahren. Durch die Abbildung des oder der leuchtenden Flachenelemente mit dem Beleuchtungsobjektiv wird ein Bild mindestens eines leuchtenden Flachenelementes im Objektraum mit einem geometrisch-optischen Scharfevolumen gebildet. Das Empfanger-Array kann ein Target mit einer Beschichtung sein, die für Röntgen-, UV-, VIS- oder IR-Strahlung sensibilisiert ist, und gerastert ausgelesen wird. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme das Empfanger-Array als CCD-Matrix-Kamera ausgebildet sein. Damit ist eine optimale Bildaufnahme bei Standardaufgaben mit einem guten Signal-Rausch-Verhaltnis möglich. Weiterhin kann das Empfanger-Array als CMOS-Matπx-Kamera ausgebildet sein. Damit ist durch den wahlfreien Zugriff auf Pixel eine Verfolgung von bewegten Elementen der Objektoberflache im Raum mog- Die Detektion von Strahlung von den Elementen der Objektoberflache durch die Elemente des Empfanger-Arrays erfolgt in ei- nem Zeitbereich ΔtB, in welchem auch die Verschiebung mindestens eines leuchtenden Flachenelementes des strukturiert leuchtenden Arrays durchgeführt wird, wobei jeweils mindestens ein Signalwert gewonnen wird. Dabei wird innerhalb des
Zeitbereichs ΔtB mindestens mit einem leuchtenden Flachenele- ment des strukturiert leuchtenden Arrays eine zumindest nahe- rungsweise vorbestimmte Verschiebung durchgeführt - einschließlich einer vorbestimmten optischen Verschiebung desselben als Ergebnis einer geometrisch-optischen Weglangenan- derung - und so sendet mindestens ein leuchtendes Flachenele- ment zu unterschiedlichen Zeitpunkten an mindestens zwei unterschiedlichen Orten Strahlung aus. Dabei werden das Schar- fevolumen mindestens eines Bildes mindestens eines leuchtenden Flachenelementes des mindestens einen strukturiert leuchtenden Arrays, wobei dieses Scharfevolumen im Objektraum ge- bildet ist, und das Scharfevolumen mindestens eines Bildes mindestens eines Elementes des Empfanger-Arrays, wobei dieses Scharfevolumen ebenfalls im Objektraum gebildet ist, und mindestens ein Element der mindestens einen Objektoberflache zumindest naherungsweise einmal aufgrund der Durchfuhrung der vorbestimmten Verschiebung mindestens eines leuchtenden Flachenelementes des strukturiert leuchtenden Arrays mit zumindest einer Verschiebungskomponente, parallel zur optischen Achse des Beleuchtungsobjektivs, zur Koinzidenz gebracht. So wird im Objektraum zumindest einmal und zumindest naherungs- weise die Koinzidenz des Scharfevolumens eines Bildes eines leuchtenden Flachenelementes des strukturiert leuchtenden Arrays und des Scharfevolumes eines Bildes eines Elementes des Empfanger-Arrays und mindestens eines Elementes der mindestens einen Objektoberflache erzeugt. Beim Auftreten der Koinzidenz erfahrt zumindest das an dieser Koinzidenz beteiligte Element des Empfanger-Arrays zumindest einmal eine zeitlich veränderte Bestrahlung gegenüber dem Fall der Nicht- komzidenz und so detektiert dieses Element des Empfanger- Arrays zumindest einmal ein verändertes Signal.
Ein leuchtendes Flachenelement kann fest an eine Struktur ei- nes Korpers gebunden sein, beispielsweise an ein Transparenzmaximum auf einem verschiebbaren Transmissionsgitter in Verbindung mit einer Strahlungsquelle. Für die Verschiebung werden die Positionen der leuchtenden Flachenelemente des strukturiert leuchtenden Arrays und die Positionen der Bilder der leuchtenden Flachenelemente im Objektraum nach der Newton- schen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs in der 3D-Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs bestimmt und realisiert, soweit die damit verbundenen Naherungen akzeptabel sind. Die Verschiebung erfolgt dabei vorzugsweise mit konstanter Geschwindigkeit.
Um für das Verfahren zur 3D-Aufnahme einen großen Tiefenscharfebereich bei der Abbildung von Objektoberflachen in einer Szene zu erreichen, können die Orte bestimmter relativer Leuchtdichte der strukturierten, leuchtenden Flache und so auch die Orte lokaler Extrema der Leuchtdichte im Array-Raum verschoben werden. Das strukturiert leuchtende Array kann ein elektronisch steuerbares, strukturiert leuchtendes Array, beispielsweise ein LCD mit einer vorgeordneten Strahlungs- quelle sein, welches durch ein Bewegungssystem geradlinig verschoben wird. Diese Strecken können im Objektraum als Spuren von nacheinander abgebildeten Lichtpunkten verstanden werden, beispielsweise als die verschobenen Extrema der Leuchtdichte bei einem beleuchtetem Liniengitter im Transparenzmaximum oder die Spur eines Bildes eines beleuchteten Spaltes. Die Spuren der Lichtpunkte können auf einer Objekto- berflache beobachtet werden, wenn das Bild eines Lichtpunktes und der beobachtete Punkt der Objektoberflache zumindest na- herungsweise komzidieren. Durch den Triangulationseffekt kann bei der Verschiebung des Bildes eines leuchtenden Flachenelementes und des mit diesem komzidierenden Bild eines Elementes des Empfanger-Arrays ein laterales Auswandern des Bildes des Lichtpunktes beobachtet werden. Die Ablage von der Ausgangsposition nimmt mit zunehmender Abweichung des beleuchteten Bereiches der Objektoberflache vom aktuellen Kom- zidenzpunkt der beiden Bildern zu, wobei das Element des Emp- fanger-Arrays ein zunehmend unscharfes Bild des leuchtenden Flachenelementes detektiert.
Dieses Verfahren ermöglicht m einem vorbestimmten Verschiebungsvorgang des strukturiert leuchtenden Arrays in einer Verschiebungsrichtung mit einer Komponente m zA-Rιchtung eine eindeutige Aussage über das Vorhandensein eines Elementes der Objektoberflache an einem vorbestimmten Ort im Objektraum. Dabei wird der Betrag in zA-Rιchtung so gewählt, daß die Scharfeflache den Objektraum von einem Nahbereich bis zu einem Fernbereich nach und nach durch eine vorbestimmte, gesteuerte Verschiebung der leuchtenden Flachenelemente des strukturiert leuchtenden Arrays durchwandert. Dieses Verfahren wird mit der Gesamtheit der leuchtenden Flachenelemente des strukturiert leuchtenden Arrays und der Gesamtheit der Elemente des Empfanger-Arrays für die Gesamtheit der Elemente der Objektoberflachen im Erfassungsvolumen der 3D-Aufnahme- anordnung durchgeführt. Durch mehrfaches Detektieren und Aus- lesen wahrend des Verschiebungsvorganges von mindestens einem Element des Empfanger-Arrays kann eine Interpolation zur Verbesserung der Genauigkeit der Bestimmung des Ortes eines erfaßten Elementes der Objektoberflache durchgeführt werden. Die Offnungsblende des Abbildungsobjektiv kann hierbei vorzugsweise klein gemacht sein, beispielsweise kann die relative Öffnung 1 : 22 betragen, so daß das Scharfevolumen des Bildes der Elemente des Empfanger-Arrays eine große Tiefe besitzt. Dagegen kann das Beleuchtungsobjektiv eine vergleichs- weise große relative Öffnung besitzen. Beispielsweise kann die relative Öffnung 1 : 2 betragen. Dadurch kann das Scharfevolumen eine geringe Tiefe aufweisen. Bei der vorbestimmten Verschiebung eines leuchtenden Flachenelementes im Array-Raum bewegt sich im hier dargestellten Fall das Scharfevolumen je- weils eines Bildes eines leuchtenden Flachenelementes im
Scharfevolumen jeweils eines Bildes eines Elementes des Empfanger-Arrays. So kann sich ein Element der Objektoberflache permanent im Scharfevolumen eines Bildes eines Empfangerelementes befinden. Jedoch erst bei der Koinzidenz des Scharfe- volumens des Bildes eines leuchtenden Flachenelementes mit einem Element der Objektoberflache erfolgt eine strukturierte Beleuchtung dieses Elementes der Objektoberflache. So kann durch das - bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes - mehrfach ausgelesene Element eines Empfanger-Arrays ein Signalverlauf mit einem relativen Maximum zum Zeitpunkt der Koinzidenz detektiert werden. Die vorbestimmte Verschiebung der leuchtenden Flächenelemente kann elektronisch gesteuert erfolgen. Zusatzlich kann auch eine elektronisch gesteuerte Veränderung der optischen Weglange im Raum vor dem Empfanger-Array durchgeführt werden.
Weiterhin wird ein Verfahren zur 3D-Aufnähme von Objektober- flächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δtx der Detektion von Licht die leuchtenden Flächenelemente auf je einer eigenen Verschiebungsstrecke relativ zum Beleuchtungsobjektiv verschoben werden. Die leuchtenden Flächenelemente weisen dabei in einer Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende, relative Leuchtdichte zumindest zu einem Zeitpunkt tx innerhalb eines Zeitintervalls Δtx auf. Weiterhin werden die leuchtenden Flächenelemente auf je einer B-Strecke BSA positioniert, wobei die B-Strecken BSAJ die Sollorte für die leuchtenden Flächenelemente zu einem Zeitpunkt tj. innerhalb des Zeitintervalls Δtx darstellen. Die Bilder dieser B-Strecken BSA3 sind im Objektraum durch Abbildung mit mindestens einem Beleuchtungsobjektiv vorzugsweise zu einem Streckenbüschel SBi mit einem Konvergenzpunkt Ki geformt. Dabei ist der Konvergenzpunkt Ki mindestens in einem Abstand dKι mm von der optischen Achse des Beleuchtungsobjektivs vom lβten Teil des Abstandes d des Pupillenzentrums PZ0B des Beleuchtungsobjektivs vom Pupillenzentrum des am weite- sten entfernten Abbildungsobjektivs. Dementsprechend ist die Tiefenempfindlichkeit gering. Maximal beträgt der Abstand dκι max das lβfache desselben. Vorzugsweise wird der Wert dki = d realisiert. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente werden jeweils genau ein Bild von einem Empfängerelement und jeweils genau ein Bild von einem leuchtenden Flächenelement im Objektraum zumindest zu einem einzigen Zeitpunkt t± innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSA3 posi- tioniert. So wird zumindest zu diesem Zeitpunkt tj. aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes jeweils im Objektraum ein Paar gebildet und so werden im Objektraum derartige Paare erzeugt und diese durch den Objektraum geschoben. Dabei fallen Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flächenelementen der Objektoberfläche mindestens einmal im Verschie- bungsvorgang zusammen. Am Ort dieser Paare ist im Schwerpunkt des aktuellen Schnittvolumens des Schärfevolumens der beiden Bilder so zu diesem Zeitpunkt t ein aktueller Koinzidenzpunkt gebildet. Die Elemente des Empfanger-Arrays detektieren im Zeitintervall Δtx der Koinzidenz vorzugsweise einen Si- gnalverlauf mit mindestens einem relativen Extremum der Si- gnalgrόße. Bei der Verschiebung werden die Positionen der leuchtenden Flachenelemente des strukturiert leuchtenden Arrays und die Positionen der Elemente des Empfanger-Arrays stets aus der Lage des Beleuchtungsobjektivs und der Lage des Abbildungsobjektivs in der 3D-Aufnahme-Anordnung und der
Brennweite fB des Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs bestimmt und realisiert. So werden im Objektraum sowohl die leuchtenden Flächenelemente des strukturiert leuchtenden Arrays als auch die Elemente des Empfän- ger-Arrays zumindest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet. Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente an einen anderen Ort kann mit mikromechanischen Mitteln erfolgen. Es ist auch eine elektronisch gesteuerte Verschiebung mög- lieh. Aus dem Signalverlauf kann auch die mittlere Objektpunkthelligkeit und die Farbinformation durch die Verwendung einer Farbkamera gewonnen werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δt. der Detektion von Licht jeweils ein leuchtendes Flächenelement auf je einer B-Strecke BSA-, positioniert wird. Die B-Strecken BSA-, werden dabei auf das Pupillenzentrum PZ0A des Abbildungsobjektivs im Array-Raum gerichtet, so daß der Konvergenzpunkt Ki zumindest annähernd im Pupillenzentrum des Abbildungsobjektivs positioniert ist. Weiterhin ist der Konvergenzpunkt Ki auch in der Pupillenebene des Beleuchtungsobjektivs positioniert und so werden wahrend des Verschiebungsvorganges jeweils ein Bild von einem Empfangerelement und jeweils ein Bild von einem leuchtenden Flachenelement im Objektraum zumindest naherungs- weise gemeinsam auf dem Bild einer B-Strecke BSA-, positio- niert . So kann aus dem Bild von einem Empfangerelement und dem Bild eines leuchtenden Flachenelementes jeweils im Objektraum ein Paar mit fester Zuordnung gebildet werden und wahrend des Verschiebungsvorganges der leuchtenden Flachenelemente jeweils ein Bild von einem Empfangerelement und jeweils ein Bild von einem leuchtenden Flachenelement im Objektraum einmal zumindest naherungsweise zur Koinzidenz gebracht werden. Hierbei ist der Fall mit zwei zentralperspektivischen Objektiven mit komzidierenden Hauptebenen eingeschlossen. Dabei kann das Empfanger-Array feststehend und so eingestellt sein, daß der „durchlaufende" Scharfebereich oder die Schar- feebene, des Beleuchtungsobjektivs zumindest einmal mit der Scharfeebene des Abbildungsobjektivs zusammenfallt. Es ist von Vorteil, wenn die „durchlaufende" Scharfeebene des Beleuchtungsobjektivs stets im vergleichsweise groß gemachten Tiefenscharfebereich des Abbildungsobjektivs verbleibt. Dieser Ansatz ist realisierbar mit elektronischen Gittern mit einer sehr hohen Pixelzahl. Elektronische Gitter können im Verschiebungsvorgang kontinuierlich gedehnt oder gestaucht werden, um die Bedingung der Konvergenz des Streckenbundeis zu erfüllen.
Weiterhin wird ein Verfahren zur 3D-Aufnähme von Ob ektober- flächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenelement zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke BSAj positioniert wird. Dabei wird der Konvergenzpunkt Ki zumindest annähernd in der Brennebene des Beleuchtungsobjektivs im Objektraum und zusätzlich im Pupillenzentrum PZ0A der Pupille eines Abbildungsobjektivs im Ob- jektraum positioniert. Während des Verschiebungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement im Objektraum zumindest zu einem Zeitpunkt t innerhalb eines jeden Zeitintervalls Δt der Detektion zumindest näherungsweise ge- meinsam auf dem Bild einer B-Strecke BSAj positioniert und so zumindest zu diesem Zeitpunkt ti werden aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes jeweils im Objektraum ein Paar mit fester Zuordnung gebildet und so im Objektraum Paare mit fester Zuord- nung erzeugt. Die B-Strecken BSAj werden dabei parallel zu einer Geraden gAP positioniert, wobei die Gerade gAP den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten „Abstand des Pupillenzentrums PZ0A der Pupille des Abbil- dungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und der Brennweite fB des Beleuchtungsobjektivs" aufweist, wobei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist. Es können zwei zentralperspektivische Objektive mit zueinander geneigten Achsen eingesetzt werden. Das Empfänger-Array kann vorzugsweise feststehend und so eingestellt sein, daß die „durchlaufende" Schärfeebene des Beleuchtungsobjektivs zumindest einmal mit der Scharfeebene des Abbildungsobjektivs zusammenfallt.
Zumindest annähernd wird eine geradlinige relative Verschiebung des Empfanger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des Abbildungsobjektivs durchgeführt und bei der Verschiebung werden mehrfach nacheinander Signalwerte aus je einem Empfangerelement ausgelesen und so wird je ein Signalverlauf mittels eines Empfangerelementes gebildet und bei Abbildung von mehrfach so erzeugten Verschiebungsstrecken von Elementen des Empfanger-Arrays mit dem Abbildungsobjektiv wird aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbuschel SB2 mit einem Konvergenzpunkt K2 im Brennpunkt F0A des Abbildungsobjektivs gebildet. Die Verschiebung des Empfanger-Arrays wird so durchgeführt, daß wah- rend des Verschiebungsvorganges jeweils ein Bild von einem Empfangerelement und jeweils ein Bild von einem leuchtenden Flachenelement im Objektraum zumindest zu einem Zeitpunkt tx innerhalb eines jeden Zeitintervalls Δtx zumindest naherungs- weise gemeinsam auf dem Bild einer B-Strecke BS-, zur Koinzi- denz gebracht und verschoben werden und so im Objektraum Paare von Bildern erzeugt werden. Da jedes Element des Empfanger-Arrays die Gewinnung eines Signalverlaufs ermöglicht, ist die Möglichkeit der Parallelverarbeitung gegeben. Weiterhin kann auch das Abbildungsobjektiv zum Empfanger-Array verscho- ben werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflachen in einer Szene vorgeschlagen, bei dem vorzugsweise der Konvergenzpunkt Ki des Streckenbuscheis SBi gemeinsam mit dem Konvergenzpunkt K2 des Streckenbuscheis SB2 im Objektraum sowohl mit dem Brennpunkt F0A als auch mit dem Pupillenzentrum PZ0A der Pupille des Abbildungsobjektivs zumindest anna- hernd zur Koinzidenz gebracht werden, wobei das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils arrayseitig zumindest näherungsweise telezentrisch ausgeführt sind. Die leuchtenden Flächenelemente werden zumindest annähernd paral- lel zu einer Geraden gA auf Strecken verschoben. Die Gerade gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum. Für die Gerade gA ist der Anstieg mit dem Betrag aus dem Quotienten „Brennweite des Beleuchtungsobjektivs und Abstand d des Brennpunktes FÄÄ des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum" realisiert, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs" bezogen ist und wegen der Telezentrie des Abbildungsobjektivs im Array-Raum in diesem Fall die Gerade gA mit der Geraden gAP koinzidiert. Dieses Verfahren ermöglicht die 3D-Aufnahme in einem sehr großen Tiefenmeßbereich, wobei eine Anordnung mit parallelen und zumindest näherungsweise baugleichen Objektiven mit Vorteil gewählt werden kann. Die strukturierte Beleuchtung erfolgt vorzugsweise mit einem beleuchteten Linien- gitter. Für das Empfänger-Array wird eine geradlinige Verschiebung parallel zur optischen Achse des Abbildungsobjektivs durchgeführt. So wird für jedes Element des Empfanger- Arrays eine eigene Verschiebungsstrecke erzeugt. Bei Abbildung dieser Verschiebungsstrecken mit dem Abbildungsobjektiv entsteht aus den Bildern dieser Verschiebungsstrecken ein zweites Streckenbüschel mit einem Konvergenzpunkt K der abgebildeten Strecken im Objektraum im Brennpunkt F0A des Abbildungsobjektivs. Weiterhin werden der Konvergenzpunkt Ki und der Brennpunkt F0A des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht. Dabei wird der Konvergenzpunkt Kx der Strecken im Objektraum so gebildet, indem die Orte bestimmter relativer Leuchtdichte des beleuchteten Liniengitters, beispielsweise die Maxima der Transmis- sion des Liniengitters, auf Verschiebungsstrecken zumindest annähernd parallel zu einer Geraden gA verschoben werden. In den Elementen des Empfanger-Arrays können bei diesem Verfahren periodische Signale mit einem Modulationsmaximum detek- tiert werden, aus denen die Information über die absolute Phase eines Objektpunktes im Zusammenhang mit der Anordnung gewonnen werden kann. Wenn das beleuchtete Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können in den Elementen des strukturiert leuchtenden Arrays periodische Si- gnale mit einer konstanten Frequenz gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erheblichen Reduzierung der Rechenzeit fuhren. Die Schärfe- flachen werden durch das synchrone Stellen des strukturiert leuchtenden Arrays und des Empfanger-Arrays zur Koinzidenz gebracht.
Es kann auch die Position des mindestens einen leuchtenden Flachenelementes ortsfest sein und in diesem Fall bewegen sich zumindest Komponenten des Beleuchtungsobjektivs.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflachen in einer Szene vorgeschlagen, bei dem vorzugsweise je ein leuchtendes Flachenelement in den Zeitintervallen Δtx der Detektion von Licht in einem Zeitbereich ΔtB zumindest nahe- rungsweise an je einem eigenen Ort 0AB3 im strukturiert leuchtenden Array relativ zum Beleuchtungsobjektiv angeordnet und durch Ansteuerung zum Leuchten gebracht wird und durch das Beleuchtungsobjektiv abgebildet wird und dieses leuchtende Flachenelement zumindest zu einem Zeitpunkt tx innerhalb des Zeitintervalls Δtx stets auf einen vorherbestimmten Ort im Objektraum 00B3 abgebildet wird. Dieser Bildort 00B3 eines jeweils leuchtenden Flachenelementes wird im Objektraum durch eine Ansteuerung verändert, indem ein jeweils anderes, vorbestimmtes Flachenelement angesteuert und zum Leuchten gebracht wird, so daß das Bild je eines leuchtenden Flachenelementes auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsm- krementen AI0 der Bilder der Abstände AIA der leuchtenden
Flachenelementes im Array-Raum, durch den Objektraum geschoben wird - im Sinne des gesteuerten Emnehmens vorherbestimmter, unterschiedlicher Positionen. In jeder Position nach der Verschiebung - um ein ganzzahliges Vielfaches n, einschließ- lieh n = 1, des Abstandsmkrementes AI0 - wird mindestens ein Signalwert aus einem Empfangerelement detektiert und ausgelesen und so wird aus mehreren Vorgangen des Detektierens und Auslesens von Elementen des Empfanger-Arrays ein Signalverlauf gebildet. So wird der Ort des detektierten und ausgele- senen Elementes des Empfanger-Arrays kontinuierlich verändert. Die Orte der detektierten und ausgelesenen Elemente des Empfanger-Arrays liegen an Orten 0^ im Empfanger-Array und das Bild dieses Ortes 0M] , der Bildort 00A:, , ist mit dem vorherbestimmten Bildort 00B] des leuchtenden Flachenelementes im Objektraum optisch konjugiert. So ist je ein Bild eines detektierten und ausgelesenen Elementes des Empfanger-Arrays mit dem Bild jeweils eines leuchtenden Flachenelementes zumindest zu einem Zeitpunkt tx innerhalb des Zeitintervalls Δtx im Objektraum zur Koinzidenz gebracht und so wird e ein Paar von Bildern mit wechselnden Bildern erzeugt, welches und nach verschiedene Positionen im Objektraum einnimmt. Der Objektraum wird so in der Tiefe nach und nach durch derartige Paare durchsetzt. Dabei fallen Scharfevolumina des Bildes je eines leuchtenden Flachenelementes mit je einem Flachenele- ment der Objektoberflache mindestens einmal im Zeitbereich ΔtB in einem Zeitintervall zusammen und die detektierten und die ausgelesenen Elemente des Empfanger-Arrays weisen im Zei- tintervall Δti der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße auf, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti in den Zeitbereich ΔtB zeitlich eingepaßt wird.
Dieses Verfahren kann ohne jede Bewegung eines Arrays realisiert werden, also vollständig elektronisch. Das strukturiert leuchtende Array und das Empfänger-Array können starre, vor- zugsweise dreidimensionale Strukturen darstellen, beispielsweise kann das leuchtende Array Luminiszenzdioden oder vertikal abstrahlende Laserdioden in einer 3D-Anordnung aufweisen. Nach und nach werden einzelne Flächenelemente elektronisch angesteuert und zum Leuchten gebracht. Durch die Ansteuerung von vorherbestimmten, leuchtenden Flächenelementen und das Auslesen von Elementen eines Empfanger-Arrays, wobei deren Bilder im Objektraum ein Bildpaar darstellen, wird genau dann ein Extremum im Signalwert eines Elementes des Empfanger- Arrays gewonnen, wenn das Bildpaar mit einem Element der Ob- jektobe flache zumindest näherungsweise koinzidiert. Ein leuchtendes Flächenelement repräsentiert durch seine feste Position im Verbund des strukturiert leuchtenden Arrays und durch die Parameter seiner Abbildung in den Objektraum ein kleines Volumenelement. Durch das Auslesen genau des Elemen- tes eines Empfanger-Arrays, welches im Objektraum ein Bild besitzt, welches zumindest näherungsweise mit dem Bild des leuchtenden Flächenelementes optisch konjugiert ist, erfolgt eine Abfrage des Vorhandenseins eines Elementes der Objektoberfläche in diesem Volumenelement. Weiterhin bilden die Ab- standsinkremente, die zu den Bildern der leuchtenden Flächenelemente gehören, im Objektraum vorzugsweise Strecken auf einer Geraden, die zu einem Streckenbündel SBi mit einem Kon- vergenzzentrum Kx gehören. So ist die Eindeutigkeit der Signalgewinnung gegeben, da sich die Strecken des Streckenbun- dels SBi im Objektraum nicht uberkreuzen. Bei a pπori- Kenntnissen über die Objektoberflache können aus Abstandsm- krementen einzelne Teilstrecken zusammengesetzt werden. So wird durch die Ansteuerung verschiedener leuchtender Flachenelemente die reale Verschiebung eines leuchtenden Flachenelementes nachgebildet. Grundsätzlich kann das leuchtende Array in seiner mechanischen Gestaltung e n 3D-Modell der zu untersuchenden Objektoberflache darstellen und die leuchtenden Flachenelemente werden gleichzeitig auf die Objektoberflache abgebildet. Analog gilt dies auch für die Struktur des Empfanger-Arrays. Auch dieses kann eine objektangepaßte 3D- Struktur aufweisen. Sowohl das leuchtende Array als auch das Empfanger-Array können m der Tiefe mehrere Flachen mit leuchtenden Elementen, beziehungsweise empfangenden Elementen aufweisen, so daß die Erfassung von dreidimensionalen Objek- toberflachen großer Tiefe ohne mechanische Verschiebung möglich ist. So können in einem definierten Meßvolumen unbekann- te Objektoberflachen erfaßt werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflachen in einer Szene vorgeschlagen, bei dem vorzugsweise mit von einer Strahlungsquelle beleuchteten Objektoberflachen mit einem ersten und mindestens einem zweiten Abbildungs- strahlengang zwischen den beiden Achsen von zwei Abbildungs- ob ektiven für die Abbildung der Objektoberflachen eine Sym- metrielinie gebildet ist. Jedem Abbildungsstrahlengang ist mindestens ein Empfanger-Array zugeordnet und die beiden Emp- fanger-Arrays weisen jeweils Elemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Objektoberflachen im Objektraum detektieren und die beiden Empfanger-Arrays erfahren im Aufnahmevorgang je eine Verschiebung an einen anderen Ort. Zumindest näherungsweise erfolgt gleichzeitig die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitin- tervalls Δtx durch die Elemente des Empfanger-Arrays, und die Elemente des Empfanger-Arrays werden anschließend ausgelesen, wobei jeweils Signalwerte gewonnen werden. Es ist vorzugsweise eine Beleuchtung von Objektoberflächen im Vordergrund und gegebenenfalls auch des weiter entfernter Hintergrundes der Szene gegeben. Beim Aufnahmevorgang werden die zwei Empfanger-Arrays gleichzeitig auf Verschiebungsstrecken ASAχ und ASA2 verschoben. Die Bilder der Verschiebungsstrecken ASAi und ASA2, die Strecken AS0ι und AS02 , werden im Objektraum zumindest annähernd auf der Symmetrielinie zwischen den beiden Achsen der Objektive positioniert. Aus dem Streckenbüschel SB2ι der Bilder der Verschiebungsstrecken ASAlj der einzelnen Elementes des ersten Empfanger-Arrays, die Strecken AS0ij , wird ein Konvergenzpunkt K2i gebildet und aus dem Streckenbüschel SB22 der Bilder der Verschiebungsstrecken AS2j der ein- zelnen Elemente des zweiten Empfanger-Arrays, die Strecken AS023 , wird ein Konvergenzpunkt K22 gebildet und der Konvergenzpunkt KX2 und der Konvergenzpunkt K22 werden auf der Symmetrielinie zur Koinzidenz gebracht und bilden auf der Symmetrielinie einen Konvergenzpunkt K0 und die beiden Empfänger- Arrays werden so verschoben, daß deren Bilder zumindest teilweise im Objektraum zusammenfallen, so daß die Bilder der Elemente des ersten Empfanger-Arrays und die Bilder der Elemente des zweiten Empfanger-Arrays im Objektraum paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wo- bei die paarbildenden Elemente der beiden Empfanger-Arrays jeweils korrespondierende Elemente darstellen. So wird vorzugsweise jeweils ein aktueller Koinzidenzpunkt aus zwei Bildern von Elementen gebildet, der durch den Objektraum ver- schoben wird. Dies erfolgt vorzugsweise mit allen Elementen der Empfanger-Arrays. Es werden vorzugsweise Signalverläufe Si des ersten Empfanger-Arrays durch Auslesen der Elemente während der Verschiebung des ersten Empfanger-Arrays gebil- det. Die Verschiebung des ersten Empfanger-Arrays wird parallel zu einer Geraden gAlP durchgeführt und so werden die Elemente des ersten Empfanger-Arrays zumindest annähernd parallel zu einer Geraden gAiP auf Verschiebungsstrecken ASAij verschoben. Weiterhin werden Signalverläufe S2 des zweiten Emp- fanger-Arrays durch Auslesen der Elemente während der Verschiebung des zweiten Empfanger-Arrays gebildet und die Verschiebung des zweiten Empfanger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfanger-Arrays zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben, wobei die Verschiebung des zweiten Empfanger-Arrays zumindest näherungsweise gleichzeitig mit der des ersten Empfanger-Arrays erfolgt. Die Gerade gAiP wird in einem Punkt PAi auf der Symmetrielinie in der Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 auf der Symmetrielinie in der Hauptebene des zweiten Abbildungsobjektivs zum Schnitt gebracht, wobei die Gerade gAiP zusätzlich den Brennpunkt FAi des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum enthält. Aufgrund der natürlichen Strukturierung der beleuchteten oder auch selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfanger-Arrays aufgenommenen Signalverläufe Sι3 und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die besonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die z0-Position des jeweils zugehörigen Elementes der Objektoberfläche bestimmt werden. Die beiden Signalverläufe Sij und S2j von zwei korrespondierenden Elementen lj und 2j der Empfänger-Arrays sind über dem Weg der Verschiebung der beiden Empfanger-Arrays im Speicher eines Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindest zu einem Zeitpunkt koinzidie- ren. So bilden ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemeinsamen Schärfevolumen zumindest zu einem Zeitpunkt ein Paar korrespondierender Elemente. Es werden nun aus jedem der beiden Signalverläufe Si-, und S2- mittels einer Fensterfunktion mit mindestens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und einer maximalen Fensterlänge, die zumindest näherungsweise der Länge der Signalverläufe Si-, und S2-, entspricht, sich überdeckende Signalstücke Si teil 3 und S2 teιi 3 in jedem der beiden Signalverläufe Si-, und S2] aus den Fenstern gebildet. Vorteilhaft sind Fensterlängen mit einer Länge von beispielsweise 8 oder 16 Signalwerten. Es erfolgt das synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfanger-Arrays entspricht, über jeden dieser beiden Signalverläufe Sι3 und S2] und aus jedem aktuellen Fenster in der Position k, mit 1 < k < m, wird je ein Signalstück Si teil Position 3 und S2 teιi Position k 3 gebildet. Dabei überdecken sich diese nacheinander gebildeten Signalstücke Si teil D Posiion k ] und S2 eil 3 Position 3 n jedem der beiden Signalverläufe Si-j und S2-, in einem Teilbereich, wobei jeweils am gleichen Ende der beiden Signalverläufe Si-, und S2] mit dem Verschieben der Fensterfunktion in beiden Signalstücken begonnen wird. Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 Si teil Position I 3 und
S2 teil Position ι j i die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück Sx Teιl Position 1 3 und aus einem invertierten Signalstück S2 Teιl Position 1 INV 3 das Maximum der Kreuzkorrelationsfunktion MCC i 2 - Position 1 berechnet und gespeichert wird. Die Invertierung ist notwendig, um korre- lierbare Signale zu erhalten, da die Abbildungsstrahlen der Elemente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der Szene entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinander zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D-Aufnahmeanordnung. Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC i 2 j Position ι i der Position 1 erfolgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunk- tion MCC i 2 3 Position 2 in der beschriebenen Art berechnet wird, bis die Fensterfunktion am anderen Ende der beiden Signalverläufe Si-, und S2] in der Position m angekommen ist und wiederum das Maximum MCC i 2 -, Position m der Kreuzkorrelationsfunktion MCC i 2 3 Position m bestimmt wird. Aus den m berechneten Ma- xima MCCm wird eine Maximalwert-Kurve gebildet, wobei in dieser Maximalwert-Kurve wiederum das sich ergebende Maximum M m 3 bestimmt wird und der Ort des Maximums M m - der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeord- net wird. Diese so berechnete Maximalwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann eine Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der weiteren Verarbeitung ausgeschlossen werden. So wird der Ort des jeweiligen Maximums M -, als Ort des zu den beiden korrespondierenden Elementen lj und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array-Raum definiert. Aus dem Ort dieses Maximums M - im Array-Raum wird die z0-Koordinate des jeweiligen Elementes der Objektoberfläche in z0-Richtung berechnet und auch die x0- und y0-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D-Aufnahmeanordnung bekannt ist. So können die Positionen von den Elementen einer Objektoberfläche, von welchen Signalverläufe aufgenommen werden, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschiebung, der beiden Empfänger-Arrays vorbestimmt sind.
Weiterhin kann die Achse eines ersten Abbildungsobjektivs für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungsobjektivs für die Abbildung der Objektoberflächen ausgerichtet sein. Es ist möglich, daß die Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Hauptebene des zweiten Abbildungsobjektivs zumindest näherungsweise in einer gemeinsamen Ebene zusammenfallen und die Empfänger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befinden. So ist gegeben, daß der Punkt PAi auf der Symmetrielinie liegt und der Punkt PA2 auf der Symmetrielinie liegt und so die beiden Punkte PA1 und PA2 zumindest näherungsweise in einem Punkt PA zur Koinzidenz gebracht werden. So kann von Freiraumszenen auch im Hintergrund der Szene die 3D-Punktwolke gewonnen werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise beleuchtete Objektoberflächen mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang abgebildet werden. Im Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der parallelen, zumindest näherungsweise baugleichen Abbildungsstrahlen- gänge, deren Hauptebenen zusammenfallen, verschoben, wobei die Objektoberflächen in der Szene beleuchtet sind. Der Signalverlauf Siz wird durch Auslesen von lateral nebeneinander liegenden Elementen des ersten Empfänger-Arrays während der Verschiebung des ersten Empfänger-Arrays so gebildet, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung benutzt werden, die auf Strecken liegen, die parallel zu einer Geraden gAiP ausgerichtet sind, die den Punkt PA in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet. So entspricht der gebildete Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden gAiP entstehenden Signalverlauf Si zumindest annähernd und der Signalverlauf S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger-Arrays so gebildet, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung benutzt werden, die auf Strecken liegen, die parallel zu einer Geraden gA2P ausgerichtet sind, die den Punkt PA in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet. So ent- spricht der gebildete Signalverlauf S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zumindest annähernd. So wird zumindest jeweils zu einem Zeitpunkt ti in einem Zeitintervall Δti ein aktueller Koinzidenzpunkt von Elementen der beiden Empfänger-Arrays ge- bildet, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektraumes gebildet wird.
Aus den beiden Signalverläufen Sij, S2j von zwei zumindest je- weils zu einem Zeitpunkt korrespondierenden Elementen der Empfänger-Arrays wird durch das vordem bereits beschriebene Korrelationsverfahren mit zwei gefensterten Signalverläufen mit der jeweils stückweisen Inversion von Signalstücken zur Bestimmung der z0-Position eines Elementes der Objektoberfläche die z0-Koordinate des jeweiligen Elementes der Objektoberfläche berechnet und so auch deren x0- und y0-Position, und so wird die gesamte 3D-Punktwolke von Objektoberflächen in einer Szene berechnet, wobei die Geometrie der 3D- Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vorbestimmt sind.
Weiterhin kann auch das Abbildungsobjektiv zum Empfanger- Array verschoben werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene mit mindestens einer elektromagneti- sehen Strahlungsquelle vorgeschlagen, die als ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte ausgebildet ist. Weiterhin ist vorzugsweise mindestens eine Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenelementen ausgebildet. Dabei kann vorzugsweise auch ein strukturiertes Array in der Art eines Liniengitters mit einer vorgeordneten Strahlungsquelle zur Anwendung kommen. Weiterhin kann im Array-Raum ein elektronisch steuerbares Liniengitter ausgeführt sein. Die Strahlungsquel- le und das strukturierte Array bilden gemeinsam das strukturiert leuchtende Array. Die Orte bestimmter relativer Leuchtdichte des strukturiert leuchtenden Arrays und auch die der lokalen Extrema der Leuchtdichte dieses strukturiert leuchtenden Arrays können elektronisch verschiebbar gemacht sein. Die Strahlungsquelle kann für Strahlung im sichtbaren und im unsichtbaren Spektralbereich ausgelegt sein, beispielsweise im Spektralbereich von 750 nm bis 900 nm. Weiterhin ist min- destens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv angeordnet. Dem Beleuchtungsobjektiv ist das strukturiert leuchtende Array zugeordnet. Es kann aber auch ein Bild des strukturiert leuchtenden Arrays dem Be- leuchtungsobjektiv zur Abbildung zugeordnet sein. Dabei weist das Beleuchtungsobjektiv eine effektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB auf. Das strukturiert leuchtende Array und das Beleuchtungsobjektiv dienen zur strukturierten Beleuchtung der Objektoberflächen in der Szene. Weiterhin ist mindestens ein Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die Abbildung der Elemente der Objektoberflächen in der Szene angeordnet. Diesem Abbildungsobjektiv ist mindestens ein Empfanger- Array zugeordnet. Das Abbildungsobjektiv weist zur Abbildung der Elemente der Objektoberflächen eine effektive Öffnungsblende mit einem Blendenzentrum BZA auf. Diesem Abbildungsobjektiv ist mindestens ein Empfänger-Array mit Elementen, die im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren, zu- geordnet. Dabei beträgt der Abstand d des Pupillenzentrums PZ0B des Beleuchtungsobjektivs, als Bild des Blendenzentrums BZB im Objektraum, vom Pupillenzentrum PZ0A des Abbildungsobjektivs, als Bild des Blendenzentrums BZA im Objektraum, mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuchtungsobjektivs. Dabei wird aus einem leuchtenden Flächenelement in einer Leuchtdichteverteilung mit einer vorzugsweise, zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte durch Abbildung mit dem Beleuchtungsobjektiv ein Bild eines leuchtenden Flächenele- mentes im Objektraum gebildet. Weiterhin ist ein Bewegungssystem mit vorzugsweise mindestens einer beweglichen Komponente angeordnet, welches dem strukturiert leuchtenden Array zugeordnet ist. Die Verschiebungsstrecken der leuchtenden Flä- chenelemente im Array-Raum sind vorzugsweise aus der mechanischen Bewegung des strukturiert leuchtenden Arrays gebildet. Es ist aber auch möglich, daß zeitgleich eine elektronische Verschiebung der leuchtenden Flächenelemente, beispielsweise in lateraler Richtung stattfindet und das Bewegungssystem mit mindestens einer beweglichen Komponente eine Bewegung des strukturiert leuchtenden Arrays parallel zur optischen Achse des Beleuchtungsobjektivs realisiert. Nach Abbildung dieser Verschiebungsstrecken durch das Beleuchtungsobjektiv in den Objektraum ist deren Bild zumindest naherungsweise als ein Streckenbuschel SBi mit einem Konvergenzpunkt Kx gebildet.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflachen in einer Szene die Verschiebungsstrecken der leuchtenden Flachenelemente zumindest annähernd parallel angeordnet sein und so der Konvergenzpunkt Ki zumindest annähernd in der Brennebene des Beleuchtungsobjektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnähme von Objek- toberflachen in einer Szene das leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Linien und der Linienbreite ausgebildet sein. Dabei können die Linien senkrecht zum Hauptschnitt angeordnet sein und die Verschiebungsstrecken der leuchtenden Flachenelemente und so auch der leuchtenden Flächenelemente mit lokalen Ex- trema der Leuchtdichte im Array-Raum - als Resultat der mechanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden
Arrays im Array-Raum gebildet sein. Aus diesen Verschiebungsstrecken kann im Array-Raum im Hauptschnitt und in jeder zum Hauptschnitt parallelen Schnittebene zumindest näherungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt Kx gebildet sein. Der Konvergenzpunkt Kx des Streckenbüschels kann im Pupillenzentrum PZ^ des Abbildungsobjektivs im Array-Raum angeordnet sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Verschiebungsstrecken der leuchtenden Flächenelemente zumindest annähernd parallel zu einer definierten Geraden gAP angeordnet sein. Dabei weisen die leuchtenden Flächenelemente in einer Leuchtdichteverteilung vorzugsweise eine zumindest naherungsweise vorherbestimmt gleichbleibende relative Leuchtdichte auf. Die Gerade gAP schneidet den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten „Abstand des Pupillenzentrums PZ0A der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und Brennweite fB des Beleuchtungsobjektivs" auf, wobei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine Komponente des Bewegungssystems dem Empfanger-Array zugeordnet sein, und so bei der me- chanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke dessen Elementen Verschiebungsstrecken ASA;] auf parallelen Geraden zugeordnet sein, wobei vorzugsweise aus den Bildern ASθD dieser Strecken ASA-, bei Abbildung durch das Abbildungsobjektiv zumindest näherungsweise ein Streckenbü- schel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet sein kann. Dabei kann der Konvergenzpunkt Kx und der Konvergenzpunkt K2 mit dem Brennpunkt F0A und dem Pupillenzentrum PZ0A der Pupille des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein. Weiterhin kann das Abbildungsobjektiv auf der Seite des Raumes der Arrays telezentπsch ausgeführt sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Ob ek- toberflachen in einer Szene eine Komponente des Bewegungssystems dem Empfanger-Array zugeordnet sein und so bei der mechanischen Bewegung des Empfanger-Arrays auf einer Verschie- bungsstrecke dessen Elementen Verschiebungsstrecken ASA-, auf parallelen Geraden zugeordnet sein, wobei aus den Bildern dieser Strecken bei Abbildung durch das Abbildungsobjektiv zumindest naherungsweise mindestens ein Streckenbuschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet ist. Der Konvergenzpunkt Kx und der Konvergenzpunkt K2 können mit dem Brennpunkt F0A und dem Pupillenzentrum PZ0A der Pupille des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein und das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein. So können die Achsen des Beleuchtungsobjektivs und des Abbildungsobjektivs parallel zueinander angeordnet sein und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sein. Weiterhin können bei einer Anordnung zur 3D-Aufnähme von Objektoberflachen in einer Szene die Komponenten des Bewegungssystems so angeordnet sein, daß im Array-Raum mit dem Brennpunkt FAB des Beleuchtungsobjektivs als Bezugspunkt für das leuchtende Array eine Gesamtbewegungsrichtung zumindest annähernd parallel zu einer Geraden gA im Array-Raum realisiert ist, so daß die Elemente des strukturiert leuchtenden Arrays sich auf parallelen Geraden zur Geraden gA bewegen und diese Gerade gA mit dem Brennpunkt FAB des Beleuchtungsob ektivs im Array-Raum zum Schnitt gebracht ist und den Anstieg mit dem Betrag aus dem Quotienten „Brennweite fB des Beleuchtungsobjektivs und Abstand d des Brennpunktes FÄÄ des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs" aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das strukturierte Array zumindest auf einem Teilbereich einer Scheibe ausgebildet sein, der vorzugsweise eine rotatorische Präzisionslagerung mit einer Welle mit einem rotatorischen Motor zugeordnet ist, so daß eine rotierende Scheibe gebildet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotierende Scheibe mit transparenten Platten-Sektoren unterschiedlicher geometrischoptischer Dicke ausgebildet sein.
Weiterhin kann bei der Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene das Empfänger-Array eine Farbkamera darstellen.
Außerdem ist die Anwendung eines speziellen Empfänger-Arrays mit RGB-Kanälen und einem vierten Kanal, dem NIR-Kanal, beispielsweise mit einem Wellenlängenintervall von 750nm bis 900nm, für die Gewinnung der Information für die 3D- Punktwolke möglich.
Weiterhin ist in einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene mit mindestens einer elektromagnetischen Strahlungsquelle die Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flachenelementen ausgebildet. Es ist mindestens ein Beleuch- tungsstrahlengang mit mindestens einem Beleuchtungsobjektiv, welches eine effektive Offnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB aufweist, zur strukturierten Beleuchtung der Objektoberflachen im Objektraum angeordnet. Das Beleuchtungsobjektiv ist dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordnet. Außerdem ist dem mindestens einen Beleuchtungsstrahlengang ein Abbildungs- strahlengang zugeordnet mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberflachen mit mindestens einem dem Empfanger-Array oder einem Bildes desselben zugeord- neten Abbildungsobjektiv zur Abbildung der Elemente der Ob- jektoberflachen, welches eine effektive Offnungsblende mit einem Blendenzentrum BZA aufweist. Mittels eines Empfanger- Arrays wird im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflachen im Ob- jektraum detektiert. Der Abstand d des Pupillenzentrums PZ0B des Beleuchtungsobjektivs, als Bild des Blendenzentrums BZB im Objektraum, vom Pupillenzentrum PZ0A des Abbildungsobjektivs, als Bild des Blendenzentrums BZA im Objektraum, betragt mindestens ein Achtel der Ausdehnung DB der Offnungsblende des Beleuchtungsobjektivs. Die leuchtenden Flachenelemente weisen in einer Leuchtdichteverteilung eine zumindest nahe- rungsweise vorherbestimmten Leuchtdichte auf, so daß durch die Abbildung mit dem Beleuchtungsobjektiv mindestens ein Bild eines leuchtenden Flachenelementes im Objektraum gebil- det ist. So ist erfindungsgemaß im Objektraum das Scharfevolumen mindestens eines Bildes eines leuchtenden Flachenelementes in einem strukturiert leuchtenden Array - durch die vorbestimmte Zuordnung des leuchtenden Flachenelementes zum Beleuchtungsobjektiv und die Zuordnung der Elemente des Empfänger-Arrays zum Abbildungsobjektiv und die Zuordnung von Beleuchtungsobjektiv zum Abbildungsobjektiv in der SD- Aufnahme-Anordnung unter Anwendung der Newtonschen Abbil- dungsgleichung - permanent in das Schärfevolumen eingepaßt, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays im Objektraum dargestellt ist.
Dabei weist das Schärfevolumen, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, mindestens eine so große Tiefenausdehnung wie das Schärfevolumen eines einzelnen Bildes eines leuchtenden Flächenelementes auf. Im Objektraum ist jeweils ein Bild eines leuchtenden Flächenelementes eines strukturierten Arrays mindestens einem Bild eines Elementes des Empfänger-Arrays fest zugeordnet.
Aus dem Datensatz von einer bekannten Soll-Objektoberfläche kann ein strukturiert leuchtendes Array mit mehreren fest an- geordneten leuchtenden Flächenelementen in einer räumlichen Struktur gestaltet werden. Im Objektraum entstehen nach Abbildung der Flächenelemente durch das Beleuchtungsobjektiv an verschiedenen Orten Bilder derselben. In der 3D-Aufnahme- Anordung ist in den optisch konjugierten Orten im Array-Raum des Abbildungobjektivs jeweils mindestens ein Element eines Empfänger-Arrays angeordnet. Bei der exakten Positionierung eines Objektes im Objektraum, welches dort Elemente der Objektoberfläche aufweist, wo sich ein Bild der leuchtenden Flächenelemente befindet, detektieren die Elemente des Emp- fanger-Arrays jeweils einen Signalwert oberhalb eines
Schwellwertes. In diesem Fall erfolgt eine parallele Detektion durch die Elemente des Empfänger-Arrays. Dies kann mit ei- ner hohen Geschwindigkeit durchgeführt werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberflache das strukturierte Array als ein transparentes Mikrolinsen-Array ausgebildet sein und die Brennweite und die axiale Lage der Mikrolinsen so gestaltet sein, daß deren Foki in einer 3D-Flache angeordnet sind, die zumindest naherungsweise eine zur Sollflache optisch konjugierte Flache darstellt. Die Foki der Mikrolinsen stellen zu- mindest naherungsweise einige optisch konjugierten Orte der Sollflache eines Prüflings dar. So kann durch die Bestimmung der Fokuslage im Bild die Abweichung von einer Sollage bestimmt werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberflache auf dem strukturierten Array mindestens ein Relief mit einer raumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe mit mindestens einer in der Ausgleichsflache schrägen Rampenfla- ehe gebildet sein. Auf der schrägen Rampenflache sind vorzugsweise leuchtende Flachenelemente als Binar-Code-Muster angeordnet. Diese Flachenelemente werden durch Fensterflachen gebildet, die von der Strahlungsquelle beleuchtet werden. Die Rampenflachen sind vorzugsweise so geneigt, daß die Aus- gleichsgerade AGA- durch die schräge Rampenfläche im Hauptschnitt nach Abbildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AG0] liefert, die zumindest naherungsweise auf das Pupillenzentrum PZ des Abbildungsobjektivs zielt. In der Regel sind mehrere Rampen vorhanden, so daß die verschiedenen Ausgleichsgeraden AG0] von mehreren verschiedenen Rampen nach deren Abbildung durch das Beleuchtungsobjektivs aus deren Bildern ein Geradenbundel mit einen Konvergenzpunkt Kx gebildet ist. Das Beleuchtungsobjektiv ist dabei vorzugsweise hoch geöffnet. Der Konvergenzpunkt Kx ist dabei zumindest naherungsweise im Pupillenzentrum PZ des Abbildungsobjektivs zur Koinzidenz gebracht. So ist gegeben, daß bei der Aufnahme von Bildern der Objektoberflache m allen Tiefen eindeutig eine Rampe verfolgt werden kann, ohne daß es Probleme mit lateralen Fehllagen gibt. Das Abbildungsobjektiv kann vergleichsweise kurzbrennweitig sein, kurzer als das Beleuchtungsobjektiv, und ist dabei so weit abgeblen- det, daß ein großer Tiefenscharfebereich gegeben ist. Damit bestimmt der Tiefenscharfebereich des Abbildungsobjektivs hier den Tiefenbereich für die 3D-Aufnahmeanordnung. Die Bilder der Rampen bilden im Hauptschnitt ein Büschel mit dem Ursprungspunkt im Pupillenzentrum PZ. So wird die zu detektie- rende Objektoberflache von den Rampenbildern durchschnitten. Im Schnittpunkt eines Rampenbildes mit der Objektoberflache entsteht jeweils ein scharfes Bild von der Maske auf der Rampenflache.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Ob- jektoberflachen in einer Szene mit zwei Abbildungsstrahlen- gangen mit zwei zumindest naherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, die Haup- tebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sein und jedem derselben je ein Empfanger-Array mit detektierenden Elementen zugeordnet sein, so daß ein erstes und ein zweites Empfanger-Array angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist. Die resultieren- de Bewegung des ersten Empfanger-Arrays kann dabei auf einer Strecke ASAx auf dem ersten oberen Ast eines Buchstabens Y erfolgen und die Strecke ASAx kann parallel zu einer Geraden gAiP liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrielinie zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zu- sammenfallenden Hauptebenen schneidet, so daß sich die detek- tierenden Elemente des erstes Empfanger-Arrays auf den Strek- ken ASÄI-, bewegen, wobei ein Teil der Symmetrielinie den unteren Teil des Buchstabens Y bildet. Die resultierende Bewegung des zweiten Empfanger-Array kann auf einer Strecke ASA2 auf dem zweiten oberen Ast des Buchstabens Y erfolgen, und die Strecke ASAx kann parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrielinie zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So können sich die detektierenden Elemente des zweites Empfanger-Arrays auf den Strecken ASAx-, bewegen. Die Szene kann eine Freiraumszene sein.
Weiterhin kann die resultierende Bewegung des ersten Empfanger-Arrays auf einer Strecke parallel zur optischen Achse des ersten Abbildungsobjektivs erfolgen, und genau die Elemente des ersten Empfanger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet werden, welche sich auf Strecken ASAx-, befinden, die parallel zu einer Geraden gAxP liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneiden und andererseits den Durchstoßpunkt PA der Symmetrielinie zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Haup- tebenen schneiden. So entsprechen die zur Signalbildung verwendeten Elemente des erstes Empfanger-Array denen, welche sich auf Strecken ASA-, befinden, wobei ein Teil der Symme- trielinie den unteren Teil eines Buchstabens Y bildet und die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann auf einer Strecke parallel zur optischen Achse des zweiten Abbildungsobjektivs erfolgen, wobei genau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken ASA2j befinden, die parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrielinie zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So entsprechen die zur Signalbildung verwendeten Elemente des zweiten Empfänger-Array denen, welche sich auf Strecken ASA2j befinden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit zwei Abbildungsstrahlengängen mit zwei zumindest n herungsweise baugleichen, parallel angeordneten Abbildungsobjektiven, einem ersten Abbil- dungsobjektiv und einem zweiten Abbildungsobjektiv, die Hauptebenen der beiden Abbildungsobjektive zumindest näherungsweise zur Koinzidenz gebracht sein und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet sein, so daß ein erstes und ein zweites Empfänger-Array mit Elemen- ten angeordnet sind, und das erste und das zweite Empfänger- Array mindestens je eine Empfängerfläche aufweisen, die jeweils senkrecht zum Hauptschnitt liegt. Dabei enthält die Empfängerfläche des ersten Empfänger-Arrays vorzugsweise eine Strecke ASAi, die parallel zu einer Geraden gAxP auf dem er- sten oberen Ast eines Buchstabens Y liegt, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symme- trielinie SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet, so daß die detektierenden Elemente des erstes Empfänger-Arrays im Hauptschnitt auf der Strecke ASAx angeordnet sind. Dabei bildet vorzugsweise ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y. Mindestens eine Empfängerfläche des zweiten Empfänger-Arrays liegt vorzugsweise auf einer Strecke AS2 auf dem zweiten oberen Ast des Buchstabens Y parallel zu einer Geraden gA2P, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrielinie SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet, so daß die detektierenden Elemente des zweites Empfänger-Arrays im Hauptschnitt auf der Strecke ASAx angeordnet sind. Diese Anordnung ermöglicht die Detektion von beleuchteten Elementen der Objektoberfläche im Objektraum auf einer Ebene senkrecht zum Hauptschnitt. Die Empfänger- Matrizen sind im Aufbau gleich und in einer zur Symmetrieli- nie SL symmetrischen Position und in gleicher Höhe angeordnet .
Bevorzugt wird vorgegangen wie folgt: Die Signale der beiden Empfängerflächen werden bevorzugt zeilenweise ausgelesen, so daß die Empfängerfläche des ersten Empfänger-Arrays die Signalverläufe Si und die Empfängerfläche des zweiten Empfänger-Arrays die Signalverläufe S2 liefert. Diese Signalverläufe werden Zeile für Zeile ausgewertet, wobei die Zeilen in gleicher Entfernung vom Hauptschnitt die jeweils korrespon- dierenden Elemente enthalten. Für das Auffinden des Ortes eines Elementes der Objektoberfläche im Objektraum kommt die Auswertung entsprechend dem bereits beschriebenen Korrelati- onsverfahren mit zwei gefensterten Signalverläufen zur Anwendung. Auch hier werden durch eine Fensterfunktion Signalstük- ke erzeugt. Ein Signalstück wird dabei jeweils invertiert, indem die Signalwerte gespiegelt werden. Es wird die Kreuzkorrelation jeweils von einem originalen Signalstück und jeweils von einem invertierten Signalstück, wobei die Signalstücke jeweils symmetrisch angeordnete Zeilenausschnitte in der 3D-Anordnung repräsentieren, durchgeführt und jeweils ein Korrelationskoeffizient gewonnen und abgespeichert. Dabei wird das Fenster der Fensterfunktion, welches beispielsweise eine Länge von 64 Pixeln aufweisen kann, beispielsweise in Schritten von einem Inkrement verschoben, das hier einem Pixel in der jeweils ausgewerteten Zeile entspricht. Für Überblicksmessungen kann auch ein größerer Verschiebungschritt des Fensters als um ein Pixel erfolgen. Die Länge des Fensters wird in Abhängigkeit von der relativen Öffnung gewählt. Dabei kann die Fensterlänge auch variabel gestaltet werden. So erfolgt die Bestimmung der z0-Position der Elemente der Objektoberfläche in einer zum Hauptschnitt senkrechten Ebene in der Symmetrielinie SL.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem Beleuchtungsobjektiv ein erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbildungsobjektiv mit einem Empfänger-Array zugeordnet sein, wobei das Pupillenzentrum PZ0A des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZ0B des Beleuchtungsobjektivs angeordnet ist. Jedem der beiden Abbildungsobjektive ist je ein räumlich strukturiertes Empfänger- Array zugeordnet, so daß ein erstes und ein zweites Empfänger-Array im Array-Raum angeordnet sind. Dabei weisen das erste und das zweite räumlich strukturierte Empfänger-Array mindestens je zwei Empfängerflächen auf räumlich getrennten Flächen auf und die Empfängerflächen des ersten und die Empfängerflächen des zweiten Empfänger-Arrays sind jeweils so angeordnet, daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindest von Teilen von Empfängerflächen des ersten Empfänger-Arrays sowie von Teilen der Empfängerflächen des zweiten Empfänger-Arrays im Objektraum gebildet sind. Auch hier erfolgt die Auswertung mit dem Korrelationsverfahren mit zwei gefensterten Signalverläufen wie oben bereits dargestellt.
Die Erfindung wird im folgenden nur beispielhaft unter Bezugnahme auf die Zeichnung beschrieben. In dieser zeigen:
Fig. 1 bis 10 verschiedene Darstellungen der Erfindung; Fig. 11 bis 15 für das Verständnis der Erfindung und deren
Erläuterung wichtige Details.
Es wird zunächst auf die Grundlagen der Erfindung anhand der Fig. 11 bis 15 eingegangen.
Fig. 11 zeigt die Beleuchtung eines Objektes mit einer Objektoberfläche 200 durch eine Linse 201 mittels einer durch eine Lochblende 202 realisierten Lichtquelle. Die Öffnung der Lochblende 202 ist auf der gestrichelt gezeichneten optischen Achse 203 der Linse 201 angeordnet. Die Fig. 11a, 11b und 11c unterscheiden sich im Abstand der Lochblende von der Linse, wie durch die Strecken A, B, C angedeutet.
In Fig. 11a ist der Abstand A zwischen Lochblende 202 und
Hauptebene der Linse 201 so gewählt, daß der Bildpunkt der
Lochblende 202 im Objektinneren liegt. Demgemäß ist der in den Objektraum von der Lochblende 202 projizierte Lichtkegel auf der Objektoberfläche noch vergleichsweise ausgedehnt, wie durch die Fläche Aλ angedeutet.
In Fig. 11b ist der Abstand zwischen Lochblende und Linse so gewählt, daß die Lochblende genau auf die Objektoberfläche abgebildet wird. Die beleuchtete Fläche auf der Objektoberfläche ist sehr klein. In Fig. 11c ist der Abstand zwischen Lochblende und Linse so groß, daß der Lichtkegel bereits vor der Objektoberfläche seine geringste Ausdehnung aufweist und zur Objektoberfläche hin wieder auseinander läuft. Je nach
Abstand unterscheidet sich weiter die Lichtfleckgröße. Zu beachten ist nun zuerst, daß die Bildpunkte für die Situationen in Fig. 11a, 11b, 11c auf einer geraden Linie liegen, wie in Fig. lld angedeutet. Zu beachten ist weiter, daß die unter- schiedliche Ausdehnung der Lichtkegel in Situationen der Fig. 11a bis 11c zu einer unterschiedlich hohen Lichtintensität auf der Oberfläche führen und demgemäß der beleuchtete Fleck mehr oder weniger hell erscheint. Dies ist in den Fig. 11a bis 11c durch die Pfeile symbolisiert, deren Länge die Inten- sität des an der Oberfläche in beliebige Richtungen gestreuten Lichtes darstellen. In Fig. 11b tritt die höchste Intensität des gestreuten Lichtes auf. Fig. 12 veranschaulicht noch einmal den Zusammenhang von Lochblendenabstand, Lichtfleckausdehnung und Intensität des gestreuten Lichtes.
Das Licht von der Oberfläche des Objektes 200 wird bei typischen Oberflächen diffus gestreut, so daß es unter verschiedenen Blickrichtungen beobachtbar ist. Dies ist in Fig. 13 dargestellt.
Prinzipiell ist bei einer einzelnen Lichtquelle wie einer Lochblende nun nicht festzulegen, wo eine besonders vorteilhafte Beobachtungsposition vorliegt. Im Regelfall erfolgt die Beleuchtung eines Objektes aber simultan mit einer Vielzahl von Beleuchtungspunkten, beispielsweise mit einer Gitteroder Streifenmaske zur Abschattung einer Lichtquelle. Dies erschwert eine Signalauswertung. Während es bei einer einfa- chen Lochblende nämlich ohne weiteres möglich ist, den Oberflächenpunkt zu bestimmen, indem einfach die Signalstärke beobachtet wird, treten bei Gitterblenden oder dergleichen weitere Schwierigkeiten auf, da noch identifiziert werden muss, wo der jeweils stark leuchtende Objektbereich eines bestimm- ten Beleuchtungspunktes auf dem Objekt liegt.
Die räumliche Zuordnung erfolgt nun typisch mit einem Detek- torarray durch Auswertung der damit erhaltenen Signale. Um die Zuordnung und Auswertung zu erleichtern, ist es er- wünscht, wenn ein bestimmter Bereich der Objektoberfläche stets auf dasselbe Element des Detektorarrays fällt. Hierzu wird in der Erfindung ein weiterer, aus der Optik bekannter Effekt ausgenützt, der mit Bezug auf Fig. 14 veranschaulicht wird.
Fig. 14a zeigt die Beleuchtung der Objektoberfläche (die sich im dargestellten Fall in der Bildebene befindet) mit einer Lochblende, deren Öffnung exakt auf der optischen Achse 203 liegt. Gemäß der Anordnung der Lochblende auf der optischen Achse liegt auch der auf das Objekt projizierte Lochblenden- bildpunkt auf der optischen Achse. Wird nun, wie in Fig. 14b dargestellt, die Lochblende lateral zur optischen Achse verschoben, und war um einen Abstand A, so wandert der Bildpunkt entsprechend lateral auf der Oberfläche um eine Strecke AA Dies ist aus der geometrischen Optik gut bekannt.
Es ist einzusehen, daß eine Überlagerung der Verschiebung von
Fig. 11 in Richtung der optischen Achse und der Bewegung von Fig. 14 lateral zur optischen Achse eine Bewegung des Bildpunktes auf einer Gerade zur Folge haben wird, die eine Querkomponente zur optischen Achse aufweist, also gegen diese geneigt ist. Die vektorielle Bewegungsuberlagerung ist in Figur 15 veranschaulicht.
Um die Objektbereichsidentifizierung zu erleichtern, schlagt die Erfindung nun vor, die Beobachtung eines Objektpunktes durch ein Beobachtungssystem vorzunehmen, welches exakt auf der geneigten Bildpunktgeraden liegt, die durch die Wanderung der Bildpunkte durch den Objektraum beschrieben ist. Wichtig beim Übergang von Blenden auf Gitter ist nun, daß unterschiedlich weit von der optischen Achse entfernt liegende Leuchtpunkte, wie beispielsweise in unterschiedlichen Entfer- nungen zur optischen Achse vorgesehene Offnungen einer Ab- schattungsblende bei gleicher Bewegung eines abschattenden Gitters Bildpunktgeraden mit unterschiedlicher Neigung im Objektraum ergeben. Dies ist mit Bezug auf Fig. 15a veranschaulicht. Es kann gezeigt werden, daß alle diese Bildpunktgera- den in einem einzigen Punkt zusammenlaufen, namlich dem konfokalen Punkt, welcher auf der Fokalebene der Abbildungsoptik liegt. Die Erfindung nutzt diese Erkenntnis, indem die Pupille des Beobachtungssystems in diesen Punkt gesetzt wird; so ist eine Beobachtung der Objektoberflachenbereiche aus- schließlich längs Bildpunktgeraden möglich, wie durch Fig. 15b veranschaulicht, was die Auswertung auf die gewünschte Weise vereinfacht.
Fig. 15c zeigt Signalverhalten m einer Anordnung, bei wel- eher eine einzige Öffnung zur Beleuchtung verwendet wird, vergleiche Fig. 11a. Aufgetragen ist die beobachtete Licht - tensitat I über der Gitter-Verschiebungsstrecke X. Der starke
Signalanstieg, der naherungsweise einer Delta-Funktion ent- spricht, ist dann gegeben, wenn der Bildpunkt auf die Objektoberflache fallt und diese damit Licht mit besonders hoher Leuchtdichte streut. Bei Überlagerung mehrerer Leuchtelemente wie bei einer Gitterblende ergibt sich hingegen eine Situati- on wie in Fig. 15d, wo der Intensitatsverlauf I auf einem bestimmten Pixel mit der Verschiebung X des Abschattungsgitters dargestellt ist, wenn die Verschiebung X sowohl eine Komponente in Richtung der optischen Achse des zugehörigen Abbil- dungssystems als auch eine Komponente lateral dazu aufweist. Der Graph zeigt, daß zwar die Delta-Funktion von Fig. 15c Änderungen der Intensität erfahrt, aber immer noch bei Fokus- sierung von Licht auf den vorgegebenen Bereich der Oberflache eine deutliche Signaluberhohung auftritt. So ist immer noch eine einfache Auswertung der Objektgestalt unter Berucksich- tigung der Signalstarke auf einem einzelnen Arrayelement, das heißt Pixel möglich.
Die weitere Diskussion von Ausfuhrungsformen nimmt auf die Figuren 1 bis 10 Bezug. In der Figur 1 werden die Anordnung und das Verfahren dargestellt. Es wird zwischen dem Array- Raum und dem Objektraum unterschieden. Es wird die folgende Notation verwendet: Die Großen und Punkte des Array-Raumes werden an erster Stelle mit dem Buchstaben A indiziert und die Großen und Punkte des Objektraumes mit dem Buchstaben 0. An zweiter Stelle im Index wird das zugehörige Objektiv gekennzeichnet und zwar im Falle der Zugehörigkeit zum Beleuchtungsobjektiv 1 mit dem Buchstaben B und im Falle der Zugehörigkeit zum Abbildungsobjektiv 2 mit dem Buchstaben A. Im Array-Raum befinden sich ein Liniengitter 3 mit einer Gitter- konstante p und eine vorgeordnete Strahlungsquelle mit sichtbarem Licht, also eine Lichtquelle 4. Diese Lichtquelle 4 kann rechnergesteuert sein, so daß die mittlere Beleuchtungsstarke der Entfernung der jeweiligen Scharfebene nach dem photometrischen Gesetz angepaßt ist. Das Liniengitter 3 ist dem Beleuchtungsobjektiv 1 mit einem telezentrischen Strahlengang im Array-Raum achssenkrecht und extrafokal zugeordnet. Das Beleuchtungsobjektiv 1 bildet das Liniengitter 3 in den Objektraum ab, wodurch zumindest zu einem Zeitpunkt eine strukturierte Beleuchtung der Objektoberfläche 5 entsteht. Zur Vereinfachung sind die beiden Hauptebenen des Beleuchtunsobjektivs 1, HAB und H0B , in der Figur 1 zusammengelegt. Bei Objektiven dieser Klasse liegen die beiden Hauptebenen weit auseinander. Im Array-Raum ist eine Empfänger-Matrix 6 dem Abbildungsobjektiv 2 , welches einen ebenfalls telezentrischen Strahlengang im Array-Raum aufweist, achssenkrecht und extrafokal zugeordnet. Das Abbildungsobjektiv 2 bildet die Objektoberfläche 5 in den Array-Raum ab. Ein einzelner Abbildungsstrahl A0ι ist dargestellt. Zur Vereinfachung sind die beiden Hauptebenen des Abbildungsob ektivs 2, HÄÄ und H0A , in der Figur 1 ebenfalls zusammengelegt. Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 sind mit ihren optischen Achsen zueinander parallel mit dem Achsenabstand d angeordnet. Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 weisen die Array-seitigen Brennpunkte FAB und FÄÄ und im Objektraum die Brennpunkte F0B und F0A auf. Wegen der Telezentrie fallen im Objektraum die Brennpunkte F0B und F0A mit den Austrittspupillen PZ0B und PZ0A zusammen. Es sind zwei Beleuchtungsstrahlen BLSoi und BLS02 und ein Abbildungsstrahl ABS0 dargestellt. Die hier nicht dargestellte, erste Linearführung des Bewegungssy- stems ist mit der Empfänger-Matrix 6 starr verbunden und trägt eine zweite, hier nicht dargestellte, kleinere Linearführung, die wiederum das Liniengitter 3 trägt. Die erste Li- nearführung ist mit einem hochgenauen Längen-Meßsystem verbunden, welches einen hochstabilen Nullpunkt aufweist. Die Bewegungsachse der ersten Linearführung ist parallel zu den
Objektivachsen und die Meßachse des Längen-Meßsystems liegt dabei parallel zu den beiden Objektivachsen. Die Bewegungsrichtung der zweiten Linearfuhrung liegt senkrecht zu den Objektivachsen. Dem Liniengitter 3 auf der zweiten Linearfuhrung ist ein mit der ersten Linearfuhrung fest verbundenes Gegengitter mit einer Beleuchtungs- und Empfanger-Optik in der Art eines mkrementalen Langenmeßsystems zugeordnet. Die Auswerte-Elektronik weist eine elektronische Schnittstelle zum Rechner auf, um die berechnete Verschiebung des Lmien- gitters 3 als Phaseninformation echtzeitnah im Rechner zur Verfugung zu haben. Gleichzeitig ist auf dem Liniengitter 3 im Teil außerhalb des genutzten Bildfeldes eine erste Referenzstruktur aufgebracht, die von einer zweiten Referenzstruktur, die ebenfalls auf dem Gegengitter aufgebracht ist, optisch abgetastet wird. Beide Lmearfuhrungen des Bewegungs- Systems starten aus der Nullposition heraus. Die Bewegungsrichtung der ersten Linearfuhrung ist parallel zur optischen Achse des Abbildungsobjektivs ausgerichtet. Die Bewegung erfolgt zu den Brennpunkten hm. Der kleineren, zweiten Linearfuhrung, die das Lmiengitter 3 tragt, ist ein Positions- Regelsystem zugeordnet, um eine Bewegung des Liniengitters mit einer möglichst konstanten Geschwindigkeit und damit auch mit einer konstanten Phasengeschwindigkeit realisieren zu können. Aus der aktuellen, absoluten Istphase φd ter des Lmi- engitters 3, die von einem Nullpunkt abgeleitet ist, werden die Sollwerte für die Position der ersten Linearfuhrung errechnet. Dies erfolgt so, daß sich die Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer Geraden gA , beispielsweise auf der B- Strecke BSA2 bewegen. Die Gerade gA ist so definiert, daß sie den Brennpunkt FAB des Beleuchtungsob ektivs 1 und außerdem den Hauptpunkt HÄÄ des Abbildungsobjektivs 2 schneidet. Die leuchtenden Flachenelemente bewegen sich im Array-Raum auf den B-Strecken BSA-, . Die Bilder dieser B-Strecken BSA3 , e - schließlich der in der Figur 1 dargestellten B-Strecken BSAx und BSA , werden in den Objektraum abgebildet. Beispielsweise werden aus den B-Strecken BSAx und BSA2 die Bilder BS0ι und BS02 . Die Bilder BS0ι und BS02 bilden ein Streckenbüschel SBX mit dem Konvergenzpunkt Kx, der mit den Brennpunkt F0A des Abbildungsobjektivs 2 zusammenfällt. Weiterhin werden die Elemente des Empfänger-Arrays auf Strecken ASAj verschoben. Dargestellt sind die Strecken ASAx und ASA2 . Deren Bilder stellen im Objektraum das Streckenbündel SB2 mit den Strecken AS0ι und AS02 mit dem Konvergenzpunkt K2 dar, der im Brennpunkt F0A des Abbildungsobjektivs 2 mit dem Konvergenzpunkt Kx koinzidiert, wobei der Koinzidenzpunkt von Konvergenzpunkt Ki und von Konvergenzpunkt K2 im allgemeinen der Koinzidenzpunkt K0 ist. Durch dieses Bewegungsregime werden die achssenkrechten Ebenen des Objektraumes von der Schärfefläche nacheinander "durchfahren", indem sich in jeder dieser Ebenen bei Vorhandensein einer Objektoberfläche ein vom Beleuchtungsobjektiv 1 scharf abgebildetes Streifenmuster beobachten läßt, welches durch das Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 ab- gebildet wird. Dies führt dazu, daß jedes hinreichend kleine Objektdetail, im Objektraum, wenn es von der Schärfefläche "erfaßt" wird, ein moduliertes periodisches Signal im zugehörigen Pixel ij auf der Empfänger-Matrix 6 erzeugt, in welchem die Information über die absolute Phase φ0bj ij des Objektpunk- tes enthalten ist.
Figur 2 zeigt beispielsweise die Signalverläufe S0 und SR in einem Bildpunkt der Empfänger-Matrix 6 in Bezug zum Signalverlauf SG, der am Liniengitter 3 mit Hilfe eines Gegengit- ters beim Bewegen des Gitters 3 detektiert werden kann. Dargestellt werden der Signalverlauf im Bildpunkt S0 eines Objektpunktes und der Signalverlauf SR im Bildpunkt eines Referenzpunktes. Hierbei befindet sich die Referenzplatte näher am Brennpunkt F0B als die Objektoberfläche. Am Abtastpunkt APR im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Referenzpunktes wird die relative Phase φRR errechnet und am Abtastpunkt AP0 im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Objektpunktes die relative Phase φRObj- Mittels der Gleichung (3) wird die absolute Phasendifferenz Δφcitter errechnet und mit Gleichung (4) die absolute Objektphase φ0bj, aus der mit der Gleichung (5) die Z0B- Koordinate eines jeden Objektpunktes, nämlich Z0bjr bestimmt wird. Der hochstabile Nullpunkt N dient als Startpunkt.
Figur 3 zeigt eine 3D-Aufnahme-Anordnung mit einem Beleuchtungsobjektiv 1 und einem Abbbildungsobjektiv 2, wobei beide Objektive im Array-Raum einen beidseitig zentralperspektivischen Strahlengang und so ein kleines Bauvolumen aufweisen. Die Achsen der beiden Objektive sind zueinander geneigt. Let- zeres ermöglicht das Realisieren einer besonders hohen Tiefenempfindlichkeit in einem vergleichsweise kleinen Meßvolumen, beispielsweise für die Aufnahme von Zähnen in der Kieferorthopädie. Dementsprechend ist die gesamte Anordnung mi- niaturisiert . Das von der Lichtquelle 4 ausgehende Licht beleuchtet ein Liniengitter 3. Dieses wird mittels eines hier nicht dargestellten rechnergesteuerten Schlittens einer Linearführung parallel zur Geraden gAP auf einer Strecke bewegt und wird durch das Beleuchtungsobjektiv 1 mit dem Pupillen- Zentrum PZ0B auf die Objektoberfläche 5 projiziert. Die Gerade gAP schneidet den Brennpunkt FAB des Beleuchtungsobjektivs 1 im Array-Raum und die Hauptebene HAB des Beleuchtungsobjektivs 1 im Array-Raum im Punkt HABG • Das Bild der Geraden gAP, die Gerade g0P , liegt parallel zur Achse des Beleuchtungsob- jektivs 1 und schneidet in der Verlängerung die Hauptebene im
Punkt HABG . Das Beleuchtungsobjektiv 1 weist die Brennweite fB auf. Die Objektoberfläche 5 wird mittels eines Abbbil- dungsobjektivs 2 auf eine Empfänger-Matrix 6 abgebildet, die mit einem Rechner mit Framegrabber verbunden ist, wobei mittels Rechner eine Auswertung der aufgenommenen Bilder vorgenommen wird. Das Abbbildungsobjektiv 2 ist so zum Beleuchtungsobjektiv 1 angeordnet, daß das Pupillenzentrum PZ0A sich auf der Geraden g0P befindet. Die Pupillenoffnung des Beleuchtungsobjektivs 1 ist möglichst groß gemacht, beispielsweise betragt das Offnungsverhaltnis 1 : 2. Damit ist der Scharfentiefebereich im Objektraum sehr begrenzt. Dagegen ist die Pupillenoffnung des Abbbildungsobjektivs 2 möglichst klein gemacht, beispielsweise betragt das Offnungsverhaltnis 1 : 22. Damit ist der Scharfentiefebereich im Objektraum vergleichsweise groß. Dies ist notwendig, da die Empfanger- Matrix 6 fest angeordnet ist. Zum Meßablauf: Das Liniengitter 3 wird bewegt und es werden mit der Empfanger-Matπx 6 Bilder aufgenommen, beispielsweise 32. Die Bewegung des Gitters 3 mit der Gitterkonstante p wird hochgenau auf etwa 1% der Gitterkonstante p gemessen. Es werden Bilder aufgenommen, wobei die Phasenanderung zwischen zwei Bildern in der Regel weniger als 2π betragt, beispielsweise 3/2π . Die Lage der Empfanger- Matrix 6, wobei eine CMOS-Kamera wegen des großen Dynamikum- fanges und der Möglichkeit der Auswertung von einzelnen Pixeln eingesetzt werden kann, ist so gewählt, daß der gesamte interessierende Objektbereich scharf erfaßt werden kann. Dabei kann die Empfanger-Matπx 6 gemäß der Scheimpflugbedin- gung auch so gedreht sein, daß diese die beiden Punkte AAx und AA2 enthalt. Unter Berücksichtigung der Geometrie der SD- Aufnahmeanordnung und der Abbildungsverhaltnisse wird aus den aufgenommenen 32 Bildern die 3D-Punktwolke des 3D-Meßobjektes bestimmt. Dazu wird für jeden Objektpunkt die absolute Ob- jektphase φ0b3 bestimmt. Aus dieser errechnet sich die z0b3~
Koordinate für jeden einzelnen Punkt. Über den Abbildungsmaßstab in Abhängigkeit von der z0b] _Koordinate werden die x0b3 _ und die y0b3-Koordinaten aus dem bekannten Pixelpitch der Emp- fanger-Matrix 6 errechnet.
Figur 4 zeigt eine 3D-Aufnahme-Anordnung mit einem Beleuch- tungsobjektiv 1 mit einer vergleichsweise großen Pupillenoff- nung, beispielsweise mit einem Offnungsverhaltnis von 1:2,8 und einem für die Schragabbildung optimierten, zentralperspektivischen Strahlengang. Das beleuchtete Feld liegt asymmetrisch zur Achse des Beleuchtungsobjektivs 1. Vorzugsweise werden hier Objektive im mittleren Brennweitenbereich eingesetzt, beispielsweise mit Brennweiten um 25 mm. Das Abbbil- dungsobjektiv 2 mit beispielsweise einem Offnungsverhaltnis von 1:2,8 weist im Array-Raum einen telezentrischen Strahlengang auf. Die Achsen der beiden Objektive sind zueinander parallel angeordnet. Die Hauptebenen des Beleuchtungsobjek- tivs 1 und des Abbildungsobjektivs 2 fallen im Array-Raum zumindest naherungsweise zusammen. Das von der Lichtquelle 4 ausgehende Licht beleuchtet ein Reflexionsgitter, beispielsweise ein elektronisch steuerbares Digital Micromirror Device 61. Weiterhin sind das elektronisch steuerbare Digital Micromirror Device 61 und die Empfanger-Matrix 6 starr miteinander in der zumindest naherungsweise gleichen Ebene im Array-Raum verbunden. Beide Kompenenten befinden sich hier auf einem rechnergesteuerten Schlitten einer Linearfuhrung. Die Ver- Schiebungsrichtung des Schlittens dieser Linearfuhrung ist parallel zu den Achsen der beiden Objektive ausgerichtet, so daß sich beide Kompenenten synchron und parallel zur optischen Achse des Beleuchtungsobjektiv 1 bewegen. Durch die elektronische Ansteuerung des Digital Micromirror Device 61 kann nicht nur das laterale Verschieben eines leuchtenden
Flachenelementes 3A vorgenommen werden, sondern auch das Verschieben eines Lichtgitters entsprechend einer programmgemäßen Vorgabe realisiert werden. So kann für ein einzelnes leuchtendes Flachenelement 3A auf dem Direct Mirror Device 61 wie auch für die leuchtenden Elemente m präziser Abstimmung mit der Verschiebung durch den rechnergesteuerten Schlitten eine Bewegung auf einer zur Geraden gAP parallelen Strecke BSA3 realisiert werden. Die Gerade gAp schneidet den Brennpunkt FAB des Beleuchtungsobjektivs 1 im Array-Raum und die Hauptebene des Abbildungsob ektivs 2 im Array-Raum im Hauptpunkt HΛΛ . Das Bild der Geraden gAP im Objektraum, die Gerade g0P , liegt in der Achse des Abbildungsobjektivs 2. Beispiels- weise erfolgt so die Verschiebung des leuchtenden Flachenelementes 3A, als ein leuchtendes Flachenelement gleichbleibender relativer Leuchtdichte, vom Punkt BAx zum Punkt B2 . Dabei kann das leuchtende Flachenelement 3A ein Maximum in einer zumindest naherungsweisen cos2-Leuchtverteilung darstel- len, also bei der Detektion eines Signals den Phasenwert 0 aufweisen. Die Leuchtdichteverteilung auf dem Digital Micromirror Device 61 wird durch das Beleuchtungsobjektiv 1 auf die Objektoberflache 5 projiziert. Dabei erfolgt die Abbildung dieser zur Geraden gAP parallelen Geraden und Strecken durch das Beleuchtungsobjektiv 1, wobei die Bilder der Verschiebungsstrecken BSA3 der leuchtenden Flachenelemente, also hier der leuchtenden Mikrospiegel des Digital Micromirror Device 61, im Objektraum ein Streckenbuschel bilden. Beispielsweise bewegt sich ein leuchtendes Flachenelement 3A auf der Verschiebungsstrecke BSA3. Das Bild dieser Verschiebungsstrecke BSA3 , die Strecke BS03 , zielt auf den Konvergenzpunkt Ki im Objektraum. Die Objektoberflache 5 wird mittels Abbbildungsobjektiv 2 auf eine Empfanger-Matrix 6 abgebildet. Der hier nicht dargestellte rechnergesteuerte Schlitten einer Linearfuhrung tragt auch die Empfanger-Matrix 6 und so erfahren die Pixel der Empfanger-Matrix 6 je eine Verschiebung auf einer Strecke ASA3 parallel zur optischen Achse des Abbbil- dungsobjektivs 2. Die Bilder der Strecken ASÄ3 , die Strecken ASθ3 , bilden im Objektraum ein Streckenbündel mit einem Konvergenzpunkt K2 im Brennpunkt des Abbildungsobjektiv, so daß bei einem telezentrischen Abbildungsobjektiv die Konvergenzpunkte Ki und K2, der Brennpunkt F0A, und das Pupillenzentrum PZ0A zusammenfallen. So wird ein Objektpunkt 0 im Objektraum von einem Bild eines leuchtenden Flächenelementes 3A in der Tiefe des Objektraumes bei der Verschiebung verfolgt. Figur 4 zeigt im Objektraum den aktuellen Koinzidenzpunkt Kθ3 i in der Position A0ιB0ι des Bildes des leuchtenden Flächenelemen- tes 3A und des Bildes des Elementes des Empfänger-Arrays im Punkt AAι, das Bild A0ι , zum Zeitpunkt tx . Dieses Element des Empfänger-Arrays wird auf der Strecke ASA3 verschoben. Eine Ablage eines Elementes 0 der Objektoberfläche 5 vom aktuellen Koinzidenzpunkt A0ιB0ι, in Richtung des zum Element des Emp- fanger-Arrays gehörenden Abbildungsstrahls zum Zeitbereich der Aufnahme Δtx führt zu einem Signal mit der Phase rs Diese ergibt sich beispielsweise zu φrS = 2π x ΔxA / p , wobei p die Periode einer zumindestens näherungsweisen cos2- Verteilung und ΔxA das Bild von Δx0 gemäß Figur 4 darstellen. Fällt der Objektpunkt 0 mit dem aktuellen Koinzidenzpunkt Koj ι+ι < beispielsweise in der Position A02Bo2 zum Zeitpunkt tx+ι zusammen, wird ein Signal mit der Phase φrs = 0 registriert. Der aktuelle Koinzidenzpunkt wird weiter durch den Objektraum verschoben. So kann ein periodisches Signal regi- striert werden, welches durch die zunehmende Unscharfe bei der Abbildung gedämpft wird. Die Breite der Modulationskurve des periodischen Signals ergibt sich aus dem Verhältnis von Abstand d der optischen Achsen zum Durchmesser der Öffnungsblende DB des Beleuchtungsobjektivs. Um einen Streifen null- ter Ordnung eindeutig identifizieren zu können, darf dieses Verhältnis in der Regel den Wert 10 nicht überschreiten, wobei das sinnvolle Verhältnis durch den für den Signalverlauf verwendeten Auswerte-Algorithmus wesentlich mitbestimmt wird. Die Figur 5 stellt eine 3D-Aufnahme-Anordnung für Objekte dar, die mit strukturiertem Licht beleuchtet werden. Dabei besteht das Ziel, über die Ermittlung der absoluten Phase von Elementen der Objektoberfläche die Punktwolke derselben be- sonders schnell und genau zu bestimmen. Dazu beleuchtet eine Lichtquelle 4 ein konzentrisch ausgebildetes Gitter 81, wodurch ein strukturiert leuchtendes Array gebildet ist, welches sich in einem Sektor einer Scheibe 83 auf einer planen Oberfläche befindet, die zu einer transparenten Planparallel- platte 84 gehört. Auf der Scheibe 83 gibt es in der gesamten Fläche mehrere transparente Segmente mit transparenten Planparallelplatten 84. Die Abbildung des konzentrisch ausgebildeten, beleuchteten Gitters 81 erfolgt mit dem Beleuchtungsobjektiv 1. Die Scheibe 83 wird mit einen Motor 85 angetrie- ben. Die Drehzahl beträgt beispielsweise 24 U/min. Weiterhin gibt es Referenzmarken zur Erkennung der Mitte eines Segmentes, die zum Auslesen der Empfänger-Matrix 6 verwendet werden. Weiterhin kann in einem planen Bereich auf der Oberseite der Scheibe 83 in unmittelbarer Nähe des konzentrisch ausge- bildetes Gitters 81 die Information über die axiale Lage der Scheibe 83 gewonnen werden. Die aus den im optischen Sensorkopf 87 gewonnenen Informationen über die radiale Lage der Scheibe 83 werden einem Piezosteller 92 in einem hier nicht dargestelltem Regelkreis mit einer elektronisch steuerbaren Spannungsquelle für den Piezosteller 92 als Steuerspannung zugeleitet. Dabei ist der Piezosteller 92 mit der Empfänger- Matrix 6 verbunden, so daß hier nicht wirklich die radiale Lage, sondern der Abstand zwischen dem konzentrisch ausgebildeten Gitter 81 und der Empfänger-Matrix 6 konstant gehalten wird. So wird eine definierte Lage zwischen einem leuchtenden Flächenelement und einem Element der Empfänger-Matrix 6 eingehalten. Die axiale Lage des zugehörigen strukturiert leuchtenden Bereiches wird durch einen zweiten Piezosteller 93 in einem Regelkreis in einer konstanten Position gehalten, indem dieser die Scheibe 83 bei der Rotation derselben in der Sollposition halt. Bei einer Prazisionslagerung kann in der Regel auf die Elimmierung des Axialschlages verzichtet werden. Weiterhin ist im Abbildungsstrahlengang nach dem Abbildungsobjektiv 2 eine planparallele transparente Kompensationsplat- te 94 zur axialen Kompensation der Lage der Empfanger-Matrix 6 angeordnet. So wird erreicht, daß bei jeder Winkelstellung der Scheibe 83, also in jedem der Lichtquelle und der Empfan- ger-Matrix 6 zugeordneten Segment, die optischen Wege gleich sind, d. h. die Gegenstandsweite für das strukturiert leuchtende Array und die Bildweite für die Empfanger-Matrix 6 gleich sind. So kann jeweils in der gleichen Ebene im Objektraum auf der Objektoberflache ein scharf abgebildetes Strei- fenmuster beobachtet werden und dieses auch wieder über das Abbildungsobjektiv 1 und eine transparente Planparallelplatte 95 bestimmter optischer Dicke scharf auf die Empfanger-Matrix 6 abgebildet werden, da die Scharfeebene des Abbildungsstrah- lenganges durch die Anpassung der transparenten Planparallel- platte 95 in derselben Ebene liegt. Durch die Rotation der Scheibe 83 gelangen transparente Segmente mit unterschiedlicher geometrisch-optischer Dicke sowohl in den Beleuchtungs- wie auch in den Abbildungsstrahlengang. Die geometrischoptischen Dicken sind stets so abgestimmt, daß die Scharfee- benen der beiden Strahlengange im Objektraum koinzidieren. Von Segment zu Segment ändert sich die Lage der Scharfeeben im Objektraum, so daß nach und nach der gesamte Objektraum schrittweise in der Tiefe "durchfokussiert" wird. Von Segment zu Segment ändert sich die Lage des konzentrischen Gitters in radialer Richtung. So wird die Phase bei jedem Wechsel eines Segmentes schrittweise definiert geändert, beispielsweise in Schritten von 90°. Durch die Auswertung eines Synchronisationsimpulses im Randbereich wird gewährleistet, daß nur dann ein Bild von der Empfanger-Matrix detektiert wird, wenn sich die planparallele Platte definierter Dicke mit dem konzentrisch ausgebildetes Gitter 81 vollflachig vor der Empfangerflache befindet. So kann in jedem Element der Empfanger- Matrix 6 ein periodischer Signalverlauf gewonnen werden, wobei jeder Signalwert des aufgenommenen Signalverlaufes mittels einer anderen Planparallelplatte in einem anderen Sektor erzeugt wird. Dabei ist die Phasendifferenz von Signalwert zu Signalwert aufgrund des optisch ausgelesenen Referenzgitters hochgenau bekannt.
Figur 6 zeigt eine 3D-Aufnahme-Anordnung, die besonders für den mobilen Einsatz, beispielsweise für die rechnergestutzte 3D-Orιentιerung von Robotern im Nahbereich für Greifaufgaben sehr geeignet ist. Weiterhin können auf dieser Anordnung 3D- hand-held-Gerate zur Erfassung von Objekten im Nahbereich bis zu 1 m basieren. Diese 3D-Aufnahme-Anordnung besteht aus einem Beleuchtungsobjektiv 1 und einem Abbbildungsobjektiv 2, wobei beide Objektive im Array-Raum einen zentralperspektivi- sehen Strahlengang aufweisen, und einem transparenten Profil- gitter 53, welches als ein strukturiertes 3D-Array angesehen werden kann und von einer Lichtquelle 4 beleuchtet wird. Diese kann eine Blitzlichtquelle mit einer Blitzfrequenz im Videotakt darstellen. Das transparente Profilgitter 53 weist mehrere Rampen 54 und 56 auf. Auf den schrägen Rampenflachen 55 der Rampe 54 befindet sich, wie in Figur 8 dargestellt, ein Bmar-Code-Muster, eine Bitmap, wobei die Richtungen der Rampenflachen oder zumindest die zugehörigen Ausgleichsgeraden im Hauptschnitt stets auf das Pupillenzentrum PZ des Ab- bildungsobjektivs 2 zeigen. Das Binar-Code-Muster wird in den Objektraum in unterschiedliche Tiefen abgebildet. Eine weitere Möglichkeit für die Ausbildung einer Rampenflache stellt
Figur 7 dar. Die Rampenflache 57 weist mehrere Stufen auf. Auf jeder Stufe befindet sich jeweils ein anderes Binar-Code- Muster. Den einzelnen Mustern sind die Bezeichnungen Ai, A2, A3 und A4 zugeordnet. Die Ausgleichsgerade durch die Rampenflache, die Gerade AGA] zeigt auf das Pupillenzentrum PZ des Abbildungsobjektivs 2. Die Rampenflache 55 auf dem transparenten Profilgitter 53 auf der Rampe 54, wobei erstere im Hauptschnitt durch eine Ausgleichsgerade AGA3 repräsentiert werden kann, wird durch das Beleuchtungsobjektiv 1 in den Objektraum abgebildet. Das Beleuchtungsobjektiv 1 soll eine große relative Öffnung, beispielsweise 1:1,2 besitzen. Weiterhin sind Flachenbereiche der Objektoberflache in den Bildern Aχo, A20, A30 und A40 zur Veranschaulichung in möglichen Lagen gleichzeitig dargestellt. Ein leuchtendes Flachenelement 3A wird ebenfalls abgebildet und stellt das Bild BFEL dar. Das Scharfevolumen SVFEL des Bildes BFEL ist dargestellt. Es weist keine große Tiefe aufgrund des großen relativen Off- nungsverhaltnisses auf. Das Abbildungsobjektiv ist dagegen stark abgeblendet. So werden die Elemente des Empfanger- Arrays mit einem wesentlich größeren Tiefenbereich abgebil- det. Das Bild der gesamten Rampenflache befindet sich so im Scharfevolumen SVEE des zugehörigen Elementes der Empfanger- Matrix 6. Bei einer großen relativen Öffnung des Beleuchtungsobjektivs 1 verschwindet das Bild eines Musters bei einer Bewegung des Objektes in der Tiefe sehr schnell. In meh- reren zum Hauptschnitt parallelen Ebenen können Rampenflachen 54 auf dem transparenten Profilgitter 53 mit einer jeweils anderen mittleren Gegenstandsweite angeordnet sein, so daß Elemente einer Objektoberflache 5 in verschiedenen Tiefen des Objektraumes erfaßt werden können und so der Tiefenerfas- sungsbereich besonders groß ist.
Die Figur 9 zeigt eine Applikation für die Gewinnung von digitalen Punktwolken, die für das 3D-Fernsehen eingesetzt wer- den kann, beispielsweise bei Sportveranstaltungen, wo eine gute Ausleuchtung gegeben ist. Aber auch im Amateur- Videobereich und in der Fotografie ist die Anordnung nach Figur 9 für die 3D-Aufnähme anwendbar. Für die Erzeugung einer einzelnen 3D-Aufnahme wird eine Folge von Bildern mit den beiden Empfänger-Matrizen 6 und 14 aufgenommen. Die Verschiebungen der Empfänger-Matrix 6 und der Empfänger-Matrix 14 werden so durchgeführt, daß sich der Schärfebereich von Bild zu Bild verändert, bis der Objektraum vollständig in der Tie- fe erfaßt ist. Die Beleuchtung erfolgt dabei mittels natürlichem Licht oder Kunstlicht, welches in der Regel keine räumliche Strukturierung aufweist. Den beiden Empfänger-Matrizen 6 und 14 ist jeweils ein erstes Abbildungsobjektiv 33 und ein zweites Abbildungsobjektiv 2 zugeordnet. Das erste Abbil- dungsobjektiv 33 und das zweite Abbildungsobjektiv 2 sind im Array-Raum telezentrisch, wodurch beim Abbildungsobjektiv 33 der Brennpunkt F0ι und das Pupillenzentrum PZ0ι zusammenfallen. Beim Abbildungsobjektiv 2 fallen aufgrund der Telezen- trie der Brennpunkt F02 und das Pupillenzentrum PZ02 ebenfalls zusammen. Die Bilder der zur Geraden gAιP parallelen Geraden und damit auch die Verschiebungsstrecken der Elemente der Empfänger-Matrix 6 auf diesen Geraden werden durch das Abbildungsobjektiv 33 in den Objektraum abgebildet und stellen dort ein Streckenbüschel mit dem Konvergenzpunkt K2i der Strecken, beziehungsweise ein Geradenbüschel mit dem Schnitt in K2i dar, welches auch die Gerade g0ιp enthält. Außerdem werden die Bilder der zur Geraden gA2P parallelen Geraden und damit auch die Verschiebungsstrecken der Elemente der Empfänger-Matrix 14 auf diesen Geraden durch das Abbildungsobjektiv 2 abgebildet, wodurch im Objektraum ein Streckenbüschel mit dem Konvergenzpunkt K22 der Strecken und ein Geradenbüschel mit dem Schnitt in K22 entstehen. Dieses Geradenbüschel enthält die Gerade g02P , die mit der Geraden g0ιP zusammenfällt. Die Verschiebungen der Empfanger-Matrix 6 und der Empfanger- Matrix 14 werden so durchgeführt, daß die Streckenbuschel mit dem Konvergenzpunkt K2i und die Streckenbuschel mit dem Konvergenzpunkt K22 gemeinsam im Koinzidenzpunkt K0 koinzidieren. Dadurch existiert für jedes Element der Empfanger-Matrix 6 genau ein korrespondierendes Element auf der Empfanger-Matrix 14. Die beiden Empfanger-Matrizen 6 und 14 sind mit mindestens einem leistungsfähigen Rechner, der wiederum in ein Hochleistungs-Kommunikationsnetz eingebunden ist, über je ein Interface verbunden. Die Empfanger-Matrizen 6 und 14 sind mit einer präzisen Linearfuhrung 20 verbunden, welche wiederum mit einem rechnergesteuerten, hochdynamischen Linearmotor 21 verbunden ist. Die beiden Empfanger-Matrizen 6 und 14 werden in zA-Rιchtung in Richtung der beiden Brennpunkte FAι und FA2 bewegt, wodurch sich die Lage der gemeinsamen Scharfeebene SCH i-1 im Objektraum ändert. Die Objekte 5, 18 und 19 sind durch eine Lichtquelle 15 ausreichend beleuchtet. Zuerst wird das Objekt 5 im Punkt P3 x , welches sich auf der Geraden g03 ι z P befindet, welche den Ort der komzidierenden Geraden g03 ι P und g0 3 2Pp darstellt, von der gemeinsamen Scharfeebene
SCH l erfaßt. Anschließend, beispielsweise nur wenige Millisekunden spater, erfolgt die Erfassung der Objektoberflache
18, beispielsweise durch den Punkt Pk x+ι durch die gemeinsamen Scharfeebene SCH l+l, wobei sich ein Objektpunkt der Ob- jektoberflache 18 zu diesem Zeitpunkt auf der Geraden g0 k I 2 p , welche den Ort der komzidierenden Geraden g0 k 1 P und g0 2 P darstellt, befindet. Noch einige Millisekunden spater erfolgt die Erfassung der ersten Punkte der Objektoberflache
19. Die Hubfrequenz der Bewegung der beiden Empfanger- Matrizen 6 und 14 erfolgt mit beispielsweise 24 Hz. Die Auswertung der von den beiden Empfanger-Matrizen 6 und 14 aufgenommenen Bilder erfolgt so, daß Signale aus Elementen gebildet werden, die sich auf jeweils parallel zu der Geraden gAιP und gA2P befindenden Geraden, beispielsweise auf den Geraden gAjiPr gAkip , gAj2p oder gAk2p zur gleichen Zeit am zumindest annähernd gleichen Ort befinden, also korrespondierende Elemente darstellen. Aus den detektierten Signalen SXj und S2j je eines Paares korrespondierender Elemente werden, wie bereits beschrieben, mittels Korrelationsverfahren die z0-Koordinaten errechnet und aus diesen die gesamte Punktwolke der Objektoberfläche oder der Szene durch die Kenntnis der Geometrie der Anordnung und der Abbildungsmaßstäbe über der z0-Koordinate. Bei bewegten Objekten erfolgt eine Bereitstellung von Punktwolken im Videotakt. Die Information über die Farbe des jeweiligen Objektpunktes ergibt sich beispielsweise aus dem Empfängerelement, welches dem Korrelationsmaximum am nächsten liegt. Aus den errechneten Punktwolken erfolgt eine Berech- nung der Flächenmodelle der Objekte und der Szene. Dies erfordert eine sehr hohe Rechengeschwindigkeit, die auf der Basis spezieller Prozessoren jedoch realisierbar ist. Es ist möglich, jedem Element der Empfänger-Matrizen 6 und 14 einen eigenen Prozessor zuzuordnen. Dies ist für die Ausführung der bereits beschriebenen Kreuzkorrelation sehr von Vorteil. Zur Übertragung der errechneten Daten für die 3D-Wiedergabe können Datenreduktionstechniken eingesetzt werden.
Die Figur 10 zeigt eine 3D-Aufnahme-Anordnung, die beispiels- weise als Mehrebenen-Hindernis-Sensor bei Tageslicht eingesetzt werden kann. Es sind zwei Abbildungsstrahlengänge mit zwei Abbildungsobjektiven 33 und 2 angeordnet, wobei die Abbildungsobjektive 33 und 2 jeweils im Array-Raum telezen- trisch ausgeführt sind. Dies ist nicht zwingend erforderlich, bringt jedoch konstruktive Vorteile. Jedem Abbildungsobjektiv 33 und 2 ist je ein räumlich strukturiertes Empfänger-Array
106 und 114 zugeordnet. Diese weisen je zwei Empfängerflächen
107 und 108 sowie 109 und 110 auf und sind senkrecht zum Hauptschnitt angeordnet. Außerdem befinden sich diese Empfängerflächen 107 und 108 sowie 109 und 110 parallel zu einer Geraden gAιP beziehungsweise parallel zu einer Geraden gA2P. Diese Geraden gAiP und gA2P schneiden jeweils den Brennpunkt FÄΛI und FAA2 des zugehörigen Objektivs und den Punkt PA in der gemeinsamen Hauptebene der beiden Abbildungsobjektive 33 und 2. Die Bilder der Empfängerflächen 107 und 108 sowie 109 und 110 werden nach der Scheimpflugbedingung in den Objektraum abgebildet, wobei die Koinzidenz der beiden Bilder der Emp- fängerflächen 107 und 109 sowie 108 und 110 des räumlich strukturierten Empfänger-Arrays 106 und 114 gegeben ist. Von einer beleuchteten Objektoberfläche 5 erfolgt die Abbildung von Elementen auf die vier Empfängerflächen 107 und 109 sowie 108 und 110. Beispielsweise werden auf der Objektoberfläche die Punkte Oi und 02 abgebildet. Es kann das bereits im Detail beschriebene Korrelationsverfahren für die Bestimmung der z0-Lage der Punkte Ox und 02 unter Nutzung der Grauwertoder Farbverteilungen, bei Einsatz von Farbkameras als Empfänger-Matrizen, aus dem Umfeld verwendet werden. Dabei erge- ben sich hier vier Signalverläufe Si und S2 sowie S3 und S4 jeweils in der Zeile der zugehörigen Empfänger- Matrix im Hauptschnitt über die jeweils zeilenweise Auslesung, wobei beispielsweise jeweils in der AA- beziehungs- weise BA- Position begonnen wird. Hier bilden jeweils für einen Punkt im Objektraum auf den beiden im Objektraum zusammenfallenden Bildern der Empfängerflächen 107 und 108 sowie 109 und 110 die zugehörigen, feststehenden Elemente von je zwei Empfängerflächen 107 und 108 oder 108 und 110 je ein korrespondierendes Paar.

Claims

Patentansprüche
1. Vorrichtung zur dreidimensionalen Objekterfassung mit wenigstens zwei Abbildungssystemen, die dem Objekt zugewandte Abbildungsoptiken aufweisen, wobei wenigstens eines als Beobachtungssystem zur Objektbeobachtung ausge- staltet ist und wenigstens eines ein vor der Abbildungsoptik bewegliches Elementarmittel aufweist, dessen Elementarbild sich auf einer Bildpunktlinie durch den Objektraum bewegt, dadurch gekennzeichnet, daß das Elementarmittel als mit Lateralkomponente zur optischen Achse der Abbilddungsoptik bewegliches Elementarmittel ausgebildet ist und das Beobachtungssystem zur Beobachtung längs der Bildpunktlinie angeordnet ist.
2. Vorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß zwei Abbildungssysteme beide Beobachtungssysteme darstellen.
3. Vorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß die Beobachtungssysteme Detektions-Arrays, insbesondere CCD-Arrays umfassen.
4. Vorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß die Detektor-Arrays synchron bewegt werden.
5. Vorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß die Detektor-Arrays auf Piezostellmitteln, insbesondere zur Synchronbewegung mit Abstandsveranderung, angeordnet sind.
6. Vorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß eine Auswerteeinheit vorgesehen ist, welche zur Signal- auswertung mit den beiden Detektor-Arrays verbunden und zur Auswertung des Signalverhaltens dazu angeordnet ist, eine Objektoberflachenpunkterfassung zu signalisieren, wenn auf einem Arraybereich des ersten Abbildungssystems ein vorbestimmtes Signalverhalten und auf einem zugeord- neten Arraybereich des zweiten Abbildungssystems gleichfalls ein vorbestimmtes Signalverhalten erfasst wird.
7. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß eines der Abbildungssysteme ein Beleuchtungssystem ist.
8. Vorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß das Beleuchtungssystem zur Ausleuchtung des Objektes ei- ne Vielzahl von Leuchtelementen umfasst, welche die beweglichen Elementarmittel realisieren.
9. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß eine Leuchtmittelerregerschal- tung vorgesehen ist, um die Elementarmittelbewegung zumindest partiell als virtuelle Bewegung durch sukzessive ein vorgegebenes Erregungsmuster der Leuchtelemente zu simulieren.
10. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß das Beleuchtungssystem ein verschiebliches Gitter, insbesondere geometrisches Ab- schattungsgitter umfasst.
11. Vorrichtung nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, daß das Beobachtungssystem eine Vielzahl von Beobachtungs- elementen umfasst.
12. Vorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß die Beobachtungselemente durch Bereiche, insbesondere Elemente eines Detektor-Arrays, insbesondere eines CCD- Arrays realisiert sind.
13. Vorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß dem Detektor-Ausgang eine Auswerteeinheit zugeordnet ist, die dazu ausgebildet ist, eine Oberflächenerfassung zu signalisieren, wenn an einem Beobachtungselement des Arrays ein bestimmtes Signalmuster, insbesondere ein Signalmaximum, insbesondere absolutes Signalmaximum er- fasst wird.
14. Vorrichtung nach dem vorhergehenden Anspruch, dadurch gekennzeichnet, daß die Auswerteeinheit dazu ausgebildet ist, die Koordina- ten des erfassten Objekt-Oberflächenbereiches in Abhängigkeit von der Position des beweglichen Elementarmittels zu bestimmen.
15. Vorrichtung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, daß die Pupille des Beobachtungssystems zumindest naherungsweise m der Fokalebene der Abbildungsoptik des Beleuchtungssystems angeordnet ist.
16. Verfahren zur 3D-Aufnahme von einer Objektoberflache in einer Szene mit einer elektromagnetischen Strahlungsquelle, wobei diese mittels mindestens eines strukturierten Arrays als em strukturiert leuchtendes Array ausgebildet ist und em Flachenelement leuchtet und einem Beleuchtungsstrahlengang mit einem dem strukturiert leuchtenden Array zugeordneten Beleuchtungsobjektiv, welches eine Abbildung des leuchtenden Flachenelementes realisiert, und einem Abbildungsstrahlengang für die Ab- bildung von Elementen der Objektoberflache und Empfanger-Array mit mindestens zwei Elementen und mit einem dem Empfanger-Array zugeordneten Abbildungsob ektiv und Elemente des Empfanger-Arrays im Aufnahmevorgang Strahlung von Elementen der beleuchteten Objektoberflache im Objektraum detektieren und von Elementen des Empfanger- Arrays durch das Abbildungsobjektiv stets auch Bilder im Objektraum mit einem geometrisch-optischen Scharfevolumen gebildet werden und durch die Abbildung des leuchtenden Flachenelementes mit dem Beleuchtungsobjektiv em Bild desselben im Objektraum mit einem geometrischoptischen Scharfevolumen gebildet wird und die Detektion von Strahlung von den Elementen der Objektoberflache durch Elemente des Empfanger-Arrays in einem Zeitbereich (ΔtB) erfolgt, in welchem mit mindestens einem leuchten- den Flachenelement des strukturiert leuchtenden Arrays eine vorbestimmte Verschiebung durchgeführt wird, einschließlich einer vorbestimmten optischen Verschiebung als Ergebnis einer geometrisch-optischen Weglangenande- rung, um so ein leuchtendes Flächenelement zu unterschiedlichen Zeitpunkten an unterschiedlichen Orten Strahlung aussendet, gekennzeichnet dadurch, daß das Schärfevolumen eines Bildes des leuchtenden Flächenele- mentes im Objektraum gebildet ist, und das Schärfevolumen eines Bildes des Empfänger-Arrays im Objektraum und ein Element der Objektoberfläche zumindest näherungsweise durch eine vorbestimmte Verschiebung des leuchtenden Flächenelementes mit einer Verschiebungskomponente par- allel zur optischen Achse des Beleuchtungsobjektivs zur Koinzidenz gebracht werden, wobei beim Auftreten der Koinzidenz das an dieser Koinzidenz beteiligte Element des Empfänger-Arrays eine zeitlich veränderte Bestrahlung erfährt .
17. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene nach Anspruch 16, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von Strahlung die leuchtenden Flächenele- mente auf je einer eigenen Verschiebungsstrecke relativ zum Beleuchtungsobjektiv verschoben werden und die leuchtenden Flächenelemente zumindest zu einem Zeitpunkt
(tx) innerhalb eines Zeitintervalls (Δti) in einer Leuchtdichteverteilung jeweils eine zumindest näherungs- weise vorherbestimmt gleichbleibende, relative Leuchtdichte aufweisen und die leuchtenden Flächenelemente dabei stets auf je einer B-Strecke (BSAj) positioniert werden, wobei die B-Strecken (BSAj) die Sollorte für die leuchtenden Flächenelemente zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) darstellen, und die Bilder dieser B-Strecken (BSAj) im Objektraum durch Abbildung mit einem Beleuchtungsobjektiv (1) stets zu einem Streckenbüschel (SBX) mit einem Konvergenzpunkt (Ki) geformt sind, wobei der Konvergenzpunkt (Ki) , mindestens in einem Abstand von der optischen Achse des Beleuchtungsobjektivs (1) vom lβten Teil und maximal in einem Abstand vom lδfachen des Abstandes des Pupillenzentrums (PZ0B) des Beleuchtungsobjektivs (1) vom Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) im Objektraum positioniert ist und zumindest in einem Zeitbereich (ΔtB) während des Verschiebungsvorganges der leuchtenden Flächenelemente jeweils genau ein Bild von einem Empfängerelement und jeweils genau ein Bild von einem leuchtenden Flächenelement im Objektraum zumindest zu einem einzigen Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) der Detektion zumindest näherungs- weise gemeinsam auf dem Bild einer B-Strecke (BSA3) positioniert werden und so zumindest zu diesem Zeitpunkt (ti ) aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare erzeugt werden und diese Paare durch den Objektraum geschoben werden, wobei Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flächenelementen der Objektoberfläche (5) mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls (Δti) zusammenfallen und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße detektieren, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) i Zeitbereich (ΔtB) zeitlich eingepaßt wird und bei der Verschiebung die Positionen der leuchtenden Flächenelemente des strukturiert leuchtenden Arrays und die Positionen der Elemente des Empfänger-Arrays stets aus der Lage des Beleuchtungsobjektivs (1) und der Lage des Abbildungsobjektivs (2) in der 3D-Aufnahme-Anordnung und der Brenn- weite (fB) des Beleuchtungsobjektivs (1) und der Brennweite (fA) des Abbildungsobjektivs (2) so bestimmt und realisiert werden, daß im Objektraum sowohl die leuchtenden Flächenelemente des strukturiert leuchtenden Arrays als auch die Elemente des Empfänger-Arrays zumin- dest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet werden.
18. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 16 und 17, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von Strahlung jeweils ein leuchtendes Flächenelement auf je einer B-Strecke positioniert wird und die B-Strecken auf das Pupillenzentrum des Abbildungsobjektivs im Array- Raum gerichtet werden, so daß der Konvergenzpunkt dabei zumindest annähernd im Pupillenzentrum des Abbildungsobjektivs positioniert wird, und während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flä- chenelement im Objektraum zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke positioniert werden und aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum Paare von Bildern erzeugt werden und während des Verschiebungsvorganges der leuchtenden Flächenelemente jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement im Objektraum einmal zumindest näherungsweise zur Koinzidenz gebracht werden.
19. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 16 und 17, gekennzeichnet dadurch, daß der Konvergenzpunkt (Ki) zumindest annähernd in der Brennebene des Beleuchtungsobjektivs (1) im Objektraum und zusätzlich im Pupillenzentrum (PZ0A) der Pupille eines Abbildungsobjektivs (2) im Objektraum positioniert wird und während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement (3A) im Objektraum zu- mindest zu einem Zeitpunkt (tx) innerhalb eines jeden
Zeitintervalls (Δtx) der Detektion zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSA3) positioniert werden und so zumindest zu diesem Zeitpunkt (tx ) aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare mit fester Zuordnung erzeugt werden und die B-Strecken (BSA3) parallel zu einer Geraden (gAP) positioniert werden, wobei die Gerade (gAP) den Brennpunkt FAB des Beleuchtungsobjektivs (1) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten „Abstand des Pupillenzentrums (PZ0A) der Pupille des Abbildungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und der Brennweite (fB) des Beleuchtungsobjektivs (1)" aufweist, wobei dieser Anstieg der Geraden (gAP) auf die Achse des Beleuchtungsobjektivs (1) bezogen ist.
0. Verfahren zur 3D-Aufnähme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach einem der Ansprüche 16, 17 und 19, gekennzeichnet dadurch, daß zu- mindest annähernd eine geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv (2) parallel zur optischen Achse des Abbildungsobjektivs (2) durchgeführt wird und bei der Verschiebung mehrfach nacheinander Signalwerte aus je einem Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels eines Empfängerelementes gebildet wird und bei Abbildung von mehrfach so erzeugten Verschiebungsstrecken von Elementen des Empfänger-Arrays mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd minde- stens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Brennpunkt (F0A) des Abbildungsobjektivs (2) gebildet wird.
21. Verfahren zur 3D-Aufnähme von mindestens einer Objekto- berflache (5) in mindestens einer Szene nach mindestens einem der Ansprüche 16, 17, 19 und 20, gekennzeichnet dadurch, daß der Konvergenzpunkt (Ki) des Streckenbüschels (SBi) gemeinsam mit dem Konvergenzpunkt (K2) des Streckenbüschels (SB2) im Objektraum sowohl mit dem Brennpunkt (F0A) als auch mit dem Pupillenzentrum (PZ0A) der Pupille des Abbildungsobjektivs (2) zumindest annähernd zur Koinzidenz gebracht werden, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils arrayseitig zumindest näherungsweise telezentrisch aus- geführt sind, und leuchtende Flächenelemente (3A) zumindest annähernd parallel zu einer Geraden (gA) auf Strek- ken verschoben werden und die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum durchstoßt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten „Brennweite des Beleuchtungsobjektivs (1) und Abstand (d) des Brennpunktes (FM) des Abbil- dungsobjektivs (2) von der Achse des Beleuchtungsobjektivs (1) im Objektraum" realisiert wird, wobei dieser Anstieg der Geraden (gA) auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs (1) bezogen ist.
22. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberflache (5) in mindestens einer Szene nach mindestens einem der Ansprüche 16 bis 21, gekennzeichnet dadurch, daß die Position mindestens eines leuchtenden Flachenelementes ortsfest gemacht ist und zumindest Kompo- nenten des Beleuchtungsobjektivs bewegt werden.
23. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberflache in mindestens einer Szene mit mindestens einer elektromagnetischen Strahlungsquelle, wobei diese mit- tels mindestens eines strukturierten Arrays als mindestens em strukturiert leuchtendes Array mit mindestens zwei Flachenelementen ausgebildet ist und mindestens ein Flachenelement leuchtet, wobei jedes leuchtende Flächenelement durch eine zumindest naherungsweise vorbe- stimmte Leuchtdichte und durch einen vorbestimmten Ort definiert ist, und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array zugeordneten Beleuchtungsobjektiv, welches eine Abbildung der leuchtenden Flachenelemente realisiert und mit mindestens einem Abbildungsstrahlengang für die Abbildung von Elementen der mindestens einen Objektoberflache und mindestens einem Empfanger- Array mit mindestens zwei Elementen und einem dem Empfänger-Array zugeordneten Abbildungsobjektiv und Elemente des Empfänger-Arrays im Aufnahmevorgang Strahlung von Elementen der mindestens einen beleuchteten Objekto- berflache im Objektraum detektieren und von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebildet werden und Elemente der mindestens einen Objek- toberfläche mit mindestens einem Abbildungsobjektiv abgebildet werden und durch die Abbildung des mindestens einen leuchtenden Flächenelementes mit dem Beleuchtungsobjektiv ein Bild eines leuchtenden Flächenelementes im Objektraum mit einem geometrisch-optischen Schärfevolu- men gebildet wird, gekennzeichnet dadurch, daß leuchtende Flächenelemente in den Zeitintervallen (Δtx) der Detektion von Strahlung in einem Zeitbereich (ΔtB) zumindest näherungsweise an je einem eigenen Ort im strukturiert leuchtenden Array relativ zum Beleuchtungsobjektiv angeordnet und durch Ansteuerung zum Leuchten gebracht werden und durch das Beleuchtungsobjektiv abgebildet werden und das mindestens eine leuchtende Flächenelement zumindest zu einem Zeitpunkt (tx) innerhalb des Zeitintervalls (Δtx) stets auf einen vorherbestimmten Ort im Objektraum abgebildet wird und dieser Bildort des mindestens einen leuchtenden Flächenelementes im Objektraum durch eine Ansteuerung verändert wird, indem ein jeweils anderes, vorbestimmtes Flächenelement angesteuert und zum Leuchten gebracht wird, so daß das Bild je eines leuchtenden Flächenelementes auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsinkrementen der Bilder der Abstände der leuchtenden Flächenelemente im Array- Raum, durch den Objektraum geschoben wird - im Sinne des gesteuerten Einnehmens vorherbestimmter, unterschiedlicher Positionen - und in jeder Position nach der Verschiebung um ein ganzzahliges Vielfaches des Abstandsin- krementes mindestens ein Signalwert mit einem Empfängerelement detektiert wird und so aus mehreren Vorgängen des Detektierens und Auslesens von Elementen des Empfänger-Arrays ein Signalverlauf gebildet wird und der Ort des detektierten und ausgelesenen Elementes des Empfän- ger-Arrays kontinuierlich verändert wird und die Orte der detektierten und ausgelesenen Elemente des Empfänger-Arrays an Orten im Empfanger-Array liegen und das Bild dieses Ortes, mit dem vorherbestimmten Bildort des leuchtenden Flächenelementes im Objektraum zumindest nä- herungsweise optisch konjugiert ist und so je ein Bild eines detektierten und ausgelesenen Elementes des Empfänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes zumindest zu einem Zeitpunkt (tx) innerhalb des Zeitintervalls (Δtx) im Objektraum zur Koin- zidenz gebracht ist und so je ein Paar von Bildern mit wechselnden Bildern erzeugt werden, und diese Paare nach und nach verschiedene Positionen im Objektraum einnehmen und so durch derartige Paare nach und nach der Objektraum in der Tiefe durchsetzt wird, wobei Schärfevolumi- na des Bildes je eines leuchtenden Flächenelementes mit je einem Flächenelement der Objektoberfläche mindestens einmal im Zeitbereich (ΔtB) in einem Zeitintervall (ΔtB) zusammenfallen und die detektierten und ausgelesenen Elemente des Empfänger-Arrays im Zeitintervall (Δtx) der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße aufweisen, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δtx) ge- macht wird und so mindestens ein Zeitintervall (Δti) in den Zeitbereich (ΔtB) zeitlich eingepaßt wird.
24. Verfahren zur 3D-Aufnahme mit mindestens einer Objekto- berflache (5) in mindestens einer Szene mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei zwischen den beiden Achsen von zwei Abbildungsobjektiven (2, 33) für die Abbildung der Objektoberflächen (5, 18, 19) eine Symmetrielinie gebildet ist, und mit mindestens je einem in jedem Abbildungsstrahlengang dem Abbildungsobjektiv zugeordneten Empfänger-Array , wobei die beiden Empfänger-Arrays jeweils Elemente aufweisen, die im Aufnahmevorgang im Zeitbereich (ΔtB) Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren, gekennzeichnet dadurch, daß die beiden Empfänger-Arrays im Aufnahmevorgang im Zeitbereich (ΔtB) je eine Verschiebung an einen anderen Ort erfahren und zumindest näherungsweise die Detektion von Strahlung von den Elementen der Objektoberflächen durch die Elemente des Empfänger-Arrays gleichzeitig erfolgt und die Elemente des Empfänger-Arrays anschließend ausgelesen werden und jeweils Signalwerte gewonnen werden und beim Aufnahmevorgang die zwei Empfänger-Arrays gleichzeitig auf Verschiebungsstrecken verschoben werden und die Bilder der Verschiebungsstrecken im Objektraum zumindest annähernd auf der Symmetrielinie zwischen den beiden Achsen der Objektive (2, 33) positioniert werden und aus dem Streckenbüschel der Bilder der Verschiebungsstrecken der einzelnen Elemente des ersten Empfän- ger-Arrays ein Konvergenzpunkt (K2i) gebildet wird und aus dem Streckenbüschel der Bilder der Verschiebungsstrecken der einzelnen Elemente des zweiten Empfänger- Arrays ein Konvergenzpunkt (K22) gebildet wird und der Konvergenzpunkt (K2l) und der Konvergenzpunkt (K22) auf der Symmetrielinie zumindest näherungsweise zur Koinzidenz gebracht werden und einen Konvergenzpunkt (Ko) bil- den und die beiden Empfanger-Arrays so verschoben werden, daß deren Bilder zumindest teilweise im Objektraum zusammenfallen, so daß die Bilder der Elemente des ersten Empfanger-Arrays und die Bilder der Elemente des zweiten Empfanger-Arrays im Objektraum paarweise zumin- dest naherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemente der beiden Empfanger- Arrays jeweils korrespondierende Elemente darstellen und Signalverlaufe (Si) des ersten Empfanger-Arrays durch Auslesen der Elemente wahrend der Verschiebung des er- sten Empfanger-Arrays gebildet werden und die Verschiebung des ersten Empfanger-Arrays parallel zu einer Geraden (gAip) durchgeführt wird und so die Elemente des ersten Empfanger-Arrays zumindest annähernd parallel zu einer Geraden (gAip) verschoben werden und Signalverläufe (S2) des zweiten Empfanger-Arrays durch Auslesen der
Elemente wahrend der Verschiebung des zweiten Empfanger- Arrays gebildet werden und die Verschiebung des zweiten Empfanger-Arrays parallel zu einer Geraden (gA2P) durchgeführt wird und so die Elemente des zweiten Empfänger- Arrays zumindest annähernd parallel zu einer Geraden
(gA2p) verschoben werden und die Gerade (gAip) zumindest näherungsweise in einem Punkt (PAι) auf der Symmetrielinie in der Hauptebene des ersten Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2p) zumindest naherungs- weise in einem Punkt (PA2) auf der Symmetrielinie in der Hauptebene des zweiten Abbildungsobjektivs (33) zum Schnitt gebracht werden, wobei die Gerade (gAip) zusätzlich den Brennpunkt (FAι) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum enthalten, und aus den beiden Signalverläufen (Sι3) und (S23 ) von zwei korrespondierenden Elementen und der Empfänger-Arrays, die über dem Weg der Verschiebung der beiden Empfänger- Arrays im Speicher eines Rechners abgelegt sind, durch das synchrone Verschieben einer Fensterfunktion, wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und eine maximale Fensterlange aufweist, die zumindest naherungsweise der Lange der Signalverläufe (Si-, ) und (S3 ) entspricht, um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfanger-Arrays entspricht, über jeden dieser beiden Signalverläufe (Sι3) und (S23 ) und aus jedem aktuellen Fenster in der Position k, mit 1 < k < m, je ein Signalstuck (Si teil Position k 3 ) Und (S2 teil Position k 3 ) gebildet wird, wobei diese nacheinander gebildeten Signalstücke (Si teil ] Position k 3 ) Und (S2 teil ] Position k 3 ) Sich in jedem der beiden Signalverlaufe (Si3) und (S23 ) in einem Teilbereich überdecken und wobei jeweils am gleichen Ende der beiden Signalverläufe (Sι3) und (S2-, ) mit dem Verschieben der Fensterfunktion in beiden Signalstücken begonnen wird, und jeweils ausgehend von zwei Signals- tücken in der Position 1 (Sx teil Position ι 3 ) und
(S2 teil Position ι 3 ) die Kreuzkorrelationsfunktion berechnet wird, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signals- tück (Si τeιi Position 13 ) und aus einem invertierten Signalstück (S2 TeXι Position 1 INV 3 ) das Maximum der Kreuzkorrelationsfunktion (MCC i23 Position 1 ) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Verschieben der Fensterfunktion in die Position 2 für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCC i 2 3 Position 2 ) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (Sij, S2j ) in der Position m angekommen ist und wiederum das Maximum (MCC 12 3 Position m ) der Kreuzkorrelationsfunktion (MCC 12 Position m ) bestimmt wird und von m berechneten Maxima (MCCm ) eine Maximalwert-Kurve gebildet wird, wo- bei in dieser Maximalwert-Kurve wiederum das Maximum (M m 3 ) bestimmt wird und der Ort des Maximums (M m - ) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger- Arrays zugeordnet wird und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (M 1 3 ) der berechneten Kreuzkorrelationsfunktion (MCC 12 3 Position 1) den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird und der Ort des jeweils so bestimmten Maximums (M 3 ) als Ort des zu den beiden korrespondierenden Elementen und zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche (5, 18, 5) im Array-Raum definiert wird und aus dem Ort dieses Maximums (M 3 ) im Array-Raum die z0- Koordinate des jeweiligen Elementes der Objektoberfläche berechnet wird und auch die x0- und y0-Position des jeweiligen Elementes einer Objektoberfläche (5, 18, 5) aus der bekannten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen einer Objektoberfläche (5, 18, 19), denen Signalverläufe zugeordnet werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vorbestimmt sind.
5. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach Anspruch 24, gekennzeichnet dadurch, daß die Achse eines ersten Abbildungsobjektivs (2) für die Abbildung der Objektoberflächen (5, 18, 19) parallel zur Achse eines zweiten Abbildungsobjektivs (33) für die Abbildung der Objektoberflächen (5, 18, 19) ausgerichtet ist und die Abbildungsobjektive (2, 33) zumindest näherungsweise bau- gleich gemacht sind und die Hauptebene des ersten Abbildungsobjektivs (33) im Array-Raum und die Hauptebene des zweiten Abbildungsobjektivs (2) zumindest näherungsweise in einer gemeinsamen Ebene zusammenfallen und die Empfänger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befinden und beiden Punkte PAi und PA2 zumindest näherungsweise in einem Punkt PA zur Koinzidenz gebracht werden.
26. Verfahren zur 3D-Aufnähme von mindestens einer mit einer Strahlungsquelle (15) beleuchteten Objektoberfläche (5) in mindestens einer Szene mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse eines ersten Abbildungsobjektivs (2) im Abbildungsstrahlengang für die Abbildung der Objektoberflä- chen (5, 18, 19) parallel zur Achse eines zweiten Abbildungsobjektivs (33) im Abbildungsstrahlengang für die Abbildung der Objektoberflächen (5, 18, 19) ausgerichtet ist, und so zwischen den beiden Achsen der beiden Abbildungsobjektive (2, 33) eine Symmetrielinie gebildet ist, und mit mindestens je einem in jedem Abbildungsstrahlengang dem Abbildungsobjektiv zugeordneten Empfänger-Array und die beiden Empfänger-Arrays jeweils Elemente aufwei- sen, die im Aufnahmevorgang im Zeitbereich (ΔtB) elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren, gekennzeichnet dadurch, daß die beiden Empfänger-Arrays im Aufnahmevorgang im Zeitbereich (ΔtB) je eine elektronisch gesteuerte, mechanische Verschiebung an einen anderen Ort erfahren und zumindest näherungsweise die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitin- tervalls (Δtx) durch die Elemente des Empfänger-Arrays gleichzeitig erfolgt und die Elemente des Empfänger- Arrays anschließend ausgelesen werden und jeweils Signalwerte gewonnen werden und beim Aufnahmevorgang die zwei Empfanger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der parallelen, zumindest naherungsweise baugleichen Abbildungsstrahlengänge, deren Hauptebenen zusammenfallen, verschoben werden, wobei die Objektoberflächen in der Szene beleuchtet sind, und der Signalverlauf (Sιz) durch Auslesen von lateral ne- beneinander liegenden Elementen des ersten Empfänger- Arrays wahrend der Verschiebung des ersten Empfanger- Arrays in Richtung der optischen Achsen so gebildet wird, daß jeweils genau die Elemente des Empfänger- Arrays zur Signalbildung benutzt werden, die auf Strek- ken liegen, die parallel zu einer Geraden (gAip) ausgerichtet sind und die den Punkt (PA) in der gemeinsamen Hauptebene der Abbildungsobjektive (2, 33) zumindest näherungsweise schneidet, und so der gebildete Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden (gAιP) entstehenden Signalverlauf (Si) zumindest annähernd entspricht, und so zumindest jeweils zu einem Zeitpunkt tx in einem Zeitintervall Δtx ein aktueller Koinzidenzpunkt gebildet wird, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektraumes gebildet wird, und der Signalverlauf (S2z) durch Auslesen von lateral nebeneinander lie- genden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung benutzt werden, die auf Strecken, liegen, die par- allel zu einer Geraden (gA2P) ausgerichtet sind und die den Punkt (PA) in der gemeinsamen Hauptebene der Abbildungsobjektive (2, 33) zumindest näherungsweise schneidet, und so der gebildete Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden (gA2P) ent- stehenden Signalverlauf (S2) zumindest annähernd entspricht und die Gerade (gAιP) und die Gerade (gA2P) in einem Punkt (PA) zum Schnitt gebracht werden und zusätzlich die Gerade (gAlP) den Brennpunkt (FAl) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brenn- punkt (FA2) des Abbildungsobjektivs (2) im Array-Raum enthalten und aus den beiden Signalverläufen (Szι3 ) und (Sz23 ) von zwei wechselnden korrespondierenden Elementen und der Empfänger-Arrays, die nur zu einem Zeitpunkt tx korrespondieren, wobei die Signalverläufe (Szι3 ) und (Sz23 ) über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners abgelegt sind, und hierbei die Auswertung mit dem Korrelationsverfahren mit zwei gefensterten Signalverläufen mit der jeweils stückweisen Inversion von Signalstücken erfolgt.
27. Verfahren zur 3D-Aufnähme von mindestens einer mit einer Strahlungsquelle (4) beleuchteten Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 25 und 26, gekennzeichnet dadurch, daß mindestens ein Abbildungsobjektiv zum Empfänger-Array verschoben wird.
28. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer Strahlungsquelle (4), wobei diese mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array ausgebildet ist und mindestens ein leuchtendes Flächenelement gebildet ist mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuchtungsobjektiv (1), welches eine effektive Öffnungsblende mit einem
Blendenzentrum aufweist, zur strukturierten Beleuchtung der Objektoberflächen (5) im Objektraum und mit mindestens einem dem Beleuchtungsstrahlengang zugeordneten Abbildungsstrahlengang mit mindestens einer Abbildungs- stufe für die mindestens eine Objektoberfläche (5) mit mindestens einem dem Empfänger-Array oder einem Bild desselben zugeordneten Abbildungsobjektiv (2, 33) zur Abbildung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blendenzentrum aufweist, wobei Elemente des mindestens einen Empfänger- Arrays im Aufnahmevorgang Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detek- tieren, und mit einem Abstand (d) des Pupillenzentrums (PZ0B) des Beleuchtungsobjektivs (1) im Objektraum vom Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) im
Objektraum, gekennzeichnet dadurch, daß dem strukturiert leuchtenden Array ein Bewegungssystem mit mindestens ei- ner beweglichen Komponente zugeordnet ist und zumindest aus der mechanischen Bewegung des strukturiert leuchtenden Arrays die Verschiebungsstrecken der leuchtenden Flächenelemente im Array-Raum gebildet sind und nach Ab- bildung dieser Verschiebungsstrecken durch das Beleuchtungsobjektiv (1) in den Objekträum, deren Bild zumindest näherungsweise als mindestens ein Streckenbüschel (SBi) mit einem Konvergenzpunkt (Ki) gebildet ist und der Konvergenzpunkt (Ki) einen minimalen Abstand von der Achse des Beleuchtungsobjektivs (1) vom lβten Teil des Abstandes (d) aufweist und einen maximalen Abstand von der Achse des Beleuchtungsobjektivs (1) vom 16fachen des Abstandes (d) aufweist.
29. Anordnung zur 3D-Aufnähme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach 28, gekennzeichnet dadurch, daß die Verschiebungsstrecken der leuchtenden Flächenelemente im Array-Raum zumindest annähernd parallel angeordnet sind und so der Konvergenz- punkt (Ki) zumindest annähernd in der Brennebene des Beleuchtungsobjektivs (1) im Objektraum und im Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) im Objektraum positioniert ist.
30. Anordnung zur 3D-Aufnähme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 28 und 29, gekennzeichnet dadurch, daß das leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Lini- en ausgebildet ist.
31. Anordnung zur 3D-Aufnahme von mindestens einer Objekto- berflache (5) in mindestens einer Szene nach Anspruch 30, gekennzeichnet dadurch, daß die Linien senkrecht zum Hauptschnitt angeordnet sind, und die Verschiebungsstrecken der leuchtenden Flächenelemente und so auch der leuchtenden Flächenelemente mit lokalen Extrema der
Leuchtdichte im Array-Raum als Resultat der mechanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden Arrays im Array-Raum gebildet sind und aus diesen Ver- Schiebungsstrecken im Array-Raum zumindest näherungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt (Ki) gebildet ist und der Konvergenzpunkt (Ki) im Pupillenzentrum (PZÄÄ ) des Abbildungsobjektivs (2) im Array-Raum angeordnet ist.
32. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 28 bis 31, gekennzeichnet dadurch, daß die Verschiebungsstrecken der leuchtenden Flä- chenelemente zumindest annähernd parallel zu einer definierten Geraden (gAP) angeordnet sind und die Gerade (gAP) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten „Abstand des Pupillenzentrums (PZ0A) der Pupille des Abbildungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und Brennweite (fB) des Beleuchtungsobjektivs (1)" aufweist, wobei dieser Anstieg der Geraden (gAP) auf die Achse des Beleuchtungsobjektivs (1) bezogen ist.
33. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 28 bis 32, gekennzeichnet dadurch, daß eine Komponente des Bewegungssystems dem Empfanger- Array zugeordnet ist und so bei der mechanischen Bewegung des Empfanger-Arrays auf einer Verschiebungsstrecke dessen Elemente Verschiebungsstrecken (ASA3) auf parallelen Geraden zugeordnet sind, wobei aus den Bildern (AS03) dieser Strecken (ASA3) bei Abbildung durch das Abbildungsobjektiv (2) zumindest naherungsweise mindestens ein Streckenbuschel (SB2) mit einem Konvergenzpunkt (K2) im Objektraum gebildet ist, und der Konvergenzpunkt (Kx) und der Konvergenzpunkt (K2) mit dem Brennpunkt (F0A) und dem Pupillenzentrum (PZ0A) der Pupille des Abbildungsobjektivs (2) im Objektraum zumindest annähernd zur Koinzidenz gebracht sind und das Abbildungsobjektiv (2) auf der Seite des Raumes der Arrays telezentπsch ausgeführt
34. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberflache (5) in mindestens einer Szene nach mindestens einem der Ansprüche 28 bis 33, gekennzeichnet dadurch, daß eine Komponente des Bewegungssystems dem Empfanger- Array zugeordnet ist und so bei der mechanischen Bewegung des Empfanger-Arrays auf einer Verschiebungsstrecke dessen Elemente Verschiebungsstrecken (ASA] ) auf paral- lelen Geraden zugeordnet sind, wobei aus den Bildern dieser Strecken bei Abbildung durch das Abbildungsobjektiv (2) zumindest naherungsweise mindestens ein Strek- kenbuschel (SB2) mit einem Konvergenzpunkt (K2) im Objektraum gebildet ist, und der Konvergenzpunkt (Kx) und der Konvergenzpunkt (K2) mit dem Brennpunkt (F0A) und dem Pupillenzentrum (PZ0A) der Pupille des Abbildungsob ektivs (2) im Objektraum zumindest annähernd zur Komzi- denz gebracht sind und das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sind und die Achsen des Beleuchtungsobjektivs (1) und des Abbildungs- Objektivs (2) parallel zueinander angeordnet sind und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sind und daß die Komponenten des Bewegungssystems so angeordnet sind, daß für das leuchtende Array eine Gesamtbewegungsrichtung zumindest annähernd paral- lel zu einer Geraden (gA) im Array-Raum realisiert ist, so daß die Elemente des strukturiert leuchtenden Arrays sich auf parallelen Geraden zur Geraden (gA) bewegen und diese Gerade (gA) mit dem Brennpunkt (FAB ) des Beleuchtungsobjektivs (1) im Array-Raum zum Schnitt gebracht ist und den Anstieg mit dem Betrag aus dem Quotienten „Brennweite (fB ) des Beleuchtungsobjektivs (1) und Abstand (d ) des Brennpunktes (FÄÄ) des Abbildungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1)" aufweist, wobei dieser Anstieg der Geraden (gA) auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs (1) bezogen ist.
35. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 28 bis 34, gekennzeichnet dadurch, daß das strukturierte Array zumindest auf einem Teilbereich einer Scheibe (83) ausgebildet ist, der eine rota- torische Präzisionslagerung mit einer Welle mit einem rotatorischen Motor zugeordnet ist, so daß eine rotie- rende Scheibe (83) gebildet ist.
36. Anordnung zur 3D-Aufnähme von mindestens einer Objekto- berflache (5) in mindestens einer Szene nach Anspruch 35, gekennzeichnet dadurch, daß die rotierende Scheibe (83) mit transparenten Platten-Sektoren unterschiedlicher geometrisch-optischer Dicke ausgebildet ist.
37. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene mindestens einem der Ansprüche 28 bis 36, gekennzeichnet dadurch, daß das Empfänger-Array als Farbkamera ausgebildet ist.
38. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 28 bis 37, gekennzeichnet dadurch, daß ein spezielles Empfänger-Array mit RGB-Kanälen ange- wendet ist und diesem ein vierter Kanal, ein NIR-Kanal, für die Gewinnung der Information für die 3D-Punktwolke zugeordnet ist.
39. Anordnung zur 3D-Aufnähme von mindestens einer Objekto- berflache (5) in mindestens einer Szene mit mindestens einer Strahlungsquelle (4), wobei diese mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausgebildet ist und mindestens ein leuch- tendes Flächenelementen gebildet ist, und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array zugeordneten Beleuchtungsobjektiv (1), welches eine effektive Öffnungsblende mit einer Ausdehnung und einem Blendenzentrum aufweist, zur strukturierten Beleuchtung der Objektoberflächen (5) im Objektraum und mit mindestens einem dem Beleuchtungsstrahlengang zugeordneten Abbildungsstrahlengang für die Objektoberflächen (5) mit mindestens einem dem Empfänger-Array oder einem Bild desselben zugeordneten Abbildungsobjektiv (2) zur Abbildung der Elemente der Objektoberflächen (5), welches eine effektive Öffnungsblende aufweist, wobei Elemente des mindestens einen Empfänger- Arrays im Aufnahmevorgang Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detek- tieren, und mit einem Abstand des Pupillenzentrums (PZ0B) des Beleuchtungsobjektivs (1) vom Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) , wobei der Abstand mindestens ein Achtel der Ausdehnung der Öffnungsblende des Beleuchtungsobjektivs (1) beträgt, wobei leuchtende Flächenelemente in einer Leuchtdichteverteilung eine zumindest näherungsweise vorherbestimmte Leuchtdichte auf- weisen, so daß durch die Abbildung mit dem Beleuchtungsobjektiv (1) mindestens ein Bild eines leuchtenden Flächenelementes im Objektraum gebildet ist, gekennzeichnet dadurch, daß im Objektraum das Schärfevolumen mindestens eines Bildes eines leuchtenden Flächenelementes in einem strukturiert leuchtenden Array - durch die vorbestimmte geometrisch-optische Zuordnung des leuchtenden Flächenelementes zum Beleuchtungsobjektiv und die geometrisch-optische Zuordnung der Elemente des Empfänger- Arrays zum Abbildungsob ektiv und die geometrische Zu- Ordnung von Beleuchtungsobjektiv zum Abbildungsobjektiv - permanent in das Schärfevolumen eingepaßt ist, welches durch die Bilder der Elemente des Empfänger-Arrays im Objektraum dargestellt ist,
40. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach 39, gekennzeichnet dadurch, daß das Schärfevolumen, welches durch die Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, mindestens eine so große Tiefenausdehnung wie das Schärfevolumen eines einzelnen Bildes eines leuchtenden Flächenelementes auf- weist und im Objektraum jeweils ein Bild mindestens eines leuchtenden Flächenelementes eines strukturierten Arrays jeweils einem Bild eines Elementes des Empfänger- Arrays fest zugeordnet ist.
41. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 39 und 40, gekennzeichnet dadurch, daß das strukturierte Array mit mehreren fest in einer räumlichen Struktur angeordneten, leuchtenden Flä- chenelementen aufgebaut ist.
42. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 39 bis 40, gekennzeichnet dadurch, daß das strukturierte Array als ein transparentes Mikro- linsen-Array ausgebildet ist und die Brennweite und die axiale Lage der Mikrolinsen so gestaltet sind, daß deren Foki in einer 3D-Fläche angeordnet sind, die zumindest näherungsweise eine zur Sollfläche optisch konjugierte Fläche darstellt und die Foki der Mikrolinsen zumindest näherungsweise optisch konjugierte Orte der Sollfläche eines Prüflings darstellen.
43. Anordnung zur 3D-Aufnähme von mindestens einer Objekto- berflache (5) in mindestens einer Szene nach mindestens einem der Ansprüche 39 bis 41, gekennzeichnet dadurch, daß auf dem strukturierten Array (53) mindestens ein Re- lief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe (54, 56) mit mindestens einer in der Ausgleichsfläche schrägen Rampenfläche (55, 57) gebildet ist und auf der schrägen Rampenfläche (55, 57) leuchtende Flächenelemente als von der Strahlungsquelle (4) beleuchtete Fensterflächen angeordnet sind und die Rampenflächen (55, 57) so geneigt sind, daß die Ausgleichsgerade (AGA3 ) durch die schräge Rampenfläche (55, 57) im Hauptschnitt nach Abbildung durch das Beleuchtungsobjektiv (1) im Objektraum als Bild eine Gerade (AGθ3) liefert, die zumindest näherungsweise auf das Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) zielt, wobei für mehrere verschiedene Ausgleichsgeraden (AG0]) von mehreren verschiedenen Ram- pen (54, 56) nach deren Abbildung durch das Beleuchtungsobjektiv (1) aus deren Bildern ein Geradenbündel (Bi) mit einen Konvergenzpunkt (Ki) gebildet ist und der Konvergenzpunkt (Ki) zumindest näherungsweise im Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) zur Koin- zidenz gebracht ist.
44. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach Anspruch 43, gekennzeichnet dadurch, daß die leuchtenden Flä- chenelemente als Binär-Code-Muster angeordnet sind.
45. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Hauptebenen der beiden Abbildungsobjektive (2, 33) zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array angeordnet sind, gekennzeichnet dadurch, daß dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet ist und die resultierende Bewegung des ersten Empfänger-Arrays auf einer Strecke auf dem ersten oberen Ast eines Buchstabens Y erfolgt, und die Strecke parallel zu einer Geraden (gAip) liegt, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebe- nen schneidet, wobei ein Teil der Symmetrielinie den unteren Teil des Buchstabens Y bildet und die resultierende Bewegung des zweiten Empfänger-Arrays auf einer Strecke auf dem zweiten oberen Ast des Buchstabens Y erfolgt, und die Strecke parallel zu einer Geraden (gA2P) liegt, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (33) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrielinie durch die zusammenfallenden Hauptebenen schneidet.
46. Anordnung zur 3D-Aufnähme von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2,33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Hauptebenen der beiden Abbildungsobjektive (2, 33) zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array angeordnet sind, gekennzeichnet dadurch, daß dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet ist und die resultierende Bewegung des ersten Empfänger-Arrays auf einer Strecke parallel zur optischen Achse des ersten Abbildungsob ektivs (2) erfolgt, und genau die Elemente des ersten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken (ASAlj) befinden, die parallel zu einer Geraden (gAip) liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse zwischen den beiden optischen Achsen der beiden Abbil- dungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet, wobei ein Teil der Symmetrielinie den unteren Teil eines Buchstabens Y bildet und die resultierende Bewegungsrichtung des zweiten Empfänger-Array auf einer Strecke parallel zur optischen Achse des zwei- ten Abbildungsobjektivs (33) erfolgt, und genau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken befinden, die parallel zu einer Geraden (gA2p) liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse durch die zusammenfallenden Hauptebenen schneidet.
47. Anordnung zur 3D-Aufnahme von mindestens einer Objekto- berflache (5) in mindestens einer beleuchteten Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, zumindest näherungsweise paral- lel angeordneten Abbildungsobjektiven einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zumindest näherungsweise zur Koinzidenz gebracht sind, wo- bei das Pupillenzentrum des ersten Abbildungsobjektivs im Abstand (d) vom Pupillenzentrum des zweiten Abbildungsobjektiv angeordnet ist, und jedem derselben je ein Empfanger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfanger-Array angeordnet sind, gekennzeichnet dadurch, daß das erste und das zweite Empfanger-Array zumindest naherungsweise jeweils senkrecht zum Hauptschnitt angeordnet sind, und die Empfangerflache des ersten Empfanger-Arrays zumindest naherungsweise so angeordnet ist, daß diese die Strecke enthalt, die auf dem ersten oberen Ast eines
Buchstabens Y angeordnet ist, und die Strecke zumindest naherungsweise parallel zu einer Geraden angeordnet ist, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durch- stoßpunkt der Symmetrielinie zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen zumindest naherungsweise schneidet, wobei ein Teil der Symmetrielinie den unteren Teil des Buchstabens Y bildet und die Empfängerflache des zweiten Empfanger-Arrays zumindest naherungsweise so angeordnet ist, daß diese die Strecke enthält, die auf dem zweiten oberen Ast des Buchstabens Y angeordnet ist, und die Strecke parallel zu einer Geraden angeordnet ist, die zum einen den Brennpunkt des zweiten Abbil- dungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt der Symmetrielinie durch die zusammenfallenden Hauptebenen zumindest näherungsweise schneidet und so mindestens aus Bildern von Teilen der beiden Empfängerflächen im Objektraum mindestens ein Paar von zumindest näherungsweise optisch konjugierten Bildern gebildet ist.
48. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit zwei Abbildungsobjektiven, einem ersten (33) und einem zweiten Abbildungsobjektiv (2), wobei das Pupillenzentrum des er- sten Abbildungsobjektivs (33) im Abstand (d) vom Pupillenzentrum des zweiten Abbildungsobjektiv (2) angeordnet ist, und jedem derselben je ein Empfänger-Array, zugeordnet ist, so daß ein erstes (106) und ein zweites Empfänger-Array (114) angeordnet sind, gekennzeichnet da- durch, daß das erste und das zweite Empfänger-Array räumlich strukturiert sind und mindestens je zwei Empfängerflächen auf räumlich getrennten Flächen aufweisen und die Empfängerflächen (107, 108) des ersten Empfänger-Arrays (106) und die Empfängerflächen (109, 110) des zweiten Empfänger-Arrays jeweils (114) so angeordnet sind, daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindest von Teilen von Empfängerflächen des ersten Empfänger-Arrays (106) sowie von Teilen der Empfängerflächen des zweiten Empfänger-Arrays (114) im Objektraum gebildet sind.
49. Anordnung zur 3D-Aufnähme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 28 bis 48, gekennzeichnet dadurch, daß das Empfänger-Array als CCD-Matrix-Kamera (6) ausgebildet ist.
0. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in mindestens einer Szene nach mindestens einem der Ansprüche 28 bis 49, gekennzeichnet dadurch, daß das Empfänger-Array als CMOS-Matrix-Kamera ausgebil- det ist.
EP00925063A 1999-04-29 2000-04-01 Verfahren und vorrichtung zur objektabtastung Withdrawn EP1188035A1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19919584 1999-04-29
DE1999119584 DE19919584A1 (de) 1999-04-29 1999-04-29 Verfahren und Anordnung zur 3D-Aufnahme
PCT/DE2000/000991 WO2000066972A1 (de) 1999-04-29 2000-04-01 Verfahren und vorrichtung zur objektabtastung

Publications (1)

Publication Number Publication Date
EP1188035A1 true EP1188035A1 (de) 2002-03-20

Family

ID=7906332

Family Applications (1)

Application Number Title Priority Date Filing Date
EP00925063A Withdrawn EP1188035A1 (de) 1999-04-29 2000-04-01 Verfahren und vorrichtung zur objektabtastung

Country Status (4)

Country Link
EP (1) EP1188035A1 (de)
AU (1) AU4391300A (de)
DE (2) DE19919584A1 (de)
WO (1) WO2000066972A1 (de)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003273159A1 (en) * 2002-05-23 2003-12-12 Cobra Electronic Gmbh Miniaturised camera
DE602005004332T2 (de) 2004-06-17 2009-01-08 Cadent Ltd. Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle
US7830528B2 (en) * 2005-12-14 2010-11-09 Koh Young Technology, Inc. 3D image measuring apparatus and method thereof
KR100612932B1 (ko) * 2005-12-14 2006-08-14 주식회사 고영테크놀러지 3차원 형상 측정장치 및 방법
DE102008016766B4 (de) 2008-04-02 2016-07-21 Sick Ag Sicherheitskamera und Verfahren zur Detektion von Objekten
JP5441840B2 (ja) * 2009-07-03 2014-03-12 コー・ヤング・テクノロジー・インコーポレーテッド 3次元形状測定装置
DE102010060448B4 (de) * 2010-11-09 2021-07-01 Eberhard Lange Projektionsvorrichtung zum Projizieren eines zu projizierenden Objekts
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
DE102014119126B3 (de) * 2014-12-19 2015-08-06 Sick Ag Streifenprojektor zum Beleuchten einer Szenerie mit einem veränderlichen Streifenmuster
DE102017004428B4 (de) 2017-05-08 2018-11-29 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets
DE102017004429B4 (de) * 2017-05-08 2019-05-09 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden/fokussierenden Streifen-Triangulation
US10352995B1 (en) 2018-02-28 2019-07-16 Nxp Usa, Inc. System and method of multiplexing laser triggers and optically selecting multiplexed laser pulses for laser assisted device alteration testing of semiconductor device
US10782343B2 (en) 2018-04-17 2020-09-22 Nxp Usa, Inc. Digital tests with radiation induced upsets
EP3575773A1 (de) * 2018-05-28 2019-12-04 Universität für Bodenkultur Wien Verfahren zur bestimmung einer dreidimensionalen partikelverteilung in einem medium
CN115540759B (zh) * 2022-11-16 2023-05-09 江西滕创洪科技有限公司 一种基于图像识别技术修饰金属的检测方法及检测系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4689480A (en) * 1985-04-25 1987-08-25 Robotic Vision Systems, Inc. Arrangement for improved scanned 3-D measurement
US5003166A (en) * 1989-11-07 1991-03-26 Massachusetts Institute Of Technology Multidimensional range mapping with pattern projection and cross correlation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO0066972A1 *

Also Published As

Publication number Publication date
DE19919584A1 (de) 2000-11-02
WO2000066972A1 (de) 2000-11-09
AU4391300A (en) 2000-11-17
DE10081176D2 (de) 2002-03-28

Similar Documents

Publication Publication Date Title
EP1728115B1 (de) Hochgeschwindigkeits-vermessungseinrichtung und verfahren nach dem grundprinzip der konfokalen mikroskopie
EP1984770B1 (de) Verfahren und anordnung zur schnellen und robusten, chromatisch-konfokalen 3d-messtechnik
DE102008040947B4 (de) 3D-Dentalkamera zur Erfassung von Oberflächenstrukturen eines Messobjekts mittels Triangulation
DE3642051A1 (de) Verfahren zur dreidimensionalen informationsverarbeitung und vorrichtung zum erhalten einer dreidimensionalen information ueber ein objekt
EP1188035A1 (de) Verfahren und vorrichtung zur objektabtastung
DE102013212409A1 (de) Verfahren zur Bilderfassung einer vorzugsweise strukturierten Oberfläche eines Objekts und Vorrichtung zur Bilderfassung
DE102008002725B4 (de) Verfahren und Vorrichtung zur 3D-Rekonstruktion
DE102013209770B4 (de) Verfahren zur Bestimmung von einstellbaren Parametern mehrerer Koordinatenmessgeräte sowie Verfahren und Vorrichtung zur Erzeugung mindestens eines virtuellen Abbilds eines Messobjekts
DE102017116758B4 (de) Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera
EP3775767A1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102019201272B4 (de) Vorrichtung, Vermessungssystem und Verfahren zur Erfassung einer zumindest teilweise spiegelnden Oberfläche unter Verwendung zweier Spiegelungsmuster
WO2007134567A1 (de) Verfahren zum erzeugen von bildinformationen
EP0671679A1 (de) Vorrichtung und Verfahren zum berührungslosen Vermessen dreidimensionaler Objekte auf der Basis optischer Triangulation
DE102018222231A1 (de) Vorrichtung und Verfahren zur optischen Vermessung einer Innenkontur einer Brillenfassung
DE10321888A1 (de) Messverfahren und Sensor, insbesondere zur optischen Abtastung bewegter Objekte
DE19846145A1 (de) Verfahren und Anordung zur 3D-Aufnahme
DE102012001307A1 (de) Verfahren und Vorrichtung zur 3D-Messung von Objekten, insbesondere unter hinderlichen Lichtverhältnissen
EP3899423B1 (de) Vorrichtung, vermessungssystem und verfahren zur erfassung einer zumindest teilweise spiegelnden oberfläche unter verwendung zweier spiegelungsmuster
DE102014016087B4 (de) Dreidimensionale optische Erfassung von Objektoberflächen
WO2021052992A1 (de) Aufnahmeeinrichtung zum erzeugen eines hochaufgelösten bildes eines sich durch einen aufnahmebereich bewegenden objekts sowie verfahren
DE102011000088A1 (de) Verfahren zur Ermittlung eines Verfahrweges bei der Messung von Strukturen eines Objekts
DE10056073A1 (de) Optisches Verfahren und Sensor zur Gewinnung einer 3D-Punktwolke
WO2014114663A1 (de) Optische vorrichtung und verfahren zum bestimmen räumlicher koordinaten von oberflächen makroskopischer objekte durch triangulation zweier zeilenkameras
DE102006005874A1 (de) Vorrichtung und Verfahren zum berührungsfreien Vermessen
DE10233372A1 (de) Messsystem und Verfahren zur Erfassung geometrischer Größen

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20011129

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE

AX Request for extension of the european patent

Free format text: AL;LT;LV;MK;RO;SI

17Q First examination report despatched

Effective date: 20021211

17Q First examination report despatched

Effective date: 20021211

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20070524