DE4344076A1 - Optical determination of object distance, velocity and image quality - Google Patents

Optical determination of object distance, velocity and image quality

Info

Publication number
DE4344076A1
DE4344076A1 DE19934344076 DE4344076A DE4344076A1 DE 4344076 A1 DE4344076 A1 DE 4344076A1 DE 19934344076 DE19934344076 DE 19934344076 DE 4344076 A DE4344076 A DE 4344076A DE 4344076 A1 DE4344076 A1 DE 4344076A1
Authority
DE
Germany
Prior art keywords
light
lens
image sensor
distance
arrangement according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19934344076
Other languages
German (de)
Inventor
Gerhart Schroff
Michael Stetter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19934344076 priority Critical patent/DE4344076A1/en
Publication of DE4344076A1 publication Critical patent/DE4344076A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0228Testing optical properties by measuring refractive power
    • G01M11/0235Testing optical properties by measuring refractive power by measuring multiple properties of lenses, automatic lens meters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/04Trial frames; Sets of lenses for use therewith
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0228Testing optical properties by measuring refractive power
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0285Testing optical properties by measuring material or chromatic transmission properties
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • G01P3/366Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light by using diffraction of light

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Chemical & Material Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

An apparatus and method for the optical determination of object distance and velocity or which can alternatively be used to analyse the imaging qualities of an optical system e.g. the human eye employs a laser lightsource (1) to illuminate (2) a point (4) on the object surface (3). The dispersion cone (11) of returned and scattered rays of varying phase and spatial distribution impinges on a double aperture diaphragm (6) and the two emergent beams (14,15) are brought to a focus by the lens (7) to fall together on a photorespective image sensor (8) e.g. a CCD line or matrix camera in the region (9) thereby creating an interference pattern. By examining the type and dimensioning of the pattern the object parameters are derived or corrective ophthalmology undertaken.

Description

Die Erfindung betrifft ein Verfahren sowie eine Anordnung zur optischen Abstands- und Geschwindigkeitsanalyse von Oberflächen und zur Analyse der Abbildungs­ eigenschaften optischer Systeme mittels Laserstrahlen, wonach ein Laserstrahl entweder direkt oder mittels eines Abbildungssystems auf eine Oberfläche gerich­ tet wird und aus der räumlichen Lage bzw. Verschiebung des Auftreffpunktes auf dieser bedingt durch eine Verschiebung der Oberfläche hin zum Sensor bzw. eine Verschiebung des Sensors hin zur Oberfläche bzw. durch eine Änderung der Ab­ bildungseigenschaften des optischen Systems daraus der Abstand bzw. die Ab­ standsänderung (Differenzgeschwindigkeit) bzw. die Änderung des Abbildungs­ verhältnisses zwischen Oberfläche und Sensor bestimmt wird.The invention relates to a method and an arrangement for optical distance and velocity analysis of surfaces and analysis of the image properties of optical systems by means of laser beams, after which a laser beam either directly or by means of an imaging system on a surface court tet and from the spatial position or displacement of the impact point on this is due to a shift of the surface towards the sensor or a Displacement of the sensor towards the surface or by a change of the Ab bildungsseigenschaften of the optical system from the distance or the Ab state change (differential speed) or the change of the image ratio between surface and sensor is determined.

Zur optischen Abstands- bzw. Abstandsänderungsanalyse ist bekannt, Laufzeit­ messungen oder Messungen nach dem sogenannten Triangulationsverfahren durchzuführen. Ferner existieren Lasermeßsysteme mit frequenzmodulierten La­ sern. Bei Laufzeitmessungen wird in der Regel ein sehr kurzer Laserpuls ausge­ sendet, und dann diejenige Zeit bestimmt, welche der Lichtpuls benötigt, um die Strecke zwischen Sensor und Oberfläche hin- und zurückzulegen. Mit dieser Me­ thode ist es möglich, vor allem bei großen Abständen und wenn über viele Einzel­ messungen statistisch gemittelt werden kann, wobei der hierfür notwendige appa­ rative Aufwand beträchtlich ist, recht genau zu messen. Solche Aufbauten sind allerdings sehr aufwendig, empfindlich, müssen regelmäßig kalibriert bzw. justiert werden und sind hiermit auch sehr teuer.For the optical distance or distance change analysis is known, running time Measurements or measurements according to the so-called triangulation method perform. Furthermore, laser measuring systems with frequency-modulated La exist fibers. In runtime measurements, a very short laser pulse is usually emitted sends, and then determines the time which the light pulse needed to the Distance between sensor and surface back and forth. With this me It is possible, especially at long distances and when many individual measurements can be averaged statistically, with the necessary appa considerable effort is quite accurate. Such constructions are However, very expensive, sensitive, must be calibrated or adjusted regularly are and are very expensive.

Das Triangulationsverfahren ist für kleine Abstände und bei kleinen Abstandsän­ derungen relativ einfach bei zufriedenstellender Genauigkeit. Für große Abstände und vor allem bei großen Abstandsänderungen müssen bei diesem Sensor jedoch immer Linsen oder sonstige optische Komponenten bewegt werden, um eine hohe Genauigkeit zu erreichen. Eine statistische Mittelung über viele Einzelereignisse ist nur bedingt möglich.The triangulation method is for small distances and for small distances relatively simple with satisfactory accuracy. For long distances and above all with large distance changes must with this sensor however Always lenses or other optical components are moved to a high level To achieve accuracy. A statistical averaging over many individual events is only conditionally possible.

Bei frequenzmodulierten Abstandsmeßsystemen (FMCW) wird ein kontinuierlicher (cw) Laserstrahl, dessen Frequenz linear rampenförmig geändert wird, auf das Meßobjekt (Oberfläche) gerichtet. Das zeitlich verzögerte, von der Oberfläche re­ flektierte Signal wird mit dem ausgesandten Signal gemischt, so daß ein Zwischen­ frequenzsignal entsteht, das proportional zum Abstand, dem Frequenzhub sowie der Modulationsfrequenz ist. Nachteilig dabei ist die benötigte hohe Kohärenz­ länge des Lasers sowie der sonstige erhebliche technische Aufwand.In frequency-modulated distance measuring systems (FMCW) is a continuous (cw) laser beam whose frequency is linearly ramped changed on the DUT (surface) directed. The time delayed, from the surface re inflected signal is mixed with the transmitted signal, so that an intermediate Frequency signal is generated, which is proportional to the distance, the frequency deviation and  the modulation frequency is. The disadvantage here is the required high coherence Length of the laser and other significant technical effort.

An allen Verfahren wird auch als nachteilig empfunden, daß diese es nicht zu las­ sen, Selbstchecks bzw. geräteinterne Funktionskontrollen und Diagnoseschritte durchzuführen, welche es dann ermöglichen, lange vor einem Ausfall oder bevor Beschädigungen die Meßwerte gravierend beeinflussen, dieses dem Benutzer anzuzeigen und somit eine rechtzeitige Wartung erlauben.In all methods is also perceived as disadvantageous that they do not read it self-checking or device-internal functional checks and diagnostic steps then make it possible, long before a failure or before Damage seriously affects the readings, this to the user display and thus allow timely maintenance.

Die Bestimmung der optischen Eigenschaften des im menschlichen Auge vor­ liegenden Abbildungssystems bzgl. der Netzhaut wird derzeit empirisch iterativ durchgeführt. Dabei wird vom Augenarzt bzw. Augenoptiker der fehlsichtigen Person eine Linse probeweise vor dem Auge angebracht und durch Wechsel dieser Linse während eines verbalen Dialogs zwischen Augenarzt und Patient versucht, die optimale Linse zu finden.The determination of the optical properties of the human eye lying imaging system with respect to the retina is currently empirically iterative carried out. In this case, the optician or optometrist of the optometrist Person a lens mounted trial by eye and by changing this lens during a verbal dialogue between ophthalmologist and patient trying to find the optimal lens.

Hierbei wird als nachteilig empfunden, daß dieses Verfahren für den Augenarzt bzw. Augenoptiker sehr zeitaufwendig ist. Ferner eignet sich das gesamte Ver­ fahren nur schlecht bei Personen, die sich nur unzureichend verbal ausdrücken können, wie dies beispielsweise bei Kindern der Fall ist.It is considered disadvantageous that this procedure for the ophthalmologist or optometrist is very time consuming. Furthermore, the entire Ver drive poorly at people who express themselves inadequately verbally can, as is the case with children, for example.

Hiervon ausgehend liegt der Erfindung die Aufgabe zugrunde, ein Verfahren zu entwickeln, welches die Nachteile der eingangs genannten Verfahren vermeidet und somit ermöglicht, einen unempfindlichen, mit einer hohen Abstands- und Zeit­ dynamik versehenen, präzisen und dennoch preiswerten Sensor zu entwickeln. Für den Fall der Bestimmung der Abbildungseigenschaften im menschlichen Auge soll dies vollautomatisch ohne einen Dialog mit dem Patienten durchgeführt werden können.On this basis, the invention has for its object to provide a method develop, which avoids the disadvantages of the aforementioned method and thus enables an insensitive, with a high distance and time dynamic, accurate and yet inexpensive sensor to develop. For the case of determining the imaging properties in the human eye this can be done fully automatically without dialogue with the patient can.

Das Verfahren hat im wesentlichen die folgenden Merkmale:
Es zeigt eine extreme Unempfindlichkeit gegen alle nur denkbaren Intensitäts- und Intensitätsverteilungsschwankungen des durch den auf die Oberfläche gerichteten Laserstrahls erzeugten Leuchtflecks und vermeidet damit eine der wesentlichen Fehlerquellen aller bisherigen Verfahren. Bedingt durch das zugrundeliegende physikalische Prinzip ist über die gesamte Lebensdauer weder eine Kalibrierung oder Justage notwendig, noch kann es zu Totalausfällen kommen, wenn von der Möglichkeit der geräteinternen Selbstdiagnose Gebrauch gemacht wird. Da nur wenige, einfache und gängige Bauteile zum Einsatz kommen, ergibt sich ein ro­ buster und zuverlässig arbeitender Sensor, bei dem auf bewegte Teile komplett verzichtet werden kann. Die maximale Aktualisierungsrate der Meßwerte reicht bis in den MHz-Bereich. Damit besteht die Möglichkeit über geeignete statistische Mitteilungen die Genauigkeit des Sensors noch deutlich zu steigern. Die zum Ein­ satz kommenden Laser müssen nicht mehr longitudinal monomodiges Licht emit­ tieren und es kann damit auf eine breite Palette von Lasern (insbesondere Dioden- Lasern) zurückgegriffen werden. Das Verfahren kann in allen Fällen vollautoma­ tisch durchgeführt werden.
The method has essentially the following features:
It shows extreme insensitivity to all imaginable intensity and intensity distribution fluctuations of the luminous spot generated by the laser beam directed onto the surface and thus avoids one of the essential sources of error of all previous methods. Due to the underlying physical principle, neither calibration nor adjustment is necessary over the entire service life, nor can total failures occur if the option of device-internal self-diagnostics is used. Since only a few, simple and common components are used, results in a ro buster and reliable working sensor, which can be completely dispensed with moving parts. The maximum update rate of the measured values extends into the MHz range. This makes it possible to significantly increase the accuracy of the sensor by means of suitable statistical messages. The lasers used do not have to emit longitudinal monomode light any longer, and thus a wide range of lasers (in particular diode lasers) can be used. The process can be carried out fully automatically in all cases.

Alle Ausführungsformen der Erfindung basieren auf dem selben Prinzip: Ein vom Sensor ausgesandter Laserstrahl erzeugt auf der Oberfläche des Objekts, dessen Entfernung bzw. durch eine vorgeschaltete Optik verändert erscheinende Entfer­ nung gemessen werden soll, einen Leuchtfleck. Dieser Leuchtfleck wird durch eine geeignet ausgeführte Optik in Form von zwei getrennten Lichtbündeln auf einen lichtempfindlichen Sensor (Bildsensor) abgebildet. Beide Lichtbündel schneiden sich dabei unter einem Winkel, der von der geometrischen Auslegung der Optik und der Entfernung des Meßobjekts in eindeutiger Weise abhängt. Da das vom Meßobjekt rückgestreute Laserlicht aufgrund der gewählten Geometrien hin­ reichende Kohärenzeigenschaften besitzt, interferieren die beiden unter einem Winkel auf den Bildsensor auftreffenden Lichtbündel miteinander, so daß auf dem Bildsensor ein Interferenzstreifenmuster entsteht. Unter idealen Bedingungen be­ steht dieses Interferenzstreifenmuster aus räumlich periodischen Hell-/Dunkel- Streifen, deren Abstand vom Schnittwinkel der beiden einfallenden Lichtbündel und damit also von der Entfernung bzw. von der Entfernung zum Meßobjekt relativ zu einem gegebenenfalls vorgeschalteten optischen System, abhängt. Der Bild­ sensor zusammen mit der nachgeschalteten Verarbeitungs-Hardware/-Software muß dabei derartig ausgestaltet sein, daß das entstehende Interferenzstreifenbild z. B. in bezug auf den Streifenabstand analysiert und in die entsprechende Infor­ mation der Entfernung bzw. des Abbildungsmaßstabs umgesetzt werden kann.All embodiments of the invention are based on the same principle: one of Sensor emitted laser beam generated on the surface of the object whose Distance or changed by an upstream optics appearing Entfer to be measured, a spot of light. This spot will be replaced by a suitably designed optics in the form of two separate light bundles on one light-sensitive sensor (image sensor) shown. Cut both light bundles doing so at an angle that of the geometric design of optics and the distance of the DUT clearly depends. Since that of the DUT backscattered laser light due to the selected geometries out has sufficient coherence properties, the two interfere under one Angle on the image sensor incident light beam with each other, so that on the Image sensor an interference fringe pattern arises. Under ideal conditions this interference fringe pattern consists of spatially periodic light / dark Strip whose distance from the intersection angle of the two incident light bundles and therefore relative to the distance or distance to the measurement object to an optionally upstream optical system depends. The picture sensor together with the downstream processing hardware / software must be designed in such a way that the resulting interference fringe image z. B. analyzed with respect to the strip spacing and in the corresponding Infor mation of the distance or the magnification can be implemented.

Die verschiedenen Ausführungsformen der Erfindung unterscheiden sich einerseits in der Art und Weise, wie aus dem von dem Leuchtfleck auf dem Objekt rückge­ streuten Licht die beiden Lichtbündel, die auf den Bildsensor fallen, erzeugt wer­ den und andererseits durch die Art, Ausführung und Anordnung des Bildsensors. The various embodiments of the invention differ on the one hand in the way that returns from the light spot on the object Light scattered the two light bundles that fall on the image sensor, who produces and on the other hand by the nature, design and arrangement of the image sensor.  

Ein einfaches Verfahren zur Erzeugung der beiden auf den Bildsensor fallenden Lichtbündel sieht wie folgt aus: Der im Auftreffpunkt des Laserstrahls auf das Meßobjekt ausgebildete Leuchtfleck wird mit Hilfe einer Linse auf den Bildsensor abgebildet. Dabei sollte der Bildsensor so geformt und angeordnet sein, daß innerhalb des Schärfentiefenbereichs der abgebildeten Optik das Abbild des Leuchtflecks auf dem Bildsensor zu liegen kommt. Dies muß für alle möglichen Entfernungen des Meßobjekts, innerhalb des gewünschten Meßbereichs des Gesamtgeräts, gewährleistet sein. Die beiden getrennten Lichtbündel werden dadurch erzeugt, daß kurz vor oder nach der abbildenden Linse eine Blende mit zwei Öffnungen angebracht wird, so daß zwei geeignet gewählte Ausschnitte des vom Leuchtfleck rückgestreuten Lichts auf den Bildsensor treffen.A simple method for generating the two falling on the image sensor Light bundle looks like this: At the point of impact of the laser beam on the DUT formed spot is using a lens on the image sensor displayed. In this case, the image sensor should be shaped and arranged so that within the depth of field of the imaged optics the image of Luminous spots on the image sensor comes to rest. This must be for all sorts of things Distances of the DUT, within the desired measuring range of the Entire device, be assured. The two separate light bundles become generated by the fact that shortly before or after the imaging lens with an aperture two openings is attached, so that two suitably selected sections of the from the light spot backscattered light hit the image sensor.

Eine weitere Ausgestaltung der Erfindung liegt darin, daß das vom Leuchtfleck ausgesandte Licht mit Hilfe einer Linse auf einen Strahlteiler abgebildet wird, wo­ durch zwei divergente Lichtbündel entstehen. Diese beiden Lichtbündel können nun wiederum durch die Verwendung einer zweiten Linse auf einen Bildsensor abgebildet werden. Auch jetzt entsteht wieder ein Interferenzstreifenmuster, des­ sen räumliche Periodenlänge eindeutig von der Entfernung des Meßobjekts ab­ hängt, da sich der Schnittwinkel der beiden Lichtbündel bei sich ändernder Ent­ fernung ändert.Another embodiment of the invention is that of the light spot emitted light is imaged by means of a lens on a beam splitter, where created by two divergent light bundles. These two light bundles can now again by using a second lens on an image sensor be imaged. Again, an interference fringe pattern, the sen spatial period length clearly from the distance of the test object depends, since the intersection angle of the two light bundles with changing Ent Distance changes.

Die Erfindung kann auch derart ausgestaltet werden, daß das vom Leuchtfleck auf dem Meßobjekt ausgesandte Licht mit Hilfe einer Linse auf eine Mattscheibe (Streuscheibe) abgebildet wird. Die Schärfentiefe der abbildenden Linse/Apertur kann dabei gering sein. Die Richtung des Schwerpunktes des aus der Mattscheibe austretenden Lichts, das typischerweise eine keulenförmige Intensitätsverteilung aufweist, stimmt normalerweise weiterhin mit der durch den Leuchtfleck sowie die Mitte der Linse definierten Achse, überein. Diese Richtung ist, sofern der beleuch­ tende Laserstrahl nicht in der Symmetrieachse der genannten Frontlinse verläuft, wiederum abhängig von der Entfernung des Meßobjekts.The invention can also be configured such that the light spot on the light emitted to the test object with the aid of a lens on a screen (Diffuser) is displayed. The depth of field of the imaging lens / aperture can be low. The direction of the center of gravity of the screen Exiting light, typically a club-shaped intensity distribution normally agrees with the light spot as well as the Center of the lens defined axis, coincide. This direction is, if the light tende laser beam is not in the axis of symmetry of said front lens, again depending on the distance of the DUT.

Das aus der Mattscheibe austretende Licht trifft dann auf einen Strahlteiler, so daß zwei getrennte Lichtbündel entstehen. Diese werden durch zwei schräg angeord­ nete Spiegel und eine weitere Linse wiederum auf dem Bildsensor zum Schnitt gebracht, so daß ein, von der Entfernung des Meßobjekts abhängiges Interferenz­ streifenmuster entsteht. Die Abbildung wird dabei vorteilhafterweise so gewählt, daß die Mattscheibe hinter den Bildsensor abgebildet werden würde, so daß sich die beiden auf den Bildsensor treffenden Lichtbündel, bei sich ändernder Entfer­ nung zum Meßobjekt, möglichst wenig bewegen.The light emerging from the ground glass then hits a beam splitter so that two separate light beams are created. These are angeord by two diagonally Nete mirror and another lens turn on the image sensor for editing brought so that a, dependent on the distance of the DUT interference stripe pattern arises. The image is advantageously chosen so that the screen would be imaged behind the image sensor, so that  the two light bundles striking the image sensor, with changing delimiters tion to the test object, as little as possible.

Bei den beiden erstgenannten Ausgestaltungsformen der Erfindung, Abbildung mit einer Linse und Doppelblende sowie die Abbildung auf einen Strahlteiler und dann auf den Bildsensor, schneiden sich die beiden, das Interferenzstreifenmuster er­ zeugenden Lichtbündel an verschiedenen Orten bei verschiedenen Entfernungen zum Meßobjekt. Dabei ist die Ortskurve der Schnittpunkte bei sich ändernder Ent­ fernung in guter Näherung eine Gerade, so daß der Bildsensor als gerader bzw. ebener, ein- bzw. zweidimensionaler Sensor ausgebildet werden kann.In the first two embodiments of the invention, Figure with a lens and double iris as well as the picture on a beam splitter and then on the image sensor, the two intersect, the interference fringe pattern he generating light beams in different places at different distances to the test object. Here, the locus of the intersections in changing Ent distance in a good approximation, a straight line, so that the image sensor as a straight or planar, one- or two-dimensional sensor can be formed.

Eine andere Ausgestaltung der Erfindung dient der Bestimmung bzw. Kompen­ sation des Abbildungsmaßstabes eines optischen Systems, wie es in der Technik aber auch beispielsweise in Form des menschlichen oder tierischen Auges vor­ kommt. Wie bereits zuvor beschrieben, wird ein kollimierter, paralleler Laserstrahl, vorzugsweise durch eine Blende im Querschnitt begrenzter Laserstrahl, ausge­ sandt. Dieser Laserstrahl durchdringt nun das Linsensystem des zu vermessenden optischen Systems und erzeugt auf einer dahinter angebrachten Oberfläche einen Leuchtfleck. Je nachdem, ob diese Oberfläche mit der Brennebene des Linsen­ systems übereinstimmt oder nicht, ergibt sich ein mehr oder weniger scharfer Lichtfleck auf dieser Oberfläche. Ein Teil des nun von dem Leuchtfleck in alle Raumrichtungen ausgehenden Lichts tritt nun wiederum durch das Linsensystem hindurch. Das aus dem Linsensystem austretende Licht kann nun verschiedene Richtungen und Kollimationszustände aufweisen: Liegt die Oberfläche, auf der der Laserstrahl den Leuchtfleck erzeugt, vor der Brennebene des Linsensystems (d. h. näher an den Linsen), so wird das rückgestreute Licht nach dem Austritt aus dem Linsensystem divergent und im Mittel nicht parallel (z. B. vom Laser weg orientiert) zum eintretenden Laserstrahl sein. Für den Fall, daß die Oberfläche hinter der Brennebene liegt, ergibt sich ein konvergent aus dem Linsensystem austretendes Lichtbündel, welches ebenfalls nicht parallel (nun zum Laser hin orientiert) zum Laserstrahl verläuft. Liegt nun die Oberfläche genau in der Brennebene des Lin­ sensystems, so erzeugt das von dem nun relativ kleinen Leuchtfleck ausgehende Streulicht nach dem Durchtritt durch das Linsensystem ein breites, parallel kolli­ miertes Lichtbündel parallel zum eintretenden Laserstrahl. Die weitere Vorgehens­ weise ist analog zu den beiden oben beschriebenen Verfahren mit Strahlteiler. Vorzugsweise ein durch eine Blende ausgeblendeter Teil des aus dem Linsen­ system austretenden Lichts wird beispielsweise auf einen Strahlteiler oder eine Mattscheibe abgebildet. In analoger Weise zu den bereits beschriebenen Ver­ fahren werden dann zwei sich schneidende Lichtbündel auf einem Bildsensor er­ zeugt. Der Abstand der entstehenden Interferenzstreifen ist nun ein Maß für den Abstand der beleuchteten Oberfläche bezogen auf die Brennweite des Linsen­ systems. Für den Fall eines technischen Abbildungssystems ist oftmals der Ab­ stand des Linsensystems zu der beleuchteten Oberfläche direkt zugänglich, so daß dann natürlich auch die absolute Brennweite des Linsensystems bestimmt werden kann.Another embodiment of the invention serves the purpose or Kompen the magnification of an optical system, as in the art but also for example in the form of the human or animal eye comes. As previously described, a collimated, parallel laser beam, preferably by a diaphragm in cross-section limited laser beam, out sandt. This laser beam now penetrates the lens system of the to be measured optical system and creates on a surface behind it one Spot. Depending on whether this surface is at the focal plane of the lens system agrees or not, results in a more or less sharp Light spot on this surface. Part of the now from the light spot in all Spaces of outgoing light now again passes through the lens system therethrough. The light emerging from the lens system can now be different Directions and collimation states: Is the surface on which the Laser beam generates the spot, in front of the focal plane of the lens system (i.e. closer to the lenses), so the backscattered light after exiting the Lens system divergent and not parallel on average (eg oriented away from the laser) to be entering laser beam. In the event that the surface behind the Focal plane, results in a convergent emerging from the lens system Light bundle, which is also not parallel (now oriented towards the laser) for Laser beam runs. Now the surface lies exactly in the focal plane of the Lin sensystems, this creates the emanating from the now relatively small spot Stray light after passing through the lens system a wide, parallel colli miert light beam parallel to the incoming laser beam. The further procedure way is analogous to the two methods described above with beam splitter. Preferably, a hidden by a diaphragm part of the lens System emerging light is, for example, a beam splitter or a  Matt screen shown. Analogously to the Ver then drive two intersecting light bundles on an image sensor testifies. The distance of the resulting interference fringes is now a measure of the Distance of the illuminated surface relative to the focal length of the lens system. In the case of a technical imaging system is often the Ab stood the lens system to the illuminated surface directly accessible, so that then of course determines the absolute focal length of the lens system can be.

Soll die Brechkraft des Linsensystems durch Vorschalten einer Linse verändert werden, wie dies beispielsweise beim menschlichen Auge durch das Anbringen einer Brille oder von Kontaktlinsen geschieht, so kann auch so verfahren werden, daß versuchsweise verschiedene korrigierende Linsen vor dem Linsensystem angebracht werden. Eine gewünschte Abbildung liegt ideal beispielsweise dann vor, wenn das das Linsensystem einschließlich der korrigierenden Linse verlas­ sende Lichtbündel parallel zum Laserstrahl austritt, da dann die Brennebene des Linsensystems mit der beleuchteten Oberfläche (z. B. Netzhaut im Auge) zusam­ menfällt. Der Abstand der Interferenzstreifen ist nun ein Maß dafür, ob die einge­ brachte korrigierende Linse zu stark oder zu schwach ist, so daß diese dann ausgetauscht werden kann. Iterativ läßt sich so also die beste korrigierende Linse ermitteln.Is the refractive power of the lens system changed by connecting a lens be, as for example, in the human eye by attaching glasses or contact lenses, this can also be done that tentatively various corrective lenses in front of the lens system be attached. For example, a desired image is ideal if that read the lens system including the corrective lens emit light beam parallel to the laser beam, because then the focal plane of the Lens system with the illuminated surface (eg retina in the eye) together menfällt. The distance of the interference fringes is now a measure of whether the turned brought corrective lens too strong or too weak, so this then can be exchanged. Iteratively, that is the best corrective lens determine.

Dieser Vorgang kann, durch Drehung des gesamten vor dem Abbildungssystem angeordneten Systems, für mehrere Ebenen wiederholt werden, beispielsweise um Astigmatismusfehler des Abbildungssystems zu erkennen. Für den Fall der Bestim­ mung der Gesamt-Brechkraft des Auges ist es notwendig, da die Brechkraft der Linse im Auge veränderbar ist, dem Auge ein bestimmtes in einer gewissen Ent­ fernung liegendes Bild, beispielsweise durch entsprechende Einspiegelung, anzu­ bieten, damit die Person versucht, die Linse so einzustellen, daß dieses Bild mög­ lichst scharf gesehen wird. Die Farben des angebotenen Bildes sollte nicht die Farbe des Laserstrahls enthalten. Vor dem Bildsensor kann dann ein Farbfilter angebracht werden, so daß der Bildsensor nur das letztlich vom Laser erzeugte Licht empfangen kann, nicht jedoch das vor dem, dem Auge angebotenen Bild, ausgehende Licht. Die gesamte auf der Netzhaut auftreffende Lichtintensität sollte möglichst gering sein, so daß sich die Irisblende im Auge möglichst weit öffnet. This process can, by rotation of the whole before the imaging system arranged system, be repeated for several levels, for example To detect astigmatism errors of the imaging system. In the case of the Bestim the total refractive power of the eye, it is necessary, because the refractive power of the Lens in the eye is changeable, the eye a certain in a certain Ent Distance lying image, for example, by appropriate reflection on so that the person tries to adjust the lens so that this image is possible as sharp as possible. The colors of the picture offered should not be the Color of the laser beam included. In front of the image sensor can then a color filter be attached so that the image sensor only ultimately generated by the laser Can receive light, but not before the image offered to the eye, outgoing light. The entire light intensity striking the retina should be be as small as possible so that the iris diaphragm opens as far as possible in the eye.  

In allen bisher beschriebenen Fällen kann als Bildsensor eine Vielzahl von, in einer Reihe oder als Matrix angeordneten, opto-elektrischen Wandlern verwendet werden (z. B. CCD-Zeilen- oder Matrixkamera). Die entstehenden elektrischen Signale können dann beispielsweise mit elektronischen Rechnern weiterverarbeitet werden, (z. B. FFT, Frequenzzählverfahren, Korrelation).In all the cases described so far, as the image sensor, a plurality of, in a series or arranged as a matrix, opto-electrical converters used (eg CCD line or matrix camera). The resulting electrical Signals can then be further processed, for example, with electronic computers (eg FFT, Frequency Counting, Correlation).

Der Bildsensor kann in allen Fällen auch derart vorteilhaft ausgestaltet werden, daß er aus einem optischen Doppelspalt, dessen Abstand der Spalte vorzugsweise an den zu erwartenden Interferenzstreifenabstand des durch die beiden Licht­ bündel auf dem Bildsensor erzeugten Interferenzstreifenmusters angepaßt ist, besteht. Hinter jedem einzelnen der beiden Spalte wird je ein, das aus dem zu­ gehörigen Spalt austretende Licht integral erfassender, Fotodetektor (z. B. APD- Fotodiode) angeordnet. Beide Spalte sind geringfügig gegeneinander verschoben, vorzugsweise um den mittleren Abstand der Interferenzstreifen. Des weiteren kann in allen Fällen in dem optischen Weg eines der beiden, auf den Bildsensor tref­ fenden Lichtbündel eine leichte Frequenzverschiebung des Lichtes bewirkt wer­ den. Diese Frequenzverschiebung des Lichts kann beispielsweise durch ein ro­ tierendes Gitter oder einen akustooptischen Modulator (z. B. Bragg-Zelle) hervor­ gerufen werden. Da die beiden auf den entsprechenden Spalt fallenden Licht­ bündel nun eine leicht verschiedene Frequenz haben, wird sich das Interferenz­ streifenmuster auf dem Spalt bewegen. Die auf den hinter dem jeweiligen Spalt angeordneten Fotodetektor einfallende Lichtintensität ändert sich also periodisch. Die Änderungsfrequenz entspricht der Frequenzverschiebung des Lichts durch z. B. den akustooptischen Wandler. Ein geänderter Abstand zum Gegenstand wirkt sich, wie beschrieben, in einer Änderung des Winkels zwischen den beiden auf den Bildsensor auftreffenden Lichtbündeln aus, was sich wiederum in einer Än­ derung des Streifenabstandes des, nun laufenden, Interferenzstreifenmusters niederschlägt. Die Phasenbeziehung beider, von den beiden Fotodetektoren gesehenen Signale ist nun also ein direktes Maß für die Entfernung zum Gegen­ stand. Der Aufbau eines Phasendetektors kann, in ähnlicher Weise wie in der Nachrichtentechnik durchgeführt werden. Dieses Verfahren erlaubt eine außer­ gewöhnlich hohe Wiederholungsrate einzelner Entfernungsmessungen. Beide Spalte werden vorzugsweise nicht räumlich eng beieinander angeordnet, sondern so, beispielsweise mit Hilfe eines Strahlteilers (halbdurchlässiger Spiegel), daß sie nur optisch so erscheinen. Die beiden Spalte können dann, zur Steigerung der Lichtintensität auf den Fotodetektoren, auch durch symmetrisch an der Stelle der Spalte angeordnete Gitter ersetzt werden. The image sensor can also be designed in such an advantageous manner in all cases that it is made of an optical double slit, the distance of the column preferably to the expected interference fringe distance of the light through the two bundle is matched to the interference fringe pattern generated on the image sensor, consists. Behind each one of the two columns will be one that comes out of the belonging gap leaking light integrally detecting, photodetector (such as APD Photodiode). Both columns are slightly offset from each other, preferably by the mean distance of the interference fringes. Furthermore, can in all cases in the optical path of one of the two, tref to the image sensor fenden light beam causes a slight frequency shift of the light who the. This frequency shift of the light, for example, by a ro animal lattice or an acousto-optic modulator (eg Bragg cell) be called. Because the two light falling on the corresponding gap bundles now have a slightly different frequency, the interference will be move strip pattern on the gap. The on the behind the respective gap arranged photodetector incident light intensity changes so periodically. The change frequency corresponds to the frequency shift of the light through z. B. the acousto-optic converter. A changed distance to the object works as described, in a change in the angle between the two from the image sensor incident light beams, which in turn in a Än tion of the strip spacing of the, now running, interference fringe pattern reflected. The phase relationship of both, from the two photodetectors seen signals is now so a direct measure of the distance to the counter was standing. The structure of a phase detector can, in a similar manner as in Communications technology be performed. This procedure allows one except usually high repetition rate of individual distance measurements. Both Columns are preferably not arranged spatially close to each other, but so, for example with the help of a beam splitter (semitransparent mirror) that they only visually so appear. The two columns can then be used to increase the Light intensity on the photodetectors, also symmetrical at the location of the Column arranged grid to be replaced.  

Abweichungen der Wellenfronten der beiden auf den Bildsensor fallenden Licht­ bündel von der als ideal erachteten ebenen Wellenfront, bedingt durch eine Fo­ kussierung auf den Bildsensor oder aber durch nichtideale optische Eigenschaften der Anordnung, sowie durch Wellenfrontdeformationen, hervorgerufen durch Ober­ flächenstrukturen der durch den Laserstrahl beleuchteten Oberfläche, führt zu ei­ nem Interferenzstreifenmuster, dessen Streifenabstand nicht mehr konstant ist. Ungenauigkeiten können nun, nach geeigneter Erfassung der Intensitätsverteilung auf dem Bildsensor, rechnerisch, in analoger Weise zu der Vorgehensweise bei Interferometern, erfaßt werden, so daß ein genauerer Wert für den Schnittwinkel der beiden auf den Bildsensor fallenden Lichtbündel und damit für die Entfernung zum Gegenstand über eine rechnerische Rekonstruktion der Wellenfronten ermit­ telt werden kann.Deviations of the wavefronts of the two incident on the image sensor light bundle of the considered as ideal flat wavefront, due to a Fo kussierung on the image sensor or by non-ideal optical properties the arrangement, as well as wavefront deformations, caused by upper surface structures of the illuminated by the laser beam surface, leads to egg An interference fringe pattern whose fringe spacing is no longer constant. Inaccuracies can now, after appropriate detection of the intensity distribution on the image sensor, mathematically, in an analogous manner to the procedure at Interferometers, are detected, so that a more accurate value for the cutting angle of the two light beams falling on the image sensor and thus for the distance to the subject on a mathematical reconstruction of the wavefronts ermit can be telt.

Auf optische Weise kann eine verbesserte Genauigkeit des Interferenzstreifen­ musters auf dem Bildsensor erreicht werden. Wird der, den Leuchtfleck auf dem Gegenstand erzeugende Laserstrahl zu einer geringfügigen Vibration gebracht, so erscheinen die Interferenzstreifen auf dem Bildsensor ebenfalls vibrierend. Ein ebensolcher Effekt kann erzielt werden, wenn ein optisches, eine Vibration verur­ sachendes, Element sowohl in den Strahlengang des Lasers, als auch in den Empfangsstrahlengang eingebracht wird. Im Falle einer im Verhältnis zur Vibra­ tionsfrequenz langen Integrationsdauer einzelner Fotodetektoren auf dem Bild­ sensor erscheint das Bild auf dem Bildsensor etwas verschwommen. Dieses Bild stellt jedoch eine Mitteilung über eine Vielzahl von Phasenzuständen der auf den Bildsensor fallenden Wellen dar, so daß sich ein von der Oberflächenstruktur der beleuchteten Oberfläche unabhängiges Interferenzstreifenmuster ergibt.Optically, an improved accuracy of the interference fringe pattern can be achieved on the image sensor. Will that spot on the Object generating laser beam brought to a slight vibration, so The interference fringes on the image sensor also appear vibrating. On The same effect can be achieved if an optical, a vibration verur appropriate, element both in the beam path of the laser, as well as in the Reception beam path is introduced. In the case of one in relation to the vibra tion frequency long integration period of individual photodetectors in the picture sensor, the image on the image sensor looks a bit blurry. This picture however, provides notification of a variety of phase conditions of the Image sensor falling waves, so that one of the surface structure of the illuminated surface gives independent interference fringe pattern.

Bei allen Verfahren kann, insbesondere jedoch bei dem vorgehend beschriebenen Verfahren des Spalt- bzw. Gitter-Bildsensors mit Frequenzverschiebung infolge der hohen zeitlichen Auflösung der Meßwerte, aus der Differenz aufeinanderfolgender Entfernungsmeßwerte die Geschwindigkeit des Meßobjekts ermittelt werden (ma­ thematisch: Ableitung der Entfernung nach der Zeit).In all methods, but especially in the previously described Method of the slit image sensor with frequency shift due to high temporal resolution of the measured values, from the difference of successive ones Distance measurements the speed of the DUT are determined (ma thematic: derivation of the distance after the time).

Im folgenden wird die Erfindung anhand der Zeichnung näher erläutert. Es zeigenIn the following the invention will be explained in more detail with reference to the drawing. Show it

Fig. 1 ein Entfernungsmeßgerät mit Doppelspaltblende vor der Empfangs­ optik in schematischer Darstellung; Fig. 1 is a distance measuring device with double slit in front of the receiving optics in a schematic representation;

Fig. 2 eine schematische Darstellung der vorliegenden Abbildungs­ geometrie; Fig. 2 is a schematic representation of the present imaging geometry;

Fig. 3 einen Ausschnitt aus dem Strahlengang nach Fig. 1, Fig. 6 und Fig. 9 mit einem Teil des Bildsensors; Figure 3 is a section of the beam path of Figure 1, Figures 6 and 9 with a part of the image sensor....;

Fig. 4a, 4b, 4c die Ortskurve des Bildes des auf dem zu vermessenden Gegen­ standes erzeugten Leuchtflecks bei sich ändernder Entfernung, die Variation des Abstandes des Bildpunktes von der abbildenden Linse in Abhängigkeit der Entfernung des Gegenstandes und die Variation des Interferenzstreifenabstandes mit den Parametern: Figures 4a, 4b, 4c, the locus of the image of to be measured on the article produced light spot with a changing distance, the variation of the distance of the image point of the imaging lens dependent on the distance of the object and the variation of the interference fringe spacing with the parameters.:

Maximale Entfernung|6 mMaximum distance | 6 m Minimale EntfernungMinimum distance 1 m1 m Schrittweiteincrement 0,1 m0.1 m LinsenbrennweiteLens focal length 0,14 m0.14 m Abstand Linse-LaserDistance lens laser 0,05 m0.05 m Halber BlendenabstandHalf aperture distance 0,005 m0.005 m Wellenlängewavelength 820 nm820 nm DX0DX 0 11,49 µm11.49 μm Offset horizontal (Fig. 4a)Offset horizontal ( Fig. 4a) 00 Offset vertikal (Fig. 4a)Offset vertical ( Fig. 4a) 0,14 m0.14 m

Fig. 5a, 5b, 5c die Ortskurve des Bildes des auf dem zu vermessenden Gegen­ standes erzeugten Leuchtflecks bei sich ändernder Entfernung, die Variation des Abstandes des Bildpunktes von der abbildenden Linse in Abhängigkeit der Entfernung des Gegenstandes und die Variation des Interferenzstreifenabstandes mit den Parametern: Figures 5a, 5b, 5c, the locus of the image of to be measured on the article produced light spot with a changing distance, the variation of the distance of the image point of the imaging lens dependent on the distance of the object and the variation of the interference fringe spacing with the parameters.:

Maximale Entfernung|50 mMaximum distance | 50 m Minimale EntfernungMinimum distance 4 m4 m Schrittweiteincrement 0,2 m0.2 m LinsenbrennweiteLens focal length 0,3 m0.3 m Abstand Linse-LaserDistance lens laser 0,1 m0.1 m Halber BlendenabstandHalf aperture distance 0,001 m0.001 m Wellenlängewavelength 820 nm820 nm DX0DX 0 12,31 µm12.31 μm Offset horizontal (Fig. 4a)Offset horizontal ( Fig. 4a) 0 0   Offset vertikal (Fig. 4a)Offset vertical ( Fig. 4a) 0,3 m0.3 m

Fig. 6 ein Entfernungsmeßgerät mit Strahlteiler in schematischer Dar­ stellung; Fig. 6 is a distance measuring device with beam splitter in a schematic Dar position;

Fig. 7 einen Ausschnitt aus dem Strahlengang nach Fig. 1, Fig. 6 bzw. Fig. 9 mit eingefügtem frequenzverschiebendem Element; Figure 7 is a section of the beam path of Figure 1, Figure 6 and Figure 9 with an inserted frequenzverschiebendem element....;

Fig. 8 einen Ausschnitt aus dem Strahlengang nach Fig. 1, Fig. 6 bzw. Fig. 9 mit zusätzlich eingefügtem zweiten Fotodetektor; Figure 8 is a section of the beam path of Figure 1, Figure 6 and Figure 9 with an additionally inserted second photodetector....;

Fig. 9 ein Entfernungsmeßgerät mit Mattscheibe und Strahlteiler in sche­ matischer Darstellung; Fig. 9 is a distance meter with ground glass and beam splitter in cal mathematical representation;

Fig. 10 eine erweiterte Anordnung zur Analyse der Abbildungseigenschaften eines optischen Systems; Figure 10 is an expanded arrangement for the analysis of the imaging properties of an optical system.

Fig. 11a, 11b und 11c einen Ausschnitt des Strahlenganges aus Fig. 10 in drei verschiedenen Situationen; Figures 11a, 11b and 11c shows a detail of the beam path of Figure 10 in three different situations..;

Fig. 12 eine Erweiterung der Fig. 10 um Elemente, die ein Einspiegeln eines zusätzlichen Bildes in das Sichtfeld eines Auges erlaubt. FIG. 12 shows an enlargement of FIG. 10 about elements which allow an additional image to be reflected in the field of view of an eye.

Das nachstehend beschriebene und in Fig. 1 dargestellte Verfahren dient der Be­ stimmung der Entfernung des Sensors zu dem Meßobjekt.The method described below and shown in Fig. 1 is used to determine Be the distance of the sensor to the DUT.

Der von Laser 1 gebildete Laserstrahl 2 trifft auf die Oberfläche des Gegenstandes 3 und bildet dort den Leuchtfleck 4. Das von diesem Leuchtfleck 4 abgestrahlte Licht bildet mehr oder weniger gleichverteilt, mit durch die Oberflächenstrukturen, die Oberflächengeschwindigkeit und -bewegungen bedingten zeitlichen und räum­ lichen Intensitätsschwankungen, die diffuse Strahlungskeule 11. Die Doppelspalt­ blende 6 blendet aus der Strahlungskeule 11 die beiden Teilstrahlen 14 und 15 aus. Diese werden durch die Linse 7 auf dem Bildsensor 8 zum Schnitt gebracht. Im Schnittvolumen 9, welches mit dem Auftreffpunkt der Strahlen 14 und 15 auf der photoempfindlichen Schicht des Bildsensors 8 identisch ist, entsteht nun das in Fig. 3 gezeigte Interferenzstreifenmuster. Der Interferenzstreifenabstand Δx wird im wesentlichen durch die Laserwellenlänge λ und den Schnittwinkel Θ festgelegt. Alle geometrischen Einflüsse gehen also über Θ in den Interferenzstreifenabstand ein. Dies sind der Spaltabstand der Doppelspalt-Blende und das Abbildungsver­ hältnis, bestimmt über das jeweilige Abbildungsgesetz (siehe Fig. 2). Somit giltThe laser beam 2 formed by laser 1 strikes the surface of the object 3 and forms there the light spot 4 . The emitted light from this spot 4 light forms more or less evenly distributed, with the surface structures, the surface velocity and movement-related temporal and spatial fluctuations in intensity, the diffuse lobe 11th The double-slit aperture 6 fades out of the radiation lobe 11 the two partial beams 14 and 15 . These are brought through the lens 7 on the image sensor 8 to the section. In the sectional volume 9 , which is identical to the point of impingement of the beams 14 and 15 on the photosensitive layer of the image sensor 8 , now arises the interference fringe pattern shown in FIG . The interference fringe spacing Δx is essentially determined by the laser wavelength λ and the intersection angle Θ. All geometrical influences thus enter the interference fringe distance via Θ. These are the gap distance of the double-slit diaphragm and the imaging ratio, determined by the respective imaging law (see FIG. 2). Thus applies

wobei f die Linsenbrennweite, G die Gegenstandsweite, B die Bildweite und δ der halbe Abstand zwischen den beiden Spalten der Doppelspalt-Blende sei.where f is the lens focal length, G is the object width, B is the image width and δ is the is half the distance between the two columns of the double-slit diaphragm.

Bewegt sich nun der Sensor (bestehend aus den Komponenten 1, 6, 7, 8) auf die Oberfläche zu bzw. bewegt sich die Oberfläche auf den Abstandssensor zu, so ergibt sich zu einem späteren Zeitpunkt z. B. der neue Auftreffpunkt 5 mit der dann zugehörigen Strahlungskeule 12. Der Auftreffpunkt 5 wird nun auf der Stelle 10 auf den Bildsensor abgebildet. In dem Schnittpunkt 10 liegt natürlich ebenfalls ein In­ terferenzstreifenmuster vor. Dieses hat aber nun aufgrund der zum Leuchtfleck 4 verschiedenen Gegenstandsweite G einen anderen Interferenzstreifenabstand. Über diesen, sich in Abhängigkeit von der Gegenstandsweite G ändernden Inter­ ferenzstreifenabstand wird der Abstand zur Oberfläche bestimmt. Der wesentliche Vorteil hierbei ist die weitgehende Unabhängigkeit des Streifenabstandes von In­ tensitäts- und Intensitätsverteilungsschwankungen des durch den Laserstrahl 2 er­ zeugten Leuchtflecks. Der sich ergebende Interferenzstreifenabstand kann mit einer Genauigkeit besser 1‰ ausgewertet werden. Die zeitliche Änderung des so bestimmten Interferenzstreifenabstandes ergibt die gewünschte Geschwindigkeits­ information.Now moves the sensor (consisting of the components 1, 6, 7, 8) to the surface or moves to the surface of the distance sensor, it results at a later time z. B. the new point of impact 5 with the associated radiation lobe 12th The impact point 5 is now imaged at the location 10 on the image sensor. Of course, there is also an interference fringe pattern in the intersection 10 . However, this now has a different interference fringe spacing due to the different object width G relative to the light spot 4 . The distance to the surface is determined by way of this interval of distance, which changes as a function of the object width G. The main advantage here is the high degree of independence of the strip spacing of intensity and intensity distribution variations in intensity of the laser beam 2 he testified luminous spot. The resulting interference fringe spacing can be evaluated with an accuracy of better than 1 ‰. The temporal change of the so determined interference fringe spacing gives the desired speed information.

Da bei dieser Anordnung, simultan zum sich ändernden Interferenzstreifenabstand, die Interferenzstreifen noch auf dem Bildsensor 8 sich bewegen, und da zwischen Streifenposition und Interferenzstreifenabstand ein eindeutiger Zusammenhang besteht, dieses aber unabhängig bestimmbare Größen sind, kann diese Tatsache dazu herangezogen werden, um Dejustagen oder Beschädigungen des Sensors (die dann zu einem Sensorausfall oder zu falschen Meßwerten führen können) frühzeitig zu erkennen und anzuzeigen bevor es zu Fehlmessungen oder Total­ ausfällen kommen kann. D.h., in gewissen Grenzen kann hierdurch eine interne Kalibrierung vom Sensor jederzeit vorgenommen werden und es können immer veränderte Sensoreigenschaften angezeigt werden, bevor es zu Genauigkeits­ änderungen kommen kann. Since in this arrangement, simultaneously to the changing interference fringe spacing, the interference fringes still move on the image sensor 8 , and since there is a clear relationship between fringe position and fringe spacing, but these are independently determinable quantities, this fact can be used to misalignments or damage of the sensor (which can then lead to a sensor failure or to incorrect measured values) to recognize early and display before it can lead to incorrect measurements or total failures. This means that within certain limits an internal calibration of the sensor can be made at any time and it can always be changed sensor properties are displayed before it can lead to accuracy changes.

Fig. 2 dient zur Erläuterung des Abbildungsvorganges. Der in der Zeichnung ver­ tikal austretende Laserstrahl trifft im Gegenstandspunkt auf das zu vermessende Objekt. Ein Teil des in alle Richtungen gestreuten Lichts wird durch die Linse 7 auf den Bildpunkt abgebildet. Zwischen der Gegenstandsweite G, der Bildweite B sowie der Brennweite f der Linse 7 besteht folgende Beziehung: Fig. 2 serves to explain the imaging process. The ver tikal exiting in the drawing laser beam strikes in the object point on the object to be measured. Part of the light scattered in all directions is imaged by the lens 7 onto the pixel. Between the object width G, the image width B and the focal length f of the lens 7 , the following relationship exists:

Der Winkel α wird durch den Abstand des Laserstrahls zur Mitte der Linse 7 sowie der Entfernung des Meßobjekts festgelegt. Befindet sich der Gegenstandspunkt im Unendlichen, so wird der Bildpunkt im Abstand der Linsenbrennweite f auf die ver­ tikale Achse abgebildet. (Dieser Punkt bildet den Koordinatenursprung in Fig. 4a und 5a). Nähert sich der Gegenstandspunkt dem Gerät, so wird die Gegenstands­ weite G kleiner, die Bildweite B sowie der Winkel α größer. Der Bildpunkt über­ streicht dabei einen bestimmten Weg in der Zeichenebene. Diese Ortskurve der Bildpunkte ist in Fig. 4a und 5a aufgetragen. Man erkennt, daß es sich dabei näherungsweise um eine Gerade handelt, so daß ein linearer Zeilensensor ein­ gesetzt werden kann. Die Änderung der Gegenstandsweite G in Abhängigkeit der Entfernung des Meßobjekts ist in Fig. 4b und 5b dargestellt. Man erkennt, daß die Genauigkeit des Sensors mit abnehmender Entfernung zunimmt, jedoch auch der Bildsensor größer werden muß. Bestimmend für den Winkel, unter dem die Orts­ kurve der Bildpunkte zu der vertikalen Achse steht und unter dem der Bildsensor angeordnet werden muß, ist der Abstand des Laserstrahls zu der Linse. Wird die­ ser Abstand sehr klein gewählt, so trifft das Streulicht nur unter einem sehr kleinen Winkel auf den Bildsensor. Fig. 3 zeigt das auf der Oberfläche des Bildsensors entstehende Interferenzstreifenmuster. Der Abstand Δx ist unabhängig von dem Einfallswinkel α des gesamten Lichtbündels. Der Schnittwinkel des Lichtbündels mit dem Bildsensor wird in der Praxis im wesentlichen von dem Kippwinkel der Ortskurve der Bildpunkte, also dem Abstand Laser-Linse, und nur unwesentlich von dem Winkel α, also der Entfernung des Meßobjekts bestimmt. Durch diesen Winkel zwischen dem Lichtbündel und dem Bildsensor erscheint das Interferenz­ streifenmuster auf dem Bildsensor vergrößert (um den Faktor 1/sin (Schnittwinkel)). Der Abstand Laser-Linse muß also entsprechend der geforderten Genauigkeit und der Auflösung des Bildsensors gewählt werden. The angle α is determined by the distance of the laser beam to the center of the lens 7 and the distance of the DUT. If the object point is at infinity, the pixel is imaged at the distance of the lens focal length f to the vertical axis. (This point forms the origin of the coordinates in FIGS. 4a and 5a). If the object point approaches the device, the object becomes wider G smaller, the image width B and the angle α larger. The pixel above crosses a certain path in the drawing plane. This locus of the pixels is plotted in FIGS. 4a and 5a. It can be seen that this is approximately a straight line, so that a linear line sensor can be set. The change of the object width G as a function of the distance of the test object is shown in FIGS. 4b and 5b. It can be seen that the accuracy of the sensor increases with decreasing distance, but also the image sensor must be larger. Determining the angle at which the locus curve of the pixels to the vertical axis and under which the image sensor must be arranged, is the distance of the laser beam to the lens. If this distance is chosen to be very small, the scattered light strikes the image sensor only at a very small angle. Fig. 3 shows the interference fringe pattern formed on the surface of the image sensor. The distance Δx is independent of the angle of incidence α of the entire light beam. The intersection angle of the light beam with the image sensor is determined in practice essentially by the tilt angle of the locus of the pixels, ie the distance laser lens, and only slightly from the angle α, ie the distance of the measured object. Due to this angle between the light beam and the image sensor, the interference fringe pattern appears enlarged on the image sensor (by the factor 1 / sin (intersection angle)). The distance laser lens must therefore be selected according to the required accuracy and the resolution of the image sensor.

Fig. 3 zeigt im Detail das Auftreffen der beiden durch die Blenden vor der Front­ linse erzeugten Lichtkegel 14 und 15 auf den Bildsensor. Beide Lichtkegel erzeu­ gen durch Interferenz das Interferenzstreifenmuster 13, dessen Streifenabstand Δx sich aus dem Schnittwinkel 2 Θ (vgl. Fig. 1) der beiden Lichtkegel 14 und 15 ergibt zu: Fig. 3 shows in detail the impact of the two lenses generated by the apertures in front of the front light cone 14 and 15 on the image sensor. Both light cones generate by interference the interference fringe pattern 13 , the fringe spacing Δx of which results from the intersection angle 2 Θ (see FIG. 1) of the two light cones 14 and 15 :

Fig. 4c und 5c zeigen den Abstand Δx des Interferenzstreifenmusters über die Entfernung abgetragen, ohne Berücksichtigung des Kippwinkels des Bildsensors. Für den in Fig. 4a, 4b und 4c dargestellten Fall ergibt sich ein Schnittwinkel zwi­ schen dem Bildsensor und dem einfallenden Lichtbündel von ca. 18,5° bei einem Interferenzstreifenabstand von ca. 12,5 µm. Der Bildsensor sieht dann also einen Streifenabstand von ca. 39,4 µm, so daß ein CCD-Zeilensensor mit 7 µm Pixel­ abstand gut als Bildsensor geeignet wäre. Ähnliche Zahlen ergeben sich für den Fall von Fig. 5a, 5b und 5c. Der Interferenzstreifenabstand Δx kann nahezu unab­ hängig von den anderen diskutierten Parametern durch den Abstand der beiden Blenden vor der Empfangslinse und somit dem Winkel 2 Θ in Fig. 1 eingestellt werden. Figures 4c and 5c show the distance Δx of the interference fringe pattern over the distance, without regard to the tilt angle of the image sensor. For the case shown in Fig. 4a, 4b and 4c results in an intersection angle between tween the image sensor and the incident light beam of about 18.5 ° at an interference fringe spacing of about 12.5 microns. The image sensor then sees a strip spacing of about 39.4 microns, so that a CCD line sensor with 7 microns pixel spacing would be well suited as an image sensor. Similar numbers result for the case of Figs. 5a, 5b and 5c. The interference fringe spacing Δx can be set almost independently of the other parameters discussed by the distance between the two apertures in front of the receiving lens and thus the angle 2 Θ in FIG .

Fig. 4a, 4b und 4c zeigen ein Beispiel für einen Entfernungsbereich von 4 bis 50 m. Die Linsenbrennweite beträgt 0,3 m, der Abstand des Lasers zum Mittelpunkt der Linse 0,1 m. Die Bildpunkte überstreichen dabei eine Strecke von ca. 2,2 cm (Fig. 4a), so daß ein Bildsensor mit dieser Länge unter einem Winkel von 18,5° zur vertikalen Achse angeordnet werden kann. Die Änderung der Bildweite in Abhän­ gigkeit der Entfernung des Meßobjekts ist in Fig. 4b dargestellt. Es läßt sich er­ kennen, daß die Bildweitenänderung bei kleinen Entfernungen größer wird, so daß hier die Genauigkeit der Bestimmung der Position des Leuchtflecks auf dem Bild­ sensor steigt. Fig. 4c zeigt die Änderung des Interferenzstreifenabstands Δx über der Entfernung. Auch hier ergibt sich eine größere Änderung des Interferenz­ streifenabstands bei kleinen Entfernungen und somit eine höhere Genauigkeit. Bei dem sehr ähnlichen Signalverlauf des Ausgangssignals eines Laser-Doppler- Anemometers (LDA) können Genauigkeiten von besser als 1‰ erreicht werden, wobei ein größerer Dynamikbereich als im vorliegenden Fall abgedeckt werden muß. Eine Genauigkeit von 1‰ bei der Bestimmung des Interferenzstreifenmu­ sters führt im Fall der Fig. 4c auf eine Genauigkeit der daraus bestimmten Ent­ fernung von ca. 4,5 m bei einer Entfernung von 40 m und von 5 cm bei einer Ent­ fernung von 4 m vom Meßobjekt. Figures 4a, 4b and 4c show an example of a distance range of 4 to 50 m. The lens focal length is 0.3 m, the distance of the laser to the center of the lens 0.1 m. The pixels cover a distance of about 2.2 cm ( Figure 4a), so that an image sensor with this length can be arranged at an angle of 18.5 ° to the vertical axis. The change of the image width in depen dence of the distance of the DUT is shown in Fig. 4b. It can be known that the image change in distance at small distances is greater, so that here increases the accuracy of determining the position of the light spot on the image sensor. Fig. 4c shows the change of the interference fringe distance Δx over the distance. Again, there is a larger change in the interference fringe spacing at small distances and thus a higher accuracy. With the very similar signal curve of the output signal of a laser Doppler anemometer (LDA) accuracies of better than 1 ‰ can be achieved, whereby a larger dynamic range than in the present case must be covered. An accuracy of 1 ‰ in the determination of the Interferenzstreifenmu sters leads in the case of Fig. 4c to an accuracy of the determined Ent distance of about 4.5 m at a distance of 40 m and 5 cm at a distance of 4 m Ent from the test object.

Das Beispiel in Fig. 5a, 5b und 5c wurde für einen Entfernungsbereich von 1-6 m erstellt. Dabei wurde eine Linsenbrennweite von 0,14 m und ein Abstand zum Laser von 0,05 m gewählt. Wieder mußte ein Sensor mit einer Länge von ca. 2 cm unter einem Winkel von ca. 20° angebracht werden. Die Genauigkeit beträgt nun bei 6 m Abstand ca. 20 cm, bei einem Abstand von 1,1 m ca. 6 mm.The example in FIGS. 5a, 5b and 5c was prepared for a distance range of 1-6 m. In this case, a lens focal length of 0.14 m and a distance to the laser of 0.05 m was selected. Again, a sensor with a length of about 2 cm at an angle of about 20 ° had to be attached. The accuracy is now at 6 m distance about 20 cm, at a distance of 1.1 m about 6 mm.

Ein anderes erfindungsgemäßes Ausführungsbeispiel eines Abstandssensors ist in Fig. 6 aufgezeigt. Der von Laser 1 gebildete Laserstrahl 2 trifft auf dem Gegen­ stand 3 auf und bildet dort den Leuchtfleck 4. Der Teil des vom Leuchtfleck 4 ab­ gestrahlten und auf die Öffnung der Blende 16 fallenden Lichts wird durch die Linse 17 in Form des Strahlenbündels 18 auf den Strahlteiler 19 abgebildet. Die Art der Abbildung ist dieselbe, wie sie bereits oben anhand des Beispiels der Fig. 1 ausführlich erläutert wurde. Die Geometrie ist wiederum in Fig. 2 dargestellt. Das Bild des Leuchtflecks 4 wandert also auf dem Strahlteiler 19, während der Gegen­ stand 3 sich dem Laser 1 nähert und zu einem späteren Zeitpunkt in das Bild des Leuchtflecks 5 übergeht. Die beiden vom Strahlteiler 19 erzeugten Lichtbündel werden durch die Linse 20 in Form der Lichtbündel 14 und 15 auf den Bildsensor 8 abgebildet und dort zum Schnitt gebracht. Wiederum bildet sich dann an der Stelle 9 im Falle des Leuchtflecks 4 ein Interferenzstreifenmuster aus. Für den Inter­ ferenzstreifenabstand gelten die analogen Überlegungen wie im oben geschilder­ ten Ausführungsbeispiel (vgl. Fig. 3).Another embodiment of a distance sensor according to the invention is shown in FIG . The laser beam 2 formed by laser 1 impinges on the object 3 and forms there the light spot. 4 The part of the light spot 4 from radiated and incident on the opening of the aperture 16 light is imaged by the lens 17 in the form of the beam 18 on the beam splitter 19 . The type of mapping is the same as explained in detail above with reference to the example of FIG . The geometry is again shown in FIG . The image of the light spot 4 thus moves on the beam splitter 19 , while the object 3 is approaching the laser 1 and merges into the image of the light spot 5 at a later time. The two light beams generated by the beam splitter 19 are imaged by the lens 20 in the form of the light beams 14 and 15 on the image sensor 8 and brought there to the section. Again, an interference fringe pattern then forms at point 9 in the case of the light spot 4 . For the Inter distance strip distance, the analog considerations apply as in the above geschilder th embodiment (see Fig. 3).

Ein weiteres Ausführungsbeispiel der Erfindung ist in Fig. 9 gezeichnet. Der im Auftreffpunkt des in Fig. 9 nicht dargestellten Lasers auf dem Gegenstand 3 ent­ stehende Leuchtfleck 4 wird, bei durch die Blende 27 einstellbarer Apertur, mit Hilfe der Linse 28 in Form des Lichtbündels 29 auf die Mattscheibe 30 abgebildet. Dabei handelt es sich nicht in allen Fällen um eine echte Abbildung, bei der das Bild des Leuchtflecks 4 scharf auf die Mattscheibe 30 abgebildet wird: Der Abstand zwischen der Linse 28 und der Mattscheibe 30 wird vorteilhafterweise so einge­ stellt, daß bei einer mittleren Entfernung des Gegenstandes 3 zur Linse 28 das Bild des Leuchtflecks 4 genau auf die Mattscheibe 30 fällt und dort scharf er­ scheint. Bei kleineren Abständen des Gegenstands 3 liegt der Fokus des Licht­ bündels 29 nun hinter, bei größeren Abständen vor der Mattscheibe 30. Ist der Öffnungswinkel des Lichtkegels 29, bedingt durch eine große Blendenöffnung der Blende 27, nun groß, so kann auf der Mattscheibe 30 ein diffuser Leuchtfleck ent­ stehen. Die Intensitäts-Verteilung des aus der Mattscheibe 30 wieder austretenden Lichtbündels 44 ist bei einer typischen Mattscheibe keulenförmig. Die Symmetrie­ achse dieser Keule ist jedoch identisch mit der Symmetrieachse des auf die Matt­ scheibe 30 treffenden Lichts 29. Bei einem geeignet angeordneten Laser ändert sich also die Austrittsrichtung des Lichtbündels 44 aus der Mattscheibe 30 in Ab­ hängigkeit der Entfernung des Gegenstandes 3. Das Lichtbündel 44 trifft auf den Strahlteiler 31. Die beiden von dem Strahlteiler 31 ausgehenden Lichtbündel er­ scheinen nun, als kämen sie aus den gedachten Punkten 41 und 43 auf der virtu­ ellen Mattscheibe 42. Im Abstand a vor der virtuellen Mattscheibe 42 befindet sich nun die virtuelle Linse 40, die der realen Linse 28 entspricht. Die beiden in die Linse 32 eintretenden Lichtbündel, die als Lichtbündel 37 und 38 wieder austreten, werden durch die Linse 32 auf die Oberfläche 45 des Bildsensors 35 abgelenkt und schneiden sich dort, so daß ein Interferenzstreifenmuster entsteht. Die Ober­ fläche 45 des Bildsensors 35 wird vorzugsweise in der EntfernungAnother embodiment of the invention is shown in FIG . At the point of impact of the laser, not shown in FIG. 9, on the object 3 , the light spot 4 is imaged on the ground glass 30 , with the aperture 27 being adjustable by means of the lens 28 in the form of the light beam 29 . This is not in all cases a true image in which the image of the light spot 4 is sharply imaged on the ground glass 30 : The distance between the lens 28 and the ground glass 30 is advantageously adjusted so that at an average distance of Object 3 to the lens 28, the image of the light spot 4 falls exactly on the ground glass 30 and there he sharp. At smaller distances of the object 3 , the focus of the light beam 29 is now behind, with larger distances in front of the screen 30th If the opening angle of the light cone 29 , due to a large aperture of the aperture 27 , now large, so may be on the screen 30, a diffuse light spot ent. The intensity distribution of the light beam 44 emerging from the ground glass 30 is club-shaped in a typical ground glass screen. The symmetry axis of this lobe, however, is identical to the axis of symmetry of the disc 30 striking the light 29th In a suitably arranged laser thus changes the exit direction of the light beam 44 from the ground glass 30 in dependence from the distance of the object. 3 The light beam 44 strikes the beam splitter 31 . The two light beams emanating from the beam splitter 31 now appear as if they came from the imaginary points 41 and 43 on the virtual ground glass 42 . At a distance a in front of the virtual ground glass 42 is now the virtual lens 40 , which corresponds to the real lens 28 . The two light bundles entering the lens 32 , which exit as light bundles 37 and 38 , are deflected by the lens 32 onto the surface 45 of the image sensor 35 and intersect to form an interference fringe pattern. The upper surface 45 of the image sensor 35 is preferably at a distance

hinter der Linse 32 angeordnet. Dabei kennzeichnet f die Brennweite der Linse 32, b den Abstand der Linse 32 zur virtuellen Mattscheibe 42 (entsprechend dem op­ tischen Abstand zur realen Mattscheibe 30) und a den Abstand der virtuellen Matt­ scheibe 42 zur virtuellen Linse 40 (entsprechend dem Abstand der Mattscheibe 30 zur Linse 28). Vorteilhaft wird dabei b = f gewählt.behind the lens 32 is arranged. In this case, f indicates the focal length of the lens 32 , b the distance of the lens 32 to the virtual ground glass 42 (corresponding to the optical distance to the real focusing screen 30 ) and a the distance of the virtual Matt disc 42 to the virtual lens 40 (corresponding to the distance of the ground glass 30th to the lens 28 ). Advantageously, b = f is chosen.

Um den Aufwand bei der Justage des Geräts sowie die Kosten gering zu halten, können mehrere optische Elemente zusammengefaßt werden. Die Spiegel 33 und 34 sowie der Strahlteiler 31 können beispielsweise sehr vorteilhaft in Form eines einzelnen Strahlteilerprismas realisiert werden.In order to keep the effort in the adjustment of the device and the cost low, several optical elements can be summarized. The mirrors 33 and 34 as well as the beam splitter 31 can for example be realized very advantageously in the form of a single beam splitter prism.

Fig. 10 zeigt ein weiteres Beispiel für die Ausführung der Erfindung zur Analyse der Abbildungseigenschaften eines optischen Systems. Fig. 10 erläutert dies anhand einiger dargestellter Teile des menschlichen Auges. Analoges trifft selbst­ verständlich auch auf andere in der Technik verwendete Linsensysteme mit dahin­ ter angeordnetem Bildempfänger bzw. Mattscheibe zu. Der von Laser 1 gebildete Laserstrahl 2 tritt durch das, aus Hornhaut 46, Linse 48 sowie sonstiger eventuell das Licht beeinflussender Elemente bestehende, Linsensystem hindurch und trifft in Form des konvergierenden Strahls 49 auf der Netzhaut 50 auf. Der dabei ent­ stehende Leuchtfleck 51 strahlt nun Licht in quasi alle Richtungen ab. Ein Teil die­ ses abgestrahlten Lichts fällt nun durch die Linse 48 und die Hornhaut 46 hindurch auf die Blende 52, die der Blende 16 in Fig. 6 bzw. der Blende 27 in Fig. 9 ent­ spricht. Der durch die Blende 52 fallende Teil des Lichts trifft dann auf die Linse 54. Die Linse 54 entspricht der Linse 17 in Fig. 6 bzw. der Linse 28 in Fig. 9. Der gezeichnete Kasten 53 repräsentiert also die Anordnung der Fig. 6 bzw. Fig. 9, die bereits beschrieben wurden. Der Strahlengang in der Umgebung des Linsensy­ stems 46/48 und der Netzhaut 50 sei anhand von drei verschiedenen Fällen noch­ mals in Fig. 11 dargestellt: Fig. 11a zeigt den Fall, daß die Netzhaut sich in Brenn­ weitenabstand hinter dem Linsensystem befindet. Der Laserstrahl 2 wird also scharf auf die Netzhaut fokussiert. Das durch das Linsensystem wieder austreten­ de und durch die Blende 52 teilweise abgeblendete Rückstreulicht von der Netz­ haut verläuft nun parallel zum Laserstrahl 2 und ist kollimiert. Fig. 11b zeigt den Fall, daß sich die Netzhaut zu nah hinter der Linse befindet bzw. die Brennweite der Linse zu groß ist. Das durch das Rückstreulicht hervorgerufene Lichtbündel ist nun divergent und anders gerichtet (nach unten orientiert). In Fig. 11c ergeben sich umgekehrte Verhältnisse. Die Brennweite der Linse ist zu klein bzw. der Ab­ stand zwischen Linse und Netzhaut zu groß. Das Rückstreulicht außerhalb des Auges ist nun konvergent und dabei nach oben gerichtet. Analog zu Fig. 6 und Fig. 9 ändert sich also die Richtung des austretenden Lichts, so daß der auf dem Bildsensor sichtbare Interferenzstreifenabstand variiert. Dieser Interferenzstreifen­ abstand ist ein Maß für das Verhältnis der Brennweite des Linsensystems im Auge zu dem Abstand dieses Linsensystems zur Netzhaut. Durch das Anbringen einer korrigierenden Linse vor dem Auge (Brille, Kontaktlinse) können die Abbildungs­ eigenschaften des Auges verändert werden. Eine derartige Linse, automatisch austauschbar oder vorzugsweise mit veränderbarer Brennweite (Zoom-Objektiv), kann auch als Teil der in Fig. 10 dargestellten Anordnung angebracht werden. Diese Vorsatzlinse kann dann automatisch, als Teil eines Regelkreises, so ange­ paßt werden, daß das aus dem Auge austretende Rückstreulicht parallel zum Laserstrahl 2 ist. Das Auge zusammen mit der sich ergebenden Vorsatzlinse bildet dann Objekte, die im Unendlichen liegen, scharf auf die Netzhaut ab. Um eventuell vorhandene Astigmatismusfehler der abbildenden Elemente im Auge zu erfassen, kann die gesamte in Fig. 10 gezeigte Anordnung relativ zum Auge gedreht werden, so daß die Brechkraft in mehreren Ebenen vermessen werden kann. Fig. 10 shows another example of the embodiment of the invention for analyzing the imaging properties of an optical system. Fig. 10 illustrates this with reference to some parts of the human eye shown. Of course, the same applies to other lens systems used in the art with image receiver or ground glass arranged thereafter. The laser beam 2 formed by laser 1 passes through the lens system consisting of cornea 46 , lens 48 and other elements that possibly influence the light and impinges on retina 50 in the form of converging beam 49 . The ent standing light spot 51 now emits light in virtually all directions. A portion of this radiated light now falls through the lens 48 and the cornea 46 through the aperture 52 , which speaks the aperture 16 in Fig. 6 and the aperture 27 in Fig. 9 ent. The portion of the light passing through the aperture 52 then strikes the lens 54 . The lens 54 corresponds to the lens 17 in Fig. 6 and the lens 28 in Fig. 9. The drawn box 53 thus represents the arrangement of Fig. 6 and Fig. 9, which have already been described. The beam path in the vicinity of the Linsensy stems 46/48 and the retina 50 is shown on the basis of three different cases even times in Fig. 11: Fig. 11a shows the case that the retina is located in Brennweite distance behind the lens system. The laser beam 2 is therefore focused sharply on the retina. The back through the lens system escaping de and partially dimmed by the aperture 52 back scattered light from the mesh now runs parallel to the laser beam 2 and is collimated. Fig. 11b shows the case that the retina is too close behind the lens or the focal length of the lens is too large. The light beam produced by the backscattering light is now divergent and directed differently (oriented downwards). In Fig. 11c reverse conditions arise. The focal length of the lens is too small or the distance between lens and retina was too large. The backscattered light outside the eye is now convergent, pointing upwards. Thus, analogous to Fig. 6 and Fig. 9 changes the direction of the emerging light, so that the visible interference fringes on the image sensor distance varies. This interference fringe distance is a measure of the ratio of the focal length of the lens system in the eye to the distance of this lens system to the retina. By attaching a corrective lens in front of the eye (glasses, contact lens), the imaging properties of the eye can be changed. Such a lens, automatically replaceable or preferably with variable focal length (zoom lens), may also be mounted as part of the arrangement shown in FIG . This ancillary lens can then automatically, as part of a control loop, be fitted so that the exiting the eye backscattering light is parallel to the laser beam 2 . The eye, together with the resulting auxiliary lens, then sharply focusses on the retina objects lying at infinity. In order to detect any astigmatism errors of the imaging elements in the eye, the entire arrangement shown in FIG. 10 can be rotated relative to the eye, so that the refractive power can be measured in several planes.

Bei der realen Vermessung der Brechkraft des Auges ist es notwendig, die im Auge vorhandene verstellbare Linse in einen bestimmten Zustand zu bringen. Dies kann medikamentös durch temporäre Lähmung der entsprechenden Muskeln, oder aber dadurch, daß dem Auge ein reelles Bild angeboten wird, erreicht werden. Fig. 12 skizziert eine entsprechende Anordnung. Das auf der Oberfläche 57 existie­ rende Bild, beispielsweise ein Schriftzug, wird mit Hilfe der Linse 56 und dem Strahlteiler bzw. Spiegel 55 dem Auge eingeblendet. Beträgt der Abstand d zwi­ schen Linse 56 und Oberfläche 57 genau die Brennweite der Linse 56, so er­ scheint das Bild für das Auge im Unendlichen. Dies ist beim Anpassen einer Fernbrille gewünscht. Soll das Auge sich auf eine kürzere Entfernung einstellen, so ist der Abstand d kleiner als die Brennweite der Linse 56 zu wählen. Das Ele­ ment 55 kann entweder als Strahlteiler oder aber als im Bereich des Laserstrahls 2 sowie des auf die Blende 52 fallenden rückgestreuten Lichts durchlässiger (ge­ bohrter) Spiegel ausgeführt sein.In the actual measurement of the refractive power of the eye, it is necessary to bring the present in the eye adjustable lens in a certain state. This can be achieved medically by temporary paralysis of the corresponding muscles, or by the fact that the eye is offered a real picture. Fig. 12 sketches a corresponding arrangement. The image existing on the surface 57 , for example a lettering, is faded into the eye with the aid of the lens 56 and the beam splitter or mirror 55 . If the distance d between the lens 56 and the surface 57 is exactly the focal length of the lens 56 , then the image for the eye appears at infinity. This is desired when fitting a pair of glasses. If the eye is to adjust to a shorter distance, the distance d is smaller than the focal length of the lens 56 to choose. The ele ment 55 may be embodied either as a beam splitter or as in the area of the laser beam 2 and the incident on the aperture 52 backscattered light permeable (ge drilled) mirror.

Das von der Oberfläche 57 ausgehende Licht sollte die Farbe des emittierten Laserlichts nicht enthalten. Ein beispielsweise zwischen dem Element 55 und der Empfangseinheit 53 angebrachter optischer Farbfilter, der nur die Wellenlänge des Laserlichts durchläßt, kann dann dazu verwendet werden, um nur das ursprünglich vom Laser stammende Licht zum Bildsensor durchzulassen. Die Gesamtintensität des auf die Netzhaut 50 fallenden Lichts sollte gering sein, so daß die Irisblende 47 möglichst groß geöffnet bleibt.The light emanating from the surface 57 should not contain the color of the emitted laser light. An optical color filter, for example, mounted between the element 55 and the receiving unit 53 , which transmits only the wavelength of the laser light, can then be used to pass only the light originally originating from the laser to the image sensor. The total intensity of the light falling on the retina 50 should be low, so that the iris diaphragm 47 remains as large as possible.

Die in allen genannten Ausführungsbeispielen verwendeten Bildsensoren können beispielsweise in Form eines CCD (Charge Coupled Device)-Zeilen- oder Flä­ chensensors ausgebildet werden. Diese Sensoren sind relativ billig, da sie in großem Maßstab industriell eingesetzt werden (z. B. in Fax-Geräten). Die Daten eines vorzugsweise verwendeten CCD-Zeilensensors werden zu einem Micro­ prozessor bzw. Microcontroller übertragen. Das zumeist analoge Ausgangssignal des Sensors muß mit Hilfe eines Analog-Digital-Wandlers in digitale Information, die dann der Microprozessor/-controller verarbeiten kann, umgesetzt werden. Bei geringen Auslesegeschwindigkeiten kann ein eventuell im Microcontroller integrier­ ter Analog-Digital-Wandler eingesetzt werden. Hohe Auslesegeschwindigkeiten in Kombination mit einem langsamen Prozessor/Controller erfordern u. U. einen ex­ ternen AD-Wandler sowie ein FIFO zur Datenpufferung. The image sensors used in all the mentioned embodiments can For example, in the form of a CCD (Charge Coupled Device) -Zeil- or Flä be formed chenensors. These sensors are relatively cheap as they are in industrial scale (eg in fax machines). The data a preferably used CCD line sensor become a micro processor or microcontroller transferred. The mostly analog output signal of the sensor must be converted to digital information by means of an analog-to-digital converter; then the microprocessor / controller can handle, be implemented. at low readout speeds can possibly be integrated in the microcontroller The analog-to-digital converter can be used. High readout speeds in Combination with a slow processor / controller may require U. an ex internal AD converter and a FIFO for data buffering.  

Der Bildsensor wird in einem bestimmten Bereich durch zwei interferierende Streu­ lichtstrahlen (Fig. 3) beleuchtet. Die Lichtintensität auf dem Bildsensor, über der Pixelnummer aufgetragen, hat die Form eines "modulierten Bursts". Dieser Burst ähnelt sehr dem Ausgangssignal eines Laser-Doppler-Anemometers (LDA). Sowohl die Modulationsfrequenz (d. h. der Abstand der Interferenzstreifen) als auch, im Falle der Fig. 1 und Fig. 6, der Ort an dem der Burst auf dem Bildsensor erscheint, sind ein Maß für die Entfernung des Meßobjekts. Die Verarbeitung die­ ses Sensor-Ausgangs-Signals kann auf vielfältige Weise, ähnlich wie beim LDA, durchgeführt werden. Dabei kommen digitale Filter-, Fouriertransformations- (FFT-), sowie Korrelations-Verfahren in Frage. Nach geeignet durchgeführter Bandpaßfilterung liegt ein mit der Schwebungsfrequenz des Bursts um Null herum schwingendes Signal vor, so daß die Frequenz durch Bestimmung der Nulldurch­ gänge sowie die Position durch Ermittlung der Einhüllenden ermittelt werden können. Nach einer FFT zeigt das Spektrum einen signifikanten Peak, dessen Lage die Frequenz und dessen Phase die Position des Bursts darstellt. Das Korrelationsverfahren führt insbesondere bei der Positionsbestimmung zu guten Ergebnissen.The image sensor is illuminated in a certain area by two interfering scattered light beams ( Fig. 3). The light intensity on the image sensor, plotted over the pixel number, is in the form of a "modulated burst". This burst is very similar to the output of a laser Doppler anemometer (LDA). Both the modulation frequency (ie, the spacing of the interference fringes) and, in the case of Fig. 1 and Fig. 6, the place where the burst appear on the image sensor that are a measure of the distance of the measurement object. The processing of this sensor output signal can be performed in a variety of ways, similar to the LDA. Digital filter, Fourier transform (FFT) and correlation methods are possible. After properly performed bandpass filtering is present with the beat frequency of the burst around zero oscillating signal, so that the frequency can be determined by determining the Nulldurch courses and the position by determining the envelope. After an FFT, the spectrum shows a significant peak whose position represents the frequency and whose phase represents the position of the burst. The correlation method leads to good results, in particular when determining the position.

Eine alternative Ausbildungsform des Bildsensors sieht wie folgt aus: In allen beschriebenen Ausführungsformen der Optik (Fig. 1, Fig. 6 und Fig. 9) kann in eines der beiden, das Interferenzstreifenmuster auf dem Bildsensor erzeugenden, Lichtbündel (z. B. 15 in Fig. 1, 15 in Fig. 6 und 38 in Fig. 9) ein frequenzverschie­ bendes Element eingefügt werden. Fig. 7 verdeutlicht dies: Die Frequenz des einfallenden Lichtbündels 15 wird durch das Element 24 geändert, so daß die Frequenz des austretenden Lichtbündels 25 typischerweise um einige zig MHz anders ist. Als frequenzverschiebendes Element kommt beispielsweise ein ro­ tierendes optisches Gitter oder ein akustooptischer Modulator (sog. Bragg-Zelle) in Frage. Durch diese Frequenzverschiebung Δf eines der beiden, auf den Bild­ sensor fallenden, Lichtbündels steht nun das erzeugte Interferenzstreifenmuster nicht mehr still, sondern bewegt sich in Richtung der Normalen zu den Interferenz­ streifen (vgl. Laser-Doppler-Anemometer mit Frequenzshift). Das Interferenz­ streifenmuster läuft nun genau so schnell über den Bildsensor hinweg, daß an einem feststehenden Punkt auf dem Bildsensor Licht mit genau der Schwebungs­ frequenz Δf gesehen wird, mit der zuvor die Frequenz des einen der beiden auf den Bildsensor fallenden Lichtbündels geändert worden ist (z. B. Treiberfrequenz der Bragg-Zelle). Die Oberfläche des Bildsensors 8 bzw. 35 wird nun in Form der Spaltblende 21 realisiert, wobei die Spaltblende parallel zu den Interferenzstreifen orientiert sein soll. Der hinter der Spaltblende 21 (in Fig. 7) angeordnete Foto­ detektor 23 wird so groß ausgelegt, daß alles durch die Spaltblende 21 fallende Licht darauf fällt. Das im Detektor 23 erfaßte Licht ist nun ebenfalls mit der Fre­ quenz Δf moduliert. Diese Frequenz ist jedoch unabhängig vom Winkel 2 Θ zwischen den Lichtbündeln 25 und 14. Daher wird die Anordnung, wie in Fig. 8 skizziert, um den Strahlteiler 22 (halbdurchlässiger Spiegel) sowie einen zweiten Bildsensor, bestehend aus der Spaltblende 26 sowie dem dahinterliegenden Fotodetektor, ergänzt. Dieser Fotodetektor sieht nun ebenfalls, mit der Frequenz Δf moduliertes Licht. Die Spaltblende 26 sollte so angeordnet sein, daß sein Bild, bei einer Achsenspiegelung an der, auf der Oberfläche des Strahlteilers 22 in der Zeichenebene verlaufenden Achse, nicht genau auf die Spaltblende 21 abgebildet wird, sondern die Spaltblende 26 in Richtung der Normalen auf den Spalt parallel zur Oberfläche des Elements verschoben ist. Diese Verschiebung wird vorzugs­ weise so gewählt, daß sie dem ganzzahligen Vielfachen des Interferenzstreifen­ abstands Δx, bei einem mittleren angenommenen Winkel 2 Θ zwischen den Lichtbündeln 14 und 25 entspricht. Ändert sich nun die Entfernung zum Gegen­ stand 3 und somit der Winkel 2 Θ, führt dies zu einer Änderung des Interferenz­ streifenabstands Δx. Die beiden, von den beiden Fotodetektoren gesehenen Signale mit der Frequenz Δf und der Phasenlage von z. B. 360° ändern nun ihre Phasenbeziehung. Diese Phasenbeziehung ist also ein Maß für die Entfernung des Gegenstandes 3. Die Phasenlage kann durch beispielsweise in der Nach­ richtentechnik übliche Verfahren detektiert werden (vgl. auch Fractional Triggering- Methode; technische Beschreibung: Techniques for Improved Time Spectroscopy, Firma EG). Die beiden Spalte in Blende 21 bzw. 26 können, zur Steigerung der Lichtintensität auf den Fotodetektoren, als Mehrfachspalte, d. h. also als Gitter aus­ gebildet werden. Die Gitterkonstante sollte dabei etwa dem mittleren Interferenz­ streifenabstand Δx entsprechen. Wiederum müssen beim gedachten Umklappen des Gitters 26 auf das Gitter 21 die beiden Gitter leicht gegeneinander verschoben sein.An alternative embodiment of the image sensor is as follows: In all the described embodiments of the optical system (Figures 1, 6 and 9...) May in one of the two, producing the interference fringe pattern on the image sensor, light beams (e.g., 15 in. Fig. 1, 15 in Fig. 6 and 38 in Fig. 9) a frequency-shifting element bendes be inserted. Fig. 7 illustrates this: the frequency of the incident light beam 15 is changed by the element 24 so that the frequency of the emergent light beam 25 is typically different by a few tens of MHz. As a frequency-shifting element is, for example, a ro animal optical grating or an acousto-optic modulator (so-called. Bragg cell) in question. By this frequency shift .DELTA.f one of the two, falling on the image sensor, light beam is now no longer resting the generated interference fringe pattern, but moves in the direction of the normal to the interference fringe (see. Laser Doppler anemometer with frequency shift). The interference fringe pattern now runs just as fast over the image sensor, that at a fixed point on the image sensor light with exactly the beat frequency .DELTA.f is seen, with the previously the frequency of one of the two falling on the image sensor light beam has been changed (z B. Driver frequency of the Bragg cell). The surface of the image sensor 8 or 35 is now realized in the form of the slit diaphragm 21 , wherein the slit diaphragm should be oriented parallel to the interference fringes. The behind the slit 21 (in Fig. 7) arranged photo detector 23 is designed so large that all falling through the slit 21 light falls on it. The light detected in the detector 23 is now also modulated with the frequency .DELTA.f. However, this frequency is independent of the angle 2 Θ between the light beams 25 and 14th Therefore, the arrangement, as sketched in FIG. 8, is supplemented by the beam splitter 22 (semitransparent mirror) and a second image sensor, consisting of the slit diaphragm 26 and the photodetector behind it. This photodetector now also sees light modulated at the frequency Δf. The slit diaphragm 26 should be arranged so that its image, with an axial reflection at the, on the surface of the beam splitter 22 in the plane extending axis, not exactly on the slit 21 is imaged, but the slit aperture 26 in the direction of the normal to the gap moved parallel to the surface of the element. This shift is preferential chosen so that it corresponds to the integer multiple of the interference fringe distance Δx, at a mean assumed angle 2 Θ between the light beams 14 and 25 . If the distance to the object 3 changes, and thus the angle 2 Θ, this leads to a change in the interference fringe spacing Δx. The two, seen by the two photodetectors signals with the frequency .DELTA.f and the phase angle of z. For example, 360 ° will change their phase relationship. This phase relationship is thus a measure of the distance of the object 3 . The phase position can be detected by, for example, in the direction of the conventional technique (see also Fractional triggering method, technical description: Techniques for Improved Time Spectroscopy, company EG). The two gaps in aperture 21 or 26 can, to increase the light intensity on the photodetectors, as a multiple column, ie formed as a grid. The lattice constant should correspond approximately to the average interference strip spacing Δx. Again, the imaginary folding of the grid 26 on the grid 21, the two grids must be slightly shifted from each other.

Bei allen Anordnungen kann das auf dem Bildsensor erscheinende Interferenz­ streifenmuster, infolge von verzerrter Wellen der erzeugenden Lichtbündel, be­ dingt durch eine Fokussierung des Lichts, durch nichtideale optische Eigen­ schaften der Anordnung, sowie durch vorhandene Oberflächenstrukturen der beleuchteten Oberflächen 4 bzw. 50 geringfügig verzerrt sein, d. h. die einzelnen Abstände zwischen den Interferenzstreifen sind nicht exakt gleich. Um dies zu berücksichtigen, kommen zwei Verfahren in Frage: Kann ein Datenverarbeitungs­ system auf die Daten der Interferenzstreifenverteilung auf dem Bildsensor (wie z. B. im Falle der CCD-Zeile) zugreifen, so kann die Abweichung der das Interferenz­ streifenmuster erzeugenden Wellenfronten von der idealen ebenen Welle rech­ nerisch bestimmt (abgeschätzt) werden und daraus auf den wahren Schnittwinkel 2 Θ zwischen den Lichtbündeln geschlossen werden. Diese Kompensation der Verzerrungen der Interferenzstreifenabstände kann jedoch auch optisch durchge­ führt werden. Dabei muß der Laserstrahl 2 beispielsweise durch rotierende Keil­ platten, akustooptische Deflektoren, rotierende Polygonprismen oder bewegliche Spiegel möglichst schnell, mehr oder weniger weit, vorzugsweise in der Größen­ ordnung des Leuchtflecks 4 bzw. 51 auf der Oberfläche 3 bzw. 50, hin- und herbe­ wegt werden. Dieses "Vibrieren" des Auftreffpunktes 4 bzw. 51 auf der Oberfläche 3 bzw. 50 führt dann bei hinreichend großer Integrationsdauer der Bildsensoren 8, 23, 23′, 35 zu einer Mittelung über eine Vielzahl von Phasenzuständen der auf dem Bildsensor 8, 23, 23′, 35 fallenden Wellen, so daß sich ein von der Ober­ flächenstruktur der beleuchteten Oberfläche 3, 50 unabhängiges Interferenzmuster ergibt. Derselbe Effekt kann in Fig. 9 dadurch erzielt werden, daß die Mattscheibe 30 sich parallel zu ihrer Oberfläche bewegt. Vorzugsweise rotiert die Mattscheibe 30 dabei um die Rotationsachse 30′ hinreichend schnell.In all arrangements, the interference pattern appearing on the image sensor may be slightly distorted due to distorted waves of the generating light bundles due to focusing of the light, non-ideal optical properties of the device, as well as existing surface structures of the illuminated surfaces 4 and 50, respectively , ie the individual distances between the interference fringes are not exactly the same. In order to take this into account, two methods can be used: If a data processing system can access the data of the interference fringe distribution on the image sensor (as in the case of the CCD line), the deviation of the wavefronts generating the interference fringe pattern from the The ideal plane wave can be computationally determined (estimated) and from this the true intersection angle 2 Θ between the light bundles can be deduced. However, this compensation of the distortions of the interference fringe spacings can also be optically Runaway leads. In this case, the laser beam 2 plates, for example, by rotating wedge plates, acousto-optic deflectors, rotating polygon prisms or moving mirror as fast as possible, more or less far, preferably in the size order of the light spot 4 and 51 on the surface 3 and 50 , back and forth be moved. This "vibration" of the impact point 4 or 51 on the surface 3 or 50 then leads to a sufficiently large integration period of the image sensors 8 , 23 , 23 ', 35 to an average over a plurality of phase states of the on the image sensor 8 , 23 , 23rd ', 35 falling waves, so that one of the upper surface structure of the illuminated surface 3 , 50 results in independent interference pattern. The same effect can be achieved in Fig. 9 in that the ground glass 30 moves parallel to its surface. Preferably, the ground glass 30 rotates about the rotation axis 30 'sufficiently fast.

Claims (50)

1. Verfahren zur optischen Abstands- und Geschwindigkeitsanalyse von Ober­ flächen sowie zur Analyse der Abbildungseigenschaften optischer Systeme unter Beaufschlagung des Meßobjekts mit Primärlicht und unter Analyse des Streulichts, dadurch gekennzeichnet, daß aus dem von dem Objekt bzw. optischen System rückgestreuten Licht wenigstens zwei Lichtbündel ab­ geleitet werden, diese vorzugsweise nach gleichen optischen Wegen zum Schnitt gebracht werden und auf einen Bildsensor fallen und aus der Art und/oder Position des entstehenden Interferenzmusters auf den Abstand, die Geschwindigkeit oder die Abbildungseigenschaften des zu vermessenden Objekts bzw. optischen Systems geschlossen wird, wobei vorzugsweise kohärentes Primärlicht verwendet wird.1. A method for optical distance and speed analysis of surfaces and for analyzing the imaging properties of optical systems under exposure of the test object with primary light and analysis of the scattered light, characterized in that from the backscattered from the object or optical system light from at least two light beams are guided, they are preferably brought to the same optical paths to the cut and fall on an image sensor and from the nature and / or position of the resulting interference pattern on the distance, the speed or the imaging properties of the object to be measured or optical system is closed, preferably coherent primary light is used. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die beiden Lichtbündel durch Ausblenden zweier verschiedener Teilbereiche des von dem Objekt bzw. optischen System rückgestreuten Lichts erzeugt werden.2. The method according to claim 1, characterized in that the two Light bundle by hiding two different subregions of the be generated backscattered light to the object or optical system. 3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß zur Erzeugung der beiden Lichtbündel aus dem von dem Objekt bzw. optischen System rückgestreuten Licht ein Strahlteiler verwendet wird.3. The method according to claim 1, characterized in that for the production of the two light beams from that of the object or optical system backscattered light a beam splitter is used. 4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß ein Teil des von dem Objekt bzw. optischen System rückgestreuten Lichts auf eine Streuscheibe abgebildet wird.4. The method according to claim 1, characterized in that a part of from the object or optical system backscattered light on a Lens is shown. 5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß die beiden Lichtbündel unter Verwendung des aus der Streuscheibe austretenden Lichts und eines Strahlteilers erzeugt werden.5. The method according to claim 4, characterized in that the two Light beam using the emerging from the lens Light and a beam splitter can be generated. 6. Verfahren nach einem der Ansprüche 2, 3 oder 5, dadurch gekenn­ zeichnet, daß die beiden Lichtbündel durch eine Linse auf einem Bild­ sensor zum Schnitt gebracht werden.6. The method according to any one of claims 2, 3 or 5, characterized records that the two light bundles through a lens on a picture sensor to be cut. 7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß das auf dem Bildsensor entstehende Interferenzmuster Streifen aufweist und in bezug auf seinen Streifenabstand ausgewertet wird. 7. The method according to claim 6, characterized in that the on the Image sensor resulting interference pattern strips and with respect is evaluated on its strip spacing.   8. Verfahren nach einem der Ansprüche 2,3 oder 5, dadurch gekennzeichnet, daß die Ortskurve der sich schneidenden Lichtbündel eine Gerade ist und der Bildsensor gerade oder eben sein kann.8. The method according to any one of claims 2,3 or 5, characterized that the locus of the intersecting light beam is a straight line and the image sensor can be straight or even. 9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß sowohl das von der Primärlichtquelle ausgehende Licht als auch das rückgestreute Licht ein Linsensystem durchdringt wobei das Linsensystem zusammen mit der das Licht streuenden Oberfläche als ein optisches System betrachtet wird.9. The method according to any one of claims 1 to 8, characterized that both the outgoing light from the primary light source and the backscattered light penetrates a lens system being the lens system together with the light-scattering surface as an optical one System is considered. 10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß es sich bei dem optischen System um ein menschliches oder tierisches Auge handelt.10. The method according to claim 9, characterized in that it is at the optical system is a human or animal eye. 11. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, daß aus dem Interferenzstreifenmuster auf dem Bildsensor das Verhältnis der Brennweite des im optischen System vorhandenen Linsensystems in bezug zu dem Abstand des Linsensystems zu der lichtstreuenden Oberfläche ermittelt wird.11. The method according to claim 9 or 10, characterized in that from the interference fringe pattern on the image sensor the ratio of Focal length of the existing lens system in the optical system with respect to the distance of the lens system to the light scattering surface is determined. 12. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, daß dem optischen System ein korrigierendes Linsensystem mit variabler Brennweite vorangestellt wird und dessen Brennweite, gesteuert durch die mit dem Bild­ sensor erfaßten Daten des Interferenzmusters, solange geändert wird, bis sich die gewünschten Abbildungseigenschaften des Gesamtsystems - vor­ angestelltes Linsensystem plus optisches System - eingestellt haben.12. The method according to claim 9 or 10, characterized in that the optical system a corrective lens system with variable focal length is preceded and its focal length, controlled by the with the picture Sensor detected data of the interference pattern, as long as is changed until the desired imaging properties of the overall system - before hired lens system plus optical system - have set. 13. Verfahren nach Anspruch 11 oder 12, dadurch gekennzeichnet, daß die Orientierung der Lichtstrahlen bezüglich dem zu vermessenden optischen System verändert wird, so daß Astigmatismusfehler sowie Linsenfehler höherer Ordnung ermittelt werden können.13. The method according to claim 11 or 12, characterized in that the Orientation of the light rays with respect to the optical to be measured System is changed so that astigmatism errors as well as lens errors higher order can be determined. 14. Verfahren nach Anspruch 10 und 11 oder Anspruch 10 und 12, dadurch gekennzeichnet, daß dem Auge, neben dem zur Vermessung desselben notwendigen Primärlichts, ein in einstellbarer Entfernung gelegenes Bild eingespiegelt wird, damit die im Auge vorhandene Linse sich in einem definierten Zustand befindet. 14. The method according to claim 10 and 11 or claim 10 and 12, characterized characterized in that the eye, in addition to measuring the same necessary primary light, an image located at an adjustable distance is mirrored so that the existing in the eye lens in one defined state is located.   15. Verfahren nach Anspruch 14, dadurch gekennzeichnet, daß das einge­ spiegelte Bild nicht denselben Farbanteil wie das Primärlicht besitzt und vor dem Bildsensor ein Farbfilter angebracht wird, so daß das eingespiegelte Bild das Interferenzmuster vor dem Bildsensor nicht beeinflußt.15. The method according to claim 14, characterized in that the turned mirrored image does not have the same color content as the primary light and in front of the image sensor, a color filter is attached, so that the image does not mirror the interference pattern in front of the image sensor affected. 16. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, daß als Bildsensor eine Vielzahl von, in einer Reihe oder als Matrix an­ geordneten, Fotodetektoren verwendet werden, vorzugsweise wird eine CCD-Zeilen- oder Matrixkamera eingesetzt.16. The method according to any one of claims 1 to 15, characterized that as an image sensor a plurality of, in a row or as a matrix ordered, photodetectors are used, preferably one CCD line or matrix camera used. 17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, daß aus dem Streifenabstand des auf dem Bildsensor entstehenden Interferenz­ streifenmusters die Entfernung der mit Primärlicht beaufschlagten Ober­ fläche abgeleitet wird.17. The method according to claim 16, characterized in that from the Strip spacing of the interference on the image sensor stripe pattern the distance of the primary light applied upper surface is derived. 18. Verfahren nach einem der Ansprüche 1 bis 15, dadurch gekennzeichnet, daß in wenigstens eines der beiden, auf den Bildsensor treffenden Licht­ bündel ein Element zur Frequenzverschiebung des Lichts eingebracht wird.18. The method according to any one of claims 1 to 15, characterized that in at least one of the two incident on the image sensor light Bundle is introduced an element for frequency shift of the light. 19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, daß als Bildsensor ein optischer Doppelspalt verwendet wird, dessen Spaltabstand vorzugs­ weise dem zu erwartenden mittleren Interferenzstreifenabstand entspricht, wobei hinter jedem der beiden Spalte ein Fotodetektor angebracht wird.19. The method according to claim 18, characterized in that as an image sensor an optical double slit is used whose gap spacing is preferred corresponds to the expected mean interference fringe spacing, wherein behind each of the two columns, a photodetector is attached. 20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, daß die beiden Spalte, durch die Verwendung eines Strahlteilers, nicht räumlich eng bei­ einander angebracht werden müssen.20. The method according to claim 19, characterized in that the two Column, by using a beam splitter, not spatially close must be attached to each other. 21. Verfahren nach Anspruch 19 oder 20, dadurch gekennzeichnet, daß an­ stelle zweier Spalte zwei symmetrisch an deren Stelle angeordnete optische Gitter verwendet werden. 21. The method according to claim 19 or 20, characterized in that on Place two column two symmetrically arranged in their place optical Grid to be used.   22. Verfahren nach einem der Ansprüche 19 bis 21, dadurch gekennzeichnet, daß die Phasenbeziehung der von den beiden Fotodetektoren bestimmten Lichtintensitäten erfaßt und als Maß für die Entfernung der Oberfläche bzw. als Maß für die Abbildungseigenschaften eines optischen Systems ver­ wendet wird.22. The method according to any one of claims 19 to 21, characterized that the phase relationship determined by the two photodetectors Captured light intensities and as a measure of the removal of the surface or as a measure of the imaging properties of an optical system ver is used. 23. Verfahren nach einem der Ansprüche 1 bis 22, dadurch gekennzeichnet, daß Abweichungen der Wellenfronten von der Idealform der auf den Bild­ sensor fallenden Lichtbündel rechnerisch aus der Verformung der Interfe­ renzstreifen im nachhinein bestimmt werden.23. The method according to any one of claims 1 to 22, characterized that deviations of the wavefronts from the ideal shape of the picture sensor falling light beam calculated from the deformation of the interfe be determined in hindsight. 24. Verfahren nach einem der Ansprüche 1 bis 22, dadurch gekennzeichnet, daß Fehler im Interferenzstreifenmuster auf dem Bildsensor dadurch kom­ pensiert werden, daß das Primärlicht oder aber das Primärlicht zusammen mit dem rückgestreuten Licht geringfügig abgelenkt wird.24. The method according to any one of claims 1 to 22, characterized that errors in the interference fringe pattern on the image sensor thereby kom be pensiert that the primary light or the primary light together is slightly deflected with the backscattered light. 25. Verfahren nach einem der Ansprüche 1 bis 24, dadurch gekennzeichnet, daß die Geschwindigkeit einer sich bewegenden Oberfläche aus der Folge von Entfernungsmeßwerten berechnet wird.25. The method according to any one of claims 1 to 24, characterized that the speed of a moving surface out of the sequence is calculated from distance measurements. 26. Anordnung zur optischen Abstands- und Geschwindigkeitsanalyse von Oberflächen sowie zur Analyse der Abbildungseigenschaften optischer Systeme unter Beaufschlagung des Meßobjekts mit Primärlicht und unter Analyse des Streulichts, dadurch gekennzeichnet, daß das von der Lichtquelle (1) ausgesandte, vorzugsweise kohärente Primärlicht (2) ent­ weder direkt oder nach Durchdringen eines Linsensystems (46, 48) auf eine Oberfläche eines Gegenstands (3, 50) trifft, dort einen Leuchtfleck (4, 51) erzeugt, aus dessen Licht (11) wenigstens zwei Lichtbündel erzeugt werden, die dann nach vorzugsweise gleichen optischen Wegen zum Schnitt ge­ bracht werden, wodurch ein Interferenzmuster (13) auf einem Bildsensor (8, 35) entsteht und anhand der Art und/oder Position dieses Interferenz­ musters der Abstand des Gegenstandes (3), dessen Geschwindigkeit oder die Abbildungseigenschaften des Linsensystems (46, 48) in bezug auf die Oberfläche des Gegenstandes (50) ermittelt wird. 26. Arrangement for the optical distance and velocity analysis of surfaces and for analyzing the imaging properties of optical systems by exposing the test object to primary light and analyzing the scattered light, characterized in that emitted by the light source ( 1 ), preferably coherent primary light ( 2 ) ent neither directly nor after penetrating a lens system ( 46 , 48 ) on a surface of an object ( 3 , 50 ), there generates a light spot ( 4 , 51 ), from the light ( 11 ) at least two light beams are generated, which then preferably the same optical paths to the section ge introduced, whereby an interference pattern ( 13 ) on an image sensor ( 8 , 35 ) is formed and based on the nature and / or position of this interference pattern, the distance of the object ( 3 ), its speed or the imaging properties of the lens system ( 46 , 48 ) with respect to the surface of the article ( 50 ) t will. 27. Anordnung nach Anspruch 26, dadurch gekennzeichnet, daß die beiden Lichtbündel (14 und 15) durch Anbringen einer Blende (6) mit zwei Öff­ nungen und unter Verwendung einer Linse (7) aus dem Streulicht (11) er­ zeugt werden.27. Arrangement according to claim 26, characterized in that the two light bundles ( 14 and 15 ) by attaching a diaphragm ( 6 ) openings with two Publ and using a lens ( 7 ) from the scattered light ( 11 ) he testifies. 28. Anordnung nach Anspruch 26, dadurch gekennzeichnet, daß zur Erzeu­ gung der beiden Lichtbündel (14 und 15) ein Strahlteiler (19) verwendet wird.28. Arrangement according to claim 26, characterized in that for the generation of the two light bundles ( 14 and 15 ), a beam splitter ( 19 ) is used. 29. Anordnung nach Anspruch 28, dadurch gekennzeichnet, daß der Strahl­ teiler (19) so angeordnet ist, daß der Leuchtfleck (4, 51) bei variierender Entfernung des Gegenstandes (3) direkt oder bei variierendem Abbildungs­ maßstab des Linsensystems (46, 48) bezüglich des Gegenstandes (50), nach Durchdringen des Linsensystems (46, 48), durch die Linse (17) in Form eines Lichtbündels (18) scharf auf den Strahlteiler (19) abgebildet wird.29. The arrangement according to claim 28, characterized in that the beam splitter ( 19 ) is arranged so that the light spot ( 4 , 51 ) with varying distance of the object ( 3 ) directly or with varying imaging scale of the lens system ( 46 , 48 ) with respect to the article ( 50 ), after penetrating the lens system ( 46 , 48 ), through which the lens ( 17 ) in the form of a light beam ( 18 ) is sharply imaged onto the beam splitter ( 19 ). 30. Anordnung nach Anspruch 29, dadurch gekennzeichnet, daß die Licht­ bündel (14 und 15) aus den beiden von dem Strahlteiler (19) ausgehenden Lichtbündeln unter Verwendung einer, hinter dem Strahlteiler (19) angeord­ neten Linse (20) hervorgehen.30. An arrangement according to claim 29, characterized in that the light bundles ( 14 and 15 ) from the two of the beam splitter ( 19 ) outgoing light beams using a, behind the beam splitter ( 19 ) angeord Neten lens ( 20 ) emerge. 31. Anordnung nach Anspruch 27 oder 30, dadurch gekennzeichnet, daß der Bildsensor (8) entlang der Ortskurve des Schnittpunktes, bei variierender Entfernung des Gegenstandes (3) oder bei variierendem Abbildungsmaß­ stab des Linsensystems (46, 48) bezüglich des Gegenstandes (50) der beiden Lichtbündel (14 und 15) angeordnet wird.31. Arrangement according to claim 27 or 30, characterized in that the image sensor ( 8 ) along the locus of the intersection, with varying distance of the object ( 3 ) or with varying Abbildungsmaß stab of the lens system ( 46 , 48 ) with respect to the object ( 50 ). the two light beams ( 14 and 15 ) is arranged. 32. Anordnung nach Anspruch 26, dadurch gekennzeichnet, daß ein Teil des von dem Leuchtfleck (4, 51) ausgehenden Streulichts nach Durchdringen der Blende (27) und der Linse (28) auf eine Streuscheibe (30) fällt. 32. Arrangement according to claim 26, characterized in that a part of the light spot ( 4 , 51 ) outgoing scattered light after penetrating the diaphragm ( 27 ) and the lens ( 28 ) on a lens ( 30 ) falls. 33. Anordnung nach Anspruch 32, dadurch gekennzeichnet, daß das von der Streuscheibe (30) ausgehende Licht auf einen Strahlteiler (31) fällt, die davon ausgehenden Lichtbündel durch zwei dahinter angeordnete Spiegel (33 und 34) sowie die angebrachte Linse (32) abgelenkt werden und die daraus hervorgehenden Lichtbündel (37 und 38) auf den Bildsensor (35) auftreffen, dort überlappen und der Abstand c der Linse (32) zu dem Bild­ sensor (35) vorzugsweise gemäß der Beziehung gewählt wird, wobei f die Brennweite der Linse (32), b den optischen Ab­ stand zwischen Linse (32) und Streuscheibe (39) und a den optischen Ab­ stand zwischen Streuscheibe (30) und der Linse (28) bedeutet.33. Arrangement according to claim 32, characterized in that the light emerging from the lens ( 30 ) on a beam splitter ( 31 ) falls, the light beam emanating therefrom deflected by two arranged behind mirror ( 33 and 34 ) and the attached lens ( 32 ) are and the resulting light beams ( 37 and 38 ) impinge on the image sensor ( 35 ), there overlap and the distance c of the lens ( 32 ) to the image sensor ( 35 ) preferably in accordance with the relationship is chosen, where f is the focal length of the lens ( 32 ), b the optical Ab stood between lens ( 32 ) and lens ( 39 ) and a the optical Ab stood between diffuser ( 30 ) and the lens ( 28 ) means. 34. Anordnung nach einem der Ansprüche 26 bis 33, dadurch gekenn­ zeichnet, daß das auf dem Bildsensor (8, 35) entstehende Interferenz­ muster Streifen aufweist und in bezug auf seinen Streifenabstand ausge­ wertet wird.34. Arrangement according to one of claims 26 to 33, characterized in that the on the image sensor ( 8 , 35 ) resulting interference pattern has stripes and is evaluated with respect to its strip spacing. 35. Anordnung nach einem der Ansprüche 26 bis 34, dadurch gekenn­ zeichnet, daß es sich bei dem optischen System, gebildet aus einem Linsensystem (46, 48) und einer Oberfläche eines Gegenstands (50), um ein menschliches oder tierisches Auge handelt, wobei der Gegenstand (50) die Netzhaut (Augenhintergrund) darstellt.35. Arrangement according to one of claims 26 to 34, characterized in that it is the optical system formed by a lens system ( 46 , 48 ) and a surface of an object ( 50 ) is a human or animal eye, wherein the object ( 50 ) represents the retina (fundus). 36. Anordnung nach einem der Ansprüche 26 bis 35, dadurch gekenn­ zeichnet, daß aus dem auf dem Bildsensor (8,35) vorliegenden Interferenz­ streifenmuster (13) das Verhältnis der Brennweite des im optischen System vorhandenen Linsensystems (46, 48) in bezug zu dem Abstand des Linsen­ systems zu dem Gegenstand (50) bestimmt wird. 36. Arrangement according to one of claims 26 to 35, characterized in that from the present on the image sensor ( 8,35 ) interference fringe pattern ( 13 ), the ratio of the focal length of the lens system present in the optical system ( 46 , 48 ) with respect to the distance of the lens system to the object ( 50 ) is determined. 37. Anordnung nach einem der Ansprüche 26 bis 35, dadurch gekenn­ zeichnet, daß dem Linsensystem (46, 48) ein korrigierendes Linsensystem mit variabler Brennweite, vorzugsweise zwischen dem Strahlteiler (55) und dem Linsensystem (46, 48), vorangestellt wird und dessen Brennweite, ge­ steuert durch die mit dem Bildsensor (8, 35) erfaßten Daten des Interferenz­ musters, solange verändert wird, bis sich die gewünschten Eigenschaften des Gesamtsystems, bestehend aus dem vorangestellten Linsensystem zusammen mit dem vorhandenen Linsensystem (46, 48) einstellen.37. Arrangement according to one of claims 26 to 35, characterized in that the lens system ( 46 , 48 ) is preceded by a correcting lens system with variable focal length, preferably between the beam splitter ( 55 ) and the lens system ( 46 , 48 ), and its Focal length, ge controls by the with the image sensor ( 8 , 35 ) detected data of the interference pattern, as long as changed until the desired properties of the overall system, consisting of the preceding lens system together with the existing lens system ( 46 , 48 ) set. 38. Anordnung nach Anspruch 36 oder 37, dadurch gekennzeichnet, daß alle zum Meßsystem gehörenden Teile drehbar, um eine durch den Leuchtfleck (51) parallel zum Laserstrahl (2) verlaufende Achse, angeordnet sind.38. Arrangement according to claim 36 or 37, characterized in that all parts belonging to the measuring system are rotatable to a through the light spot ( 51 ) parallel to the laser beam ( 2 ) extending axis, are arranged. 39. Anordnung nach einem der Ansprüche 35 bis 38, dadurch gekenn­ zeichnet, daß dem Auge neben dem zur Messung notwendigen Primärlicht (2) ein zusätzliches Bild eingeblendet wird.39. Arrangement according to one of claims 35 to 38, characterized in that the eye in addition to the primary light necessary for the measurement ( 2 ) an additional image is superimposed. 40. Anordnung nach Anspruch 39, dadurch gekennzeichnet, daß das Bild (57) durch eine Linse (56) und einen Spiegel oder Strahlteiler (55) in das Auge abgebildet wird, wobei vorzugsweise die scheinbare Entfernung durch Va­ riation des Abstandes zwischen Bild (57) und Linse (56) einstellbar ist.40. Arrangement according to claim 39, characterized in that the image ( 57 ) by a lens ( 56 ) and a mirror or beam splitter ( 55 ) is imaged into the eye, wherein preferably the apparent distance by Va riation of the distance between image ( 57 ) and lens ( 56 ) is adjustable. 41. Anordnung nach Anspruch 39 oder 40, dadurch gekennzeichnet, daß das eingeblendete Bild (57) nicht denselben Farbanteil wie das Primärlicht (2) besitzt und zwischen dem Spiegel oder Strahlteiler (55) und dem Bildsensor (8, 35) ein Farbfilter angebracht wird, das nur Licht mit der Farbe des Pri­ märlichts (2) durchläßt.41. Arrangement according to claim 39 or 40, characterized in that the superimposed image ( 57 ) does not have the same color content as the primary light ( 2 ) and between the mirror or beam splitter ( 55 ) and the image sensor ( 8 , 35 ) a color filter is attached which transmits only light with the color of the primary light ( 2 ). 42. Anordnung nach einem der Ansprüche 26 bis 41, dadurch gekenn­ zeichnet, daß als Bildsensor (8, 35) eine Vielzahl von, in einer Reihe oder als Matrix angeordneten, Fotodetektoren, vorzugsweise in Form einer CCD- Zeilen- oder Matrixkamera, angebracht werden.42. Arrangement according to one of claims 26 to 41, characterized in that as the image sensor ( 8 , 35 ) a plurality of, arranged in a row or as a matrix, photodetectors, preferably in the form of a CCD line or matrix camera attached , 43. Anordnung nach Anspruch 42, dadurch gekennzeichnet, daß aus dem Streifenabstand des auf dem Bildsensor entstehenden Interferenzstreifen­ musters (13) die Entfernung der mit Primärlicht (2) beaufschlagten Ober­ fläche (3, 50) ermittelt wird. 43. Arrangement according to claim 42, characterized in that from the strip spacing of the resulting on the image sensor interference fringe pattern ( 13 ), the removal of the primary light ( 2 ) acted upon upper surface ( 3 , 50 ) is determined. 44. Anordnung nach einem der Ansprüche 26 bis 41, dadurch gekenn­ zeichnet, daß in wenigstens eines der beiden auf den Bildsensor (8, 35) fallenden Lichtbündel (14, 15 bzw. 37, 38) ein frequenzverschiebendes Element, vorzugsweise ausgebildet als rotierendes Gitter oder als Bragg- Zelle, eingebracht wird, beide daraus resultierenden Lichtbündel (14, 25) unter Verwendung eines Strahlteilers (22) in je zwei Lichtbündel aufgespal­ tet werden und die jeweiligen Paare auf zwei Spaltblenden (21, 26), deren Spalte vorzugsweise als optische Gitter ausgebildet sind, auftreffen, hinter denen integrierend erfassende Fotodetektoren angebracht sind.44. Arrangement according to one of claims 26 to 41, characterized in that in at least one of the two on the image sensor ( 8 , 35 ) falling light beam ( 14 , 15 or 37 , 38 ) a frequency-shifting element, preferably designed as a rotating grid or Bragg cell is introduced, both resulting light beams ( 14 , 25 ) using a beam splitter ( 22 ) in two light bundles aufgespal be split and the respective pairs on two slit diaphragms ( 21 , 26 ), preferably their column as optical Grids are formed, impinge, behind which integrating detecting photodetectors are attached. 45. Anordnung nach Anspruch 44, dadurch gekennzeichnet, daß die beiden Blenden (21, 26) geringfügig, vorzugsweise um ein ganzzahliges Vielfaches des mittleren, auf den Bildsensor projizierten Streifenabstand der Inter­ ferenzstreifen (13), gegeneinander, in der Ebene der Blenden (21, 26), vorzugsweise senkrecht zu den Spalten, verschoben angeordnet sind.45. Arrangement according to claim 44, characterized in that the two diaphragms ( 21 , 26 ) marginally, preferably by an integer multiple of the average, on the image sensor projected fringe spacing of Inter ference strip ( 13 ), against each other, in the plane of the aperture ( 21 , 26 ), preferably perpendicular to the columns, are arranged displaced. 46. Anordnung nach Anspruch 44 oder 45, dadurch gekennzeichnet, daß die Phasenbeziehung der von den beiden, hinter den Spaltblenden oder Gittern (21, 26) angebrachten, Fotodetektoren erfaßten Lichtintensitäten als Maß für die Entfernung des Gegenstandes (3) bzw. als Maß für die Abbildungs­ eigenschaften des optischen Systems (46, 48 zusammen mit 50) verwendet wird.46. Arrangement according to claim 44 or 45, characterized in that the phase relationship of the two, behind the slit screens or grids ( 21 , 26 ) mounted, photodetectors detected light intensities as a measure of the distance of the object ( 3 ) or as a measure of the imaging properties of the optical system ( 46 , 48 together with 50 ) is used. 47. Anordnung nach einem der Ansprüche 26 bis 46, dadurch gekenn­ zeichnet, daß das Interferenzmuster in einem symmetrischen Bereich um die Symmetrieachse (36) der beiden auf den Bildsensor (35) fallenden Licht­ bündel (37, 38) bzw. der Symmetrieachse der Lichtbündel (14,15), definiert als deren Winkelhalbierenden, ausgewertet wird.47. Arrangement according to one of claims 26 to 46, characterized in that the interference pattern in a symmetrical region about the axis of symmetry ( 36 ) of the two on the image sensor ( 35 ) falling light bundle ( 37 , 38 ) and the axis of symmetry of the light beam ( 14,15 ), defined as its bisector, is evaluated. 48. Anordnung nach einem der Ansprüche 26 bis 47, dadurch gekenn­ zeichnet, daß Abweichungen der Wellenfronten der auf den Bildsensor (8, 35) fallenden Lichtbündel (14, 15, 25, 37, 38) von der Idealform rech­ nerisch aus der Verformung der Interferenzstreifen im nachhinein bestimmt werden. 48. Arrangement according to one of claims 26 to 47, characterized in that deviations of the wavefronts of the image sensor ( 8 , 35 ) falling light beam ( 14 , 15 , 25 , 37 , 38 ) of the ideal form computationally from the deformation of Interference fringes can be determined afterwards. 49. Anordnung nach einem der Ansprüche 26 bis 47, dadurch gekenn­ zeichnet, daß Fehler im Interferenzstreifenmuster dadurch kompensiert werden, daß das Primärlicht (2) oder aber das Primärlicht (2) zusammen mit dem rückgestreuten Licht durch Einbringen eines optischen Elements, vor­ zugsweise einer rotierenden Keilplatte, in den Strahlengang des Primär­ lichts (2) oder in den Strahlengang des Primärlichts (2) und Strahlengang des rückgestreuten Lichts, geringfügig abgelenkt werden.49. Arrangement according to one of claims 26 to 47, characterized in that errors in the interference fringe pattern are compensated by the fact that the primary light ( 2 ) or the primary light ( 2 ) together with the backscattered light by introducing an optical element, preferably before a rotating wedge plate, in the beam path of the primary light ( 2 ) or in the beam path of the primary light ( 2 ) and beam path of the backscattered light, are slightly deflected. 50. Anordnung nach einem der Ansprüche 26 bis 47, dadurch gekenn­ zeichnet, daß Fehler im Interferenzstreifenmuster dadurch kompensiert werden, daß die Streuscheibe (30) vorzugsweise um die Achse (30′) rotierend, bewegt wird.50. Arrangement according to one of claims 26 to 47, characterized in that errors in the interference fringe pattern are compensated by the fact that the lens ( 30 ) is preferably rotated about the axis ( 30 ').
DE19934344076 1993-12-23 1993-12-23 Optical determination of object distance, velocity and image quality Withdrawn DE4344076A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19934344076 DE4344076A1 (en) 1993-12-23 1993-12-23 Optical determination of object distance, velocity and image quality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19934344076 DE4344076A1 (en) 1993-12-23 1993-12-23 Optical determination of object distance, velocity and image quality

Publications (1)

Publication Number Publication Date
DE4344076A1 true DE4344076A1 (en) 1995-06-29

Family

ID=6505930

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19934344076 Withdrawn DE4344076A1 (en) 1993-12-23 1993-12-23 Optical determination of object distance, velocity and image quality

Country Status (1)

Country Link
DE (1) DE4344076A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2757953A1 (en) * 1996-12-26 1998-07-03 Nec Corp Line of Sight Speed Measurement Apparatus for Moving Objects
DE10326516B3 (en) * 2003-06-10 2005-02-03 Institut für Physikalische Hochtechnologie e.V. Fiber grating sensor system
CN110763144A (en) * 2019-11-06 2020-02-07 中铁隧道局集团有限公司 Measuring device and method for rapidly measuring inner diameter size deviation of shield segment tunnel

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2757953A1 (en) * 1996-12-26 1998-07-03 Nec Corp Line of Sight Speed Measurement Apparatus for Moving Objects
DE10326516B3 (en) * 2003-06-10 2005-02-03 Institut für Physikalische Hochtechnologie e.V. Fiber grating sensor system
CN110763144A (en) * 2019-11-06 2020-02-07 中铁隧道局集团有限公司 Measuring device and method for rapidly measuring inner diameter size deviation of shield segment tunnel

Similar Documents

Publication Publication Date Title
EP1984770B1 (en) Method and arrangement for a rapid and robust chromatic confocal 3d measurement technique
DE3886893T2 (en) Device for three-dimensional measurement of a shape.
DE69612844T2 (en) Wavefront determination with micromirror for self-reference and its adjustment
DE69029723T2 (en) METHOD FOR DETERMINING THE SIZE AND SPEED OF SPHERICAL PARTICLES USING THE PHASE AND INTENSITY OF LIGHT DISTRIBUTED
EP1358839B1 (en) Apparatus and method for determining geometric measured values for an eye
DE10392881B4 (en) Frequency-scanning interferometer with diffuse-reflecting reference surface
EP1805480A2 (en) Method and device for detecting the contour data and/or optical characteristics of a three-dimensional semi-transparent object
WO1999041568A9 (en) Laser scanner measurement system
DE102004037137A1 (en) Object`s distance measurement method, involves providing electrical reference signal to time-of-flight unit, mixing electromagnetic radiation falling on unit with reference signal and detecting delay time between signal and radiation
DE2354141C2 (en) Optical measuring method for examining surfaces and device for carrying out the method
DE4211875A1 (en) Optical rangefinder with electronic correction for spot eccentricity - evaluates measurement error due to e.g. inclination of object surface in terms of spot displacement at second photodetector.
DE19911671A1 (en) Narrow band module inspection apparatus e.g. for excimer laser
EP3924764A1 (en) Optical measurement device and multiple mirror
EP1636544B1 (en) Optical inclinometer
DE102015016240B3 (en) Transparent measuring probe for beam scanning
EP0610374B1 (en) Process for measuring the inclination of boundary areas in an optical system
DE102006031822B3 (en) Optical interference pattern intensity distribution electronic scanning method, involves inferring incident beam running in direction of adjacent diffraction array by optical grid and another incident beam, which is not influenced by grid
EP1314953A2 (en) Interferometer and interferometric measuring procedure
DE3789901T2 (en) DISTANCE MEASUREMENT BY DIFFERENTIATION.
DE4344076A1 (en) Optical determination of object distance, velocity and image quality
DE60101335T2 (en) DEVICE FOR OPTO-ELECTRONIC MEASUREMENT OF A THREE-DIMENSIONAL SHAPE
DE19545369C1 (en) Surface distance and contour measurement by triangulation
DE3924290C2 (en)
DE3815474A1 (en) METHOD AND DEVICE FOR MEASURING THE FLOW RATE, ESPECIALLY IN A WIND TUNNEL
DE3114355A1 (en) Optical arrangement for measuring the vibrations of an object having a reflecting surface

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee