DE4344076A1 - Optical determination of object distance, velocity and image quality - Google Patents
Optical determination of object distance, velocity and image qualityInfo
- Publication number
- DE4344076A1 DE4344076A1 DE19934344076 DE4344076A DE4344076A1 DE 4344076 A1 DE4344076 A1 DE 4344076A1 DE 19934344076 DE19934344076 DE 19934344076 DE 4344076 A DE4344076 A DE 4344076A DE 4344076 A1 DE4344076 A1 DE 4344076A1
- Authority
- DE
- Germany
- Prior art keywords
- light
- lens
- image sensor
- distance
- arrangement according
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 claims abstract description 51
- 238000003384 imaging method Methods 0.000 claims abstract description 27
- 238000004458 analytical method Methods 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims abstract description 7
- 210000001525 retina Anatomy 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 12
- 238000012360 testing method Methods 0.000 claims description 8
- 241001465754 Metazoa Species 0.000 claims description 5
- 201000009310 astigmatism Diseases 0.000 claims description 3
- 230000000149 penetrating effect Effects 0.000 claims 3
- 238000000149 argon plasma sintering Methods 0.000 claims 2
- 230000001427 coherent effect Effects 0.000 claims 2
- 238000004519 manufacturing process Methods 0.000 claims 1
- 239000006185 dispersion Substances 0.000 abstract 1
- 239000005337 ground glass Substances 0.000 description 13
- 230000001419 dependent effect Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000035559 beat frequency Effects 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- ZBMRKNMTMPPMMK-UHFFFAOYSA-N 2-amino-4-[hydroxy(methyl)phosphoryl]butanoic acid;azane Chemical compound [NH4+].CP(O)(=O)CCC(N)C([O-])=O ZBMRKNMTMPPMMK-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- VVNCNSJFMMFHPL-VKHMYHEASA-N D-penicillamine Chemical compound CC(C)(S)[C@@H](N)C(O)=O VVNCNSJFMMFHPL-VKHMYHEASA-N 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 229910052729 chemical element Inorganic materials 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 229940075911 depen Drugs 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011143 downstream manufacturing Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- CATMPQFFVNKDEY-AAEUAGOBSA-N gamma-Glu-Trp Chemical compound C1=CC=C2C(C[C@H](NC(=O)CC[C@H](N)C(O)=O)C(O)=O)=CNC2=C1 CATMPQFFVNKDEY-AAEUAGOBSA-N 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 229920000136 polysorbate Polymers 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
- G01M11/0228—Testing optical properties by measuring refractive power
- G01M11/0235—Testing optical properties by measuring refractive power by measuring multiple properties of lenses, automatic lens meters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
- A61B3/04—Trial frames; Sets of lenses for use therewith
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/103—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
- A61B3/145—Arrangements specially adapted for eye photography by video means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
- G01M11/0228—Testing optical properties by measuring refractive power
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01M—TESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
- G01M11/00—Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
- G01M11/02—Testing optical properties
- G01M11/0285—Testing optical properties by measuring material or chromatic transmission properties
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P3/00—Measuring linear or angular speed; Measuring differences of linear or angular speeds
- G01P3/36—Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
- G01P3/366—Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light by using diffraction of light
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Ophthalmology & Optometry (AREA)
- Analytical Chemistry (AREA)
- Biomedical Technology (AREA)
- Chemical & Material Sciences (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Electromagnetism (AREA)
- Power Engineering (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
Die Erfindung betrifft ein Verfahren sowie eine Anordnung zur optischen Abstands- und Geschwindigkeitsanalyse von Oberflächen und zur Analyse der Abbildungs eigenschaften optischer Systeme mittels Laserstrahlen, wonach ein Laserstrahl entweder direkt oder mittels eines Abbildungssystems auf eine Oberfläche gerich tet wird und aus der räumlichen Lage bzw. Verschiebung des Auftreffpunktes auf dieser bedingt durch eine Verschiebung der Oberfläche hin zum Sensor bzw. eine Verschiebung des Sensors hin zur Oberfläche bzw. durch eine Änderung der Ab bildungseigenschaften des optischen Systems daraus der Abstand bzw. die Ab standsänderung (Differenzgeschwindigkeit) bzw. die Änderung des Abbildungs verhältnisses zwischen Oberfläche und Sensor bestimmt wird.The invention relates to a method and an arrangement for optical distance and velocity analysis of surfaces and analysis of the image properties of optical systems by means of laser beams, after which a laser beam either directly or by means of an imaging system on a surface court tet and from the spatial position or displacement of the impact point on this is due to a shift of the surface towards the sensor or a Displacement of the sensor towards the surface or by a change of the Ab bildungsseigenschaften of the optical system from the distance or the Ab state change (differential speed) or the change of the image ratio between surface and sensor is determined.
Zur optischen Abstands- bzw. Abstandsänderungsanalyse ist bekannt, Laufzeit messungen oder Messungen nach dem sogenannten Triangulationsverfahren durchzuführen. Ferner existieren Lasermeßsysteme mit frequenzmodulierten La sern. Bei Laufzeitmessungen wird in der Regel ein sehr kurzer Laserpuls ausge sendet, und dann diejenige Zeit bestimmt, welche der Lichtpuls benötigt, um die Strecke zwischen Sensor und Oberfläche hin- und zurückzulegen. Mit dieser Me thode ist es möglich, vor allem bei großen Abständen und wenn über viele Einzel messungen statistisch gemittelt werden kann, wobei der hierfür notwendige appa rative Aufwand beträchtlich ist, recht genau zu messen. Solche Aufbauten sind allerdings sehr aufwendig, empfindlich, müssen regelmäßig kalibriert bzw. justiert werden und sind hiermit auch sehr teuer.For the optical distance or distance change analysis is known, running time Measurements or measurements according to the so-called triangulation method perform. Furthermore, laser measuring systems with frequency-modulated La exist fibers. In runtime measurements, a very short laser pulse is usually emitted sends, and then determines the time which the light pulse needed to the Distance between sensor and surface back and forth. With this me It is possible, especially at long distances and when many individual measurements can be averaged statistically, with the necessary appa considerable effort is quite accurate. Such constructions are However, very expensive, sensitive, must be calibrated or adjusted regularly are and are very expensive.
Das Triangulationsverfahren ist für kleine Abstände und bei kleinen Abstandsän derungen relativ einfach bei zufriedenstellender Genauigkeit. Für große Abstände und vor allem bei großen Abstandsänderungen müssen bei diesem Sensor jedoch immer Linsen oder sonstige optische Komponenten bewegt werden, um eine hohe Genauigkeit zu erreichen. Eine statistische Mittelung über viele Einzelereignisse ist nur bedingt möglich.The triangulation method is for small distances and for small distances relatively simple with satisfactory accuracy. For long distances and above all with large distance changes must with this sensor however Always lenses or other optical components are moved to a high level To achieve accuracy. A statistical averaging over many individual events is only conditionally possible.
Bei frequenzmodulierten Abstandsmeßsystemen (FMCW) wird ein kontinuierlicher (cw) Laserstrahl, dessen Frequenz linear rampenförmig geändert wird, auf das Meßobjekt (Oberfläche) gerichtet. Das zeitlich verzögerte, von der Oberfläche re flektierte Signal wird mit dem ausgesandten Signal gemischt, so daß ein Zwischen frequenzsignal entsteht, das proportional zum Abstand, dem Frequenzhub sowie der Modulationsfrequenz ist. Nachteilig dabei ist die benötigte hohe Kohärenz länge des Lasers sowie der sonstige erhebliche technische Aufwand.In frequency-modulated distance measuring systems (FMCW) is a continuous (cw) laser beam whose frequency is linearly ramped changed on the DUT (surface) directed. The time delayed, from the surface re inflected signal is mixed with the transmitted signal, so that an intermediate Frequency signal is generated, which is proportional to the distance, the frequency deviation and the modulation frequency is. The disadvantage here is the required high coherence Length of the laser and other significant technical effort.
An allen Verfahren wird auch als nachteilig empfunden, daß diese es nicht zu las sen, Selbstchecks bzw. geräteinterne Funktionskontrollen und Diagnoseschritte durchzuführen, welche es dann ermöglichen, lange vor einem Ausfall oder bevor Beschädigungen die Meßwerte gravierend beeinflussen, dieses dem Benutzer anzuzeigen und somit eine rechtzeitige Wartung erlauben.In all methods is also perceived as disadvantageous that they do not read it self-checking or device-internal functional checks and diagnostic steps then make it possible, long before a failure or before Damage seriously affects the readings, this to the user display and thus allow timely maintenance.
Die Bestimmung der optischen Eigenschaften des im menschlichen Auge vor liegenden Abbildungssystems bzgl. der Netzhaut wird derzeit empirisch iterativ durchgeführt. Dabei wird vom Augenarzt bzw. Augenoptiker der fehlsichtigen Person eine Linse probeweise vor dem Auge angebracht und durch Wechsel dieser Linse während eines verbalen Dialogs zwischen Augenarzt und Patient versucht, die optimale Linse zu finden.The determination of the optical properties of the human eye lying imaging system with respect to the retina is currently empirically iterative carried out. In this case, the optician or optometrist of the optometrist Person a lens mounted trial by eye and by changing this lens during a verbal dialogue between ophthalmologist and patient trying to find the optimal lens.
Hierbei wird als nachteilig empfunden, daß dieses Verfahren für den Augenarzt bzw. Augenoptiker sehr zeitaufwendig ist. Ferner eignet sich das gesamte Ver fahren nur schlecht bei Personen, die sich nur unzureichend verbal ausdrücken können, wie dies beispielsweise bei Kindern der Fall ist.It is considered disadvantageous that this procedure for the ophthalmologist or optometrist is very time consuming. Furthermore, the entire Ver drive poorly at people who express themselves inadequately verbally can, as is the case with children, for example.
Hiervon ausgehend liegt der Erfindung die Aufgabe zugrunde, ein Verfahren zu entwickeln, welches die Nachteile der eingangs genannten Verfahren vermeidet und somit ermöglicht, einen unempfindlichen, mit einer hohen Abstands- und Zeit dynamik versehenen, präzisen und dennoch preiswerten Sensor zu entwickeln. Für den Fall der Bestimmung der Abbildungseigenschaften im menschlichen Auge soll dies vollautomatisch ohne einen Dialog mit dem Patienten durchgeführt werden können.On this basis, the invention has for its object to provide a method develop, which avoids the disadvantages of the aforementioned method and thus enables an insensitive, with a high distance and time dynamic, accurate and yet inexpensive sensor to develop. For the case of determining the imaging properties in the human eye this can be done fully automatically without dialogue with the patient can.
Das Verfahren hat im wesentlichen die folgenden Merkmale:
Es zeigt eine extreme Unempfindlichkeit gegen alle nur denkbaren Intensitäts- und
Intensitätsverteilungsschwankungen des durch den auf die Oberfläche gerichteten
Laserstrahls erzeugten Leuchtflecks und vermeidet damit eine der wesentlichen
Fehlerquellen aller bisherigen Verfahren. Bedingt durch das zugrundeliegende
physikalische Prinzip ist über die gesamte Lebensdauer weder eine Kalibrierung
oder Justage notwendig, noch kann es zu Totalausfällen kommen, wenn von der
Möglichkeit der geräteinternen Selbstdiagnose Gebrauch gemacht wird. Da nur
wenige, einfache und gängige Bauteile zum Einsatz kommen, ergibt sich ein ro
buster und zuverlässig arbeitender Sensor, bei dem auf bewegte Teile komplett
verzichtet werden kann. Die maximale Aktualisierungsrate der Meßwerte reicht bis
in den MHz-Bereich. Damit besteht die Möglichkeit über geeignete statistische
Mitteilungen die Genauigkeit des Sensors noch deutlich zu steigern. Die zum Ein
satz kommenden Laser müssen nicht mehr longitudinal monomodiges Licht emit
tieren und es kann damit auf eine breite Palette von Lasern (insbesondere Dioden-
Lasern) zurückgegriffen werden. Das Verfahren kann in allen Fällen vollautoma
tisch durchgeführt werden.The method has essentially the following features:
It shows extreme insensitivity to all imaginable intensity and intensity distribution fluctuations of the luminous spot generated by the laser beam directed onto the surface and thus avoids one of the essential sources of error of all previous methods. Due to the underlying physical principle, neither calibration nor adjustment is necessary over the entire service life, nor can total failures occur if the option of device-internal self-diagnostics is used. Since only a few, simple and common components are used, results in a ro buster and reliable working sensor, which can be completely dispensed with moving parts. The maximum update rate of the measured values extends into the MHz range. This makes it possible to significantly increase the accuracy of the sensor by means of suitable statistical messages. The lasers used do not have to emit longitudinal monomode light any longer, and thus a wide range of lasers (in particular diode lasers) can be used. The process can be carried out fully automatically in all cases.
Alle Ausführungsformen der Erfindung basieren auf dem selben Prinzip: Ein vom Sensor ausgesandter Laserstrahl erzeugt auf der Oberfläche des Objekts, dessen Entfernung bzw. durch eine vorgeschaltete Optik verändert erscheinende Entfer nung gemessen werden soll, einen Leuchtfleck. Dieser Leuchtfleck wird durch eine geeignet ausgeführte Optik in Form von zwei getrennten Lichtbündeln auf einen lichtempfindlichen Sensor (Bildsensor) abgebildet. Beide Lichtbündel schneiden sich dabei unter einem Winkel, der von der geometrischen Auslegung der Optik und der Entfernung des Meßobjekts in eindeutiger Weise abhängt. Da das vom Meßobjekt rückgestreute Laserlicht aufgrund der gewählten Geometrien hin reichende Kohärenzeigenschaften besitzt, interferieren die beiden unter einem Winkel auf den Bildsensor auftreffenden Lichtbündel miteinander, so daß auf dem Bildsensor ein Interferenzstreifenmuster entsteht. Unter idealen Bedingungen be steht dieses Interferenzstreifenmuster aus räumlich periodischen Hell-/Dunkel- Streifen, deren Abstand vom Schnittwinkel der beiden einfallenden Lichtbündel und damit also von der Entfernung bzw. von der Entfernung zum Meßobjekt relativ zu einem gegebenenfalls vorgeschalteten optischen System, abhängt. Der Bild sensor zusammen mit der nachgeschalteten Verarbeitungs-Hardware/-Software muß dabei derartig ausgestaltet sein, daß das entstehende Interferenzstreifenbild z. B. in bezug auf den Streifenabstand analysiert und in die entsprechende Infor mation der Entfernung bzw. des Abbildungsmaßstabs umgesetzt werden kann.All embodiments of the invention are based on the same principle: one of Sensor emitted laser beam generated on the surface of the object whose Distance or changed by an upstream optics appearing Entfer to be measured, a spot of light. This spot will be replaced by a suitably designed optics in the form of two separate light bundles on one light-sensitive sensor (image sensor) shown. Cut both light bundles doing so at an angle that of the geometric design of optics and the distance of the DUT clearly depends. Since that of the DUT backscattered laser light due to the selected geometries out has sufficient coherence properties, the two interfere under one Angle on the image sensor incident light beam with each other, so that on the Image sensor an interference fringe pattern arises. Under ideal conditions this interference fringe pattern consists of spatially periodic light / dark Strip whose distance from the intersection angle of the two incident light bundles and therefore relative to the distance or distance to the measurement object to an optionally upstream optical system depends. The picture sensor together with the downstream processing hardware / software must be designed in such a way that the resulting interference fringe image z. B. analyzed with respect to the strip spacing and in the corresponding Infor mation of the distance or the magnification can be implemented.
Die verschiedenen Ausführungsformen der Erfindung unterscheiden sich einerseits in der Art und Weise, wie aus dem von dem Leuchtfleck auf dem Objekt rückge streuten Licht die beiden Lichtbündel, die auf den Bildsensor fallen, erzeugt wer den und andererseits durch die Art, Ausführung und Anordnung des Bildsensors. The various embodiments of the invention differ on the one hand in the way that returns from the light spot on the object Light scattered the two light bundles that fall on the image sensor, who produces and on the other hand by the nature, design and arrangement of the image sensor.
Ein einfaches Verfahren zur Erzeugung der beiden auf den Bildsensor fallenden Lichtbündel sieht wie folgt aus: Der im Auftreffpunkt des Laserstrahls auf das Meßobjekt ausgebildete Leuchtfleck wird mit Hilfe einer Linse auf den Bildsensor abgebildet. Dabei sollte der Bildsensor so geformt und angeordnet sein, daß innerhalb des Schärfentiefenbereichs der abgebildeten Optik das Abbild des Leuchtflecks auf dem Bildsensor zu liegen kommt. Dies muß für alle möglichen Entfernungen des Meßobjekts, innerhalb des gewünschten Meßbereichs des Gesamtgeräts, gewährleistet sein. Die beiden getrennten Lichtbündel werden dadurch erzeugt, daß kurz vor oder nach der abbildenden Linse eine Blende mit zwei Öffnungen angebracht wird, so daß zwei geeignet gewählte Ausschnitte des vom Leuchtfleck rückgestreuten Lichts auf den Bildsensor treffen.A simple method for generating the two falling on the image sensor Light bundle looks like this: At the point of impact of the laser beam on the DUT formed spot is using a lens on the image sensor displayed. In this case, the image sensor should be shaped and arranged so that within the depth of field of the imaged optics the image of Luminous spots on the image sensor comes to rest. This must be for all sorts of things Distances of the DUT, within the desired measuring range of the Entire device, be assured. The two separate light bundles become generated by the fact that shortly before or after the imaging lens with an aperture two openings is attached, so that two suitably selected sections of the from the light spot backscattered light hit the image sensor.
Eine weitere Ausgestaltung der Erfindung liegt darin, daß das vom Leuchtfleck ausgesandte Licht mit Hilfe einer Linse auf einen Strahlteiler abgebildet wird, wo durch zwei divergente Lichtbündel entstehen. Diese beiden Lichtbündel können nun wiederum durch die Verwendung einer zweiten Linse auf einen Bildsensor abgebildet werden. Auch jetzt entsteht wieder ein Interferenzstreifenmuster, des sen räumliche Periodenlänge eindeutig von der Entfernung des Meßobjekts ab hängt, da sich der Schnittwinkel der beiden Lichtbündel bei sich ändernder Ent fernung ändert.Another embodiment of the invention is that of the light spot emitted light is imaged by means of a lens on a beam splitter, where created by two divergent light bundles. These two light bundles can now again by using a second lens on an image sensor be imaged. Again, an interference fringe pattern, the sen spatial period length clearly from the distance of the test object depends, since the intersection angle of the two light bundles with changing Ent Distance changes.
Die Erfindung kann auch derart ausgestaltet werden, daß das vom Leuchtfleck auf dem Meßobjekt ausgesandte Licht mit Hilfe einer Linse auf eine Mattscheibe (Streuscheibe) abgebildet wird. Die Schärfentiefe der abbildenden Linse/Apertur kann dabei gering sein. Die Richtung des Schwerpunktes des aus der Mattscheibe austretenden Lichts, das typischerweise eine keulenförmige Intensitätsverteilung aufweist, stimmt normalerweise weiterhin mit der durch den Leuchtfleck sowie die Mitte der Linse definierten Achse, überein. Diese Richtung ist, sofern der beleuch tende Laserstrahl nicht in der Symmetrieachse der genannten Frontlinse verläuft, wiederum abhängig von der Entfernung des Meßobjekts.The invention can also be configured such that the light spot on the light emitted to the test object with the aid of a lens on a screen (Diffuser) is displayed. The depth of field of the imaging lens / aperture can be low. The direction of the center of gravity of the screen Exiting light, typically a club-shaped intensity distribution normally agrees with the light spot as well as the Center of the lens defined axis, coincide. This direction is, if the light tende laser beam is not in the axis of symmetry of said front lens, again depending on the distance of the DUT.
Das aus der Mattscheibe austretende Licht trifft dann auf einen Strahlteiler, so daß zwei getrennte Lichtbündel entstehen. Diese werden durch zwei schräg angeord nete Spiegel und eine weitere Linse wiederum auf dem Bildsensor zum Schnitt gebracht, so daß ein, von der Entfernung des Meßobjekts abhängiges Interferenz streifenmuster entsteht. Die Abbildung wird dabei vorteilhafterweise so gewählt, daß die Mattscheibe hinter den Bildsensor abgebildet werden würde, so daß sich die beiden auf den Bildsensor treffenden Lichtbündel, bei sich ändernder Entfer nung zum Meßobjekt, möglichst wenig bewegen.The light emerging from the ground glass then hits a beam splitter so that two separate light beams are created. These are angeord by two diagonally Nete mirror and another lens turn on the image sensor for editing brought so that a, dependent on the distance of the DUT interference stripe pattern arises. The image is advantageously chosen so that the screen would be imaged behind the image sensor, so that the two light bundles striking the image sensor, with changing delimiters tion to the test object, as little as possible.
Bei den beiden erstgenannten Ausgestaltungsformen der Erfindung, Abbildung mit einer Linse und Doppelblende sowie die Abbildung auf einen Strahlteiler und dann auf den Bildsensor, schneiden sich die beiden, das Interferenzstreifenmuster er zeugenden Lichtbündel an verschiedenen Orten bei verschiedenen Entfernungen zum Meßobjekt. Dabei ist die Ortskurve der Schnittpunkte bei sich ändernder Ent fernung in guter Näherung eine Gerade, so daß der Bildsensor als gerader bzw. ebener, ein- bzw. zweidimensionaler Sensor ausgebildet werden kann.In the first two embodiments of the invention, Figure with a lens and double iris as well as the picture on a beam splitter and then on the image sensor, the two intersect, the interference fringe pattern he generating light beams in different places at different distances to the test object. Here, the locus of the intersections in changing Ent distance in a good approximation, a straight line, so that the image sensor as a straight or planar, one- or two-dimensional sensor can be formed.
Eine andere Ausgestaltung der Erfindung dient der Bestimmung bzw. Kompen sation des Abbildungsmaßstabes eines optischen Systems, wie es in der Technik aber auch beispielsweise in Form des menschlichen oder tierischen Auges vor kommt. Wie bereits zuvor beschrieben, wird ein kollimierter, paralleler Laserstrahl, vorzugsweise durch eine Blende im Querschnitt begrenzter Laserstrahl, ausge sandt. Dieser Laserstrahl durchdringt nun das Linsensystem des zu vermessenden optischen Systems und erzeugt auf einer dahinter angebrachten Oberfläche einen Leuchtfleck. Je nachdem, ob diese Oberfläche mit der Brennebene des Linsen systems übereinstimmt oder nicht, ergibt sich ein mehr oder weniger scharfer Lichtfleck auf dieser Oberfläche. Ein Teil des nun von dem Leuchtfleck in alle Raumrichtungen ausgehenden Lichts tritt nun wiederum durch das Linsensystem hindurch. Das aus dem Linsensystem austretende Licht kann nun verschiedene Richtungen und Kollimationszustände aufweisen: Liegt die Oberfläche, auf der der Laserstrahl den Leuchtfleck erzeugt, vor der Brennebene des Linsensystems (d. h. näher an den Linsen), so wird das rückgestreute Licht nach dem Austritt aus dem Linsensystem divergent und im Mittel nicht parallel (z. B. vom Laser weg orientiert) zum eintretenden Laserstrahl sein. Für den Fall, daß die Oberfläche hinter der Brennebene liegt, ergibt sich ein konvergent aus dem Linsensystem austretendes Lichtbündel, welches ebenfalls nicht parallel (nun zum Laser hin orientiert) zum Laserstrahl verläuft. Liegt nun die Oberfläche genau in der Brennebene des Lin sensystems, so erzeugt das von dem nun relativ kleinen Leuchtfleck ausgehende Streulicht nach dem Durchtritt durch das Linsensystem ein breites, parallel kolli miertes Lichtbündel parallel zum eintretenden Laserstrahl. Die weitere Vorgehens weise ist analog zu den beiden oben beschriebenen Verfahren mit Strahlteiler. Vorzugsweise ein durch eine Blende ausgeblendeter Teil des aus dem Linsen system austretenden Lichts wird beispielsweise auf einen Strahlteiler oder eine Mattscheibe abgebildet. In analoger Weise zu den bereits beschriebenen Ver fahren werden dann zwei sich schneidende Lichtbündel auf einem Bildsensor er zeugt. Der Abstand der entstehenden Interferenzstreifen ist nun ein Maß für den Abstand der beleuchteten Oberfläche bezogen auf die Brennweite des Linsen systems. Für den Fall eines technischen Abbildungssystems ist oftmals der Ab stand des Linsensystems zu der beleuchteten Oberfläche direkt zugänglich, so daß dann natürlich auch die absolute Brennweite des Linsensystems bestimmt werden kann.Another embodiment of the invention serves the purpose or Kompen the magnification of an optical system, as in the art but also for example in the form of the human or animal eye comes. As previously described, a collimated, parallel laser beam, preferably by a diaphragm in cross-section limited laser beam, out sandt. This laser beam now penetrates the lens system of the to be measured optical system and creates on a surface behind it one Spot. Depending on whether this surface is at the focal plane of the lens system agrees or not, results in a more or less sharp Light spot on this surface. Part of the now from the light spot in all Spaces of outgoing light now again passes through the lens system therethrough. The light emerging from the lens system can now be different Directions and collimation states: Is the surface on which the Laser beam generates the spot, in front of the focal plane of the lens system (i.e. closer to the lenses), so the backscattered light after exiting the Lens system divergent and not parallel on average (eg oriented away from the laser) to be entering laser beam. In the event that the surface behind the Focal plane, results in a convergent emerging from the lens system Light bundle, which is also not parallel (now oriented towards the laser) for Laser beam runs. Now the surface lies exactly in the focal plane of the Lin sensystems, this creates the emanating from the now relatively small spot Stray light after passing through the lens system a wide, parallel colli miert light beam parallel to the incoming laser beam. The further procedure way is analogous to the two methods described above with beam splitter. Preferably, a hidden by a diaphragm part of the lens System emerging light is, for example, a beam splitter or a Matt screen shown. Analogously to the Ver then drive two intersecting light bundles on an image sensor testifies. The distance of the resulting interference fringes is now a measure of the Distance of the illuminated surface relative to the focal length of the lens system. In the case of a technical imaging system is often the Ab stood the lens system to the illuminated surface directly accessible, so that then of course determines the absolute focal length of the lens system can be.
Soll die Brechkraft des Linsensystems durch Vorschalten einer Linse verändert werden, wie dies beispielsweise beim menschlichen Auge durch das Anbringen einer Brille oder von Kontaktlinsen geschieht, so kann auch so verfahren werden, daß versuchsweise verschiedene korrigierende Linsen vor dem Linsensystem angebracht werden. Eine gewünschte Abbildung liegt ideal beispielsweise dann vor, wenn das das Linsensystem einschließlich der korrigierenden Linse verlas sende Lichtbündel parallel zum Laserstrahl austritt, da dann die Brennebene des Linsensystems mit der beleuchteten Oberfläche (z. B. Netzhaut im Auge) zusam menfällt. Der Abstand der Interferenzstreifen ist nun ein Maß dafür, ob die einge brachte korrigierende Linse zu stark oder zu schwach ist, so daß diese dann ausgetauscht werden kann. Iterativ läßt sich so also die beste korrigierende Linse ermitteln.Is the refractive power of the lens system changed by connecting a lens be, as for example, in the human eye by attaching glasses or contact lenses, this can also be done that tentatively various corrective lenses in front of the lens system be attached. For example, a desired image is ideal if that read the lens system including the corrective lens emit light beam parallel to the laser beam, because then the focal plane of the Lens system with the illuminated surface (eg retina in the eye) together menfällt. The distance of the interference fringes is now a measure of whether the turned brought corrective lens too strong or too weak, so this then can be exchanged. Iteratively, that is the best corrective lens determine.
Dieser Vorgang kann, durch Drehung des gesamten vor dem Abbildungssystem angeordneten Systems, für mehrere Ebenen wiederholt werden, beispielsweise um Astigmatismusfehler des Abbildungssystems zu erkennen. Für den Fall der Bestim mung der Gesamt-Brechkraft des Auges ist es notwendig, da die Brechkraft der Linse im Auge veränderbar ist, dem Auge ein bestimmtes in einer gewissen Ent fernung liegendes Bild, beispielsweise durch entsprechende Einspiegelung, anzu bieten, damit die Person versucht, die Linse so einzustellen, daß dieses Bild mög lichst scharf gesehen wird. Die Farben des angebotenen Bildes sollte nicht die Farbe des Laserstrahls enthalten. Vor dem Bildsensor kann dann ein Farbfilter angebracht werden, so daß der Bildsensor nur das letztlich vom Laser erzeugte Licht empfangen kann, nicht jedoch das vor dem, dem Auge angebotenen Bild, ausgehende Licht. Die gesamte auf der Netzhaut auftreffende Lichtintensität sollte möglichst gering sein, so daß sich die Irisblende im Auge möglichst weit öffnet. This process can, by rotation of the whole before the imaging system arranged system, be repeated for several levels, for example To detect astigmatism errors of the imaging system. In the case of the Bestim the total refractive power of the eye, it is necessary, because the refractive power of the Lens in the eye is changeable, the eye a certain in a certain Ent Distance lying image, for example, by appropriate reflection on so that the person tries to adjust the lens so that this image is possible as sharp as possible. The colors of the picture offered should not be the Color of the laser beam included. In front of the image sensor can then a color filter be attached so that the image sensor only ultimately generated by the laser Can receive light, but not before the image offered to the eye, outgoing light. The entire light intensity striking the retina should be be as small as possible so that the iris diaphragm opens as far as possible in the eye.
In allen bisher beschriebenen Fällen kann als Bildsensor eine Vielzahl von, in einer Reihe oder als Matrix angeordneten, opto-elektrischen Wandlern verwendet werden (z. B. CCD-Zeilen- oder Matrixkamera). Die entstehenden elektrischen Signale können dann beispielsweise mit elektronischen Rechnern weiterverarbeitet werden, (z. B. FFT, Frequenzzählverfahren, Korrelation).In all the cases described so far, as the image sensor, a plurality of, in a series or arranged as a matrix, opto-electrical converters used (eg CCD line or matrix camera). The resulting electrical Signals can then be further processed, for example, with electronic computers (eg FFT, Frequency Counting, Correlation).
Der Bildsensor kann in allen Fällen auch derart vorteilhaft ausgestaltet werden, daß er aus einem optischen Doppelspalt, dessen Abstand der Spalte vorzugsweise an den zu erwartenden Interferenzstreifenabstand des durch die beiden Licht bündel auf dem Bildsensor erzeugten Interferenzstreifenmusters angepaßt ist, besteht. Hinter jedem einzelnen der beiden Spalte wird je ein, das aus dem zu gehörigen Spalt austretende Licht integral erfassender, Fotodetektor (z. B. APD- Fotodiode) angeordnet. Beide Spalte sind geringfügig gegeneinander verschoben, vorzugsweise um den mittleren Abstand der Interferenzstreifen. Des weiteren kann in allen Fällen in dem optischen Weg eines der beiden, auf den Bildsensor tref fenden Lichtbündel eine leichte Frequenzverschiebung des Lichtes bewirkt wer den. Diese Frequenzverschiebung des Lichts kann beispielsweise durch ein ro tierendes Gitter oder einen akustooptischen Modulator (z. B. Bragg-Zelle) hervor gerufen werden. Da die beiden auf den entsprechenden Spalt fallenden Licht bündel nun eine leicht verschiedene Frequenz haben, wird sich das Interferenz streifenmuster auf dem Spalt bewegen. Die auf den hinter dem jeweiligen Spalt angeordneten Fotodetektor einfallende Lichtintensität ändert sich also periodisch. Die Änderungsfrequenz entspricht der Frequenzverschiebung des Lichts durch z. B. den akustooptischen Wandler. Ein geänderter Abstand zum Gegenstand wirkt sich, wie beschrieben, in einer Änderung des Winkels zwischen den beiden auf den Bildsensor auftreffenden Lichtbündeln aus, was sich wiederum in einer Än derung des Streifenabstandes des, nun laufenden, Interferenzstreifenmusters niederschlägt. Die Phasenbeziehung beider, von den beiden Fotodetektoren gesehenen Signale ist nun also ein direktes Maß für die Entfernung zum Gegen stand. Der Aufbau eines Phasendetektors kann, in ähnlicher Weise wie in der Nachrichtentechnik durchgeführt werden. Dieses Verfahren erlaubt eine außer gewöhnlich hohe Wiederholungsrate einzelner Entfernungsmessungen. Beide Spalte werden vorzugsweise nicht räumlich eng beieinander angeordnet, sondern so, beispielsweise mit Hilfe eines Strahlteilers (halbdurchlässiger Spiegel), daß sie nur optisch so erscheinen. Die beiden Spalte können dann, zur Steigerung der Lichtintensität auf den Fotodetektoren, auch durch symmetrisch an der Stelle der Spalte angeordnete Gitter ersetzt werden. The image sensor can also be designed in such an advantageous manner in all cases that it is made of an optical double slit, the distance of the column preferably to the expected interference fringe distance of the light through the two bundle is matched to the interference fringe pattern generated on the image sensor, consists. Behind each one of the two columns will be one that comes out of the belonging gap leaking light integrally detecting, photodetector (such as APD Photodiode). Both columns are slightly offset from each other, preferably by the mean distance of the interference fringes. Furthermore, can in all cases in the optical path of one of the two, tref to the image sensor fenden light beam causes a slight frequency shift of the light who the. This frequency shift of the light, for example, by a ro animal lattice or an acousto-optic modulator (eg Bragg cell) be called. Because the two light falling on the corresponding gap bundles now have a slightly different frequency, the interference will be move strip pattern on the gap. The on the behind the respective gap arranged photodetector incident light intensity changes so periodically. The change frequency corresponds to the frequency shift of the light through z. B. the acousto-optic converter. A changed distance to the object works as described, in a change in the angle between the two from the image sensor incident light beams, which in turn in a Än tion of the strip spacing of the, now running, interference fringe pattern reflected. The phase relationship of both, from the two photodetectors seen signals is now so a direct measure of the distance to the counter was standing. The structure of a phase detector can, in a similar manner as in Communications technology be performed. This procedure allows one except usually high repetition rate of individual distance measurements. Both Columns are preferably not arranged spatially close to each other, but so, for example with the help of a beam splitter (semitransparent mirror) that they only visually so appear. The two columns can then be used to increase the Light intensity on the photodetectors, also symmetrical at the location of the Column arranged grid to be replaced.
Abweichungen der Wellenfronten der beiden auf den Bildsensor fallenden Licht bündel von der als ideal erachteten ebenen Wellenfront, bedingt durch eine Fo kussierung auf den Bildsensor oder aber durch nichtideale optische Eigenschaften der Anordnung, sowie durch Wellenfrontdeformationen, hervorgerufen durch Ober flächenstrukturen der durch den Laserstrahl beleuchteten Oberfläche, führt zu ei nem Interferenzstreifenmuster, dessen Streifenabstand nicht mehr konstant ist. Ungenauigkeiten können nun, nach geeigneter Erfassung der Intensitätsverteilung auf dem Bildsensor, rechnerisch, in analoger Weise zu der Vorgehensweise bei Interferometern, erfaßt werden, so daß ein genauerer Wert für den Schnittwinkel der beiden auf den Bildsensor fallenden Lichtbündel und damit für die Entfernung zum Gegenstand über eine rechnerische Rekonstruktion der Wellenfronten ermit telt werden kann.Deviations of the wavefronts of the two incident on the image sensor light bundle of the considered as ideal flat wavefront, due to a Fo kussierung on the image sensor or by non-ideal optical properties the arrangement, as well as wavefront deformations, caused by upper surface structures of the illuminated by the laser beam surface, leads to egg An interference fringe pattern whose fringe spacing is no longer constant. Inaccuracies can now, after appropriate detection of the intensity distribution on the image sensor, mathematically, in an analogous manner to the procedure at Interferometers, are detected, so that a more accurate value for the cutting angle of the two light beams falling on the image sensor and thus for the distance to the subject on a mathematical reconstruction of the wavefronts ermit can be telt.
Auf optische Weise kann eine verbesserte Genauigkeit des Interferenzstreifen musters auf dem Bildsensor erreicht werden. Wird der, den Leuchtfleck auf dem Gegenstand erzeugende Laserstrahl zu einer geringfügigen Vibration gebracht, so erscheinen die Interferenzstreifen auf dem Bildsensor ebenfalls vibrierend. Ein ebensolcher Effekt kann erzielt werden, wenn ein optisches, eine Vibration verur sachendes, Element sowohl in den Strahlengang des Lasers, als auch in den Empfangsstrahlengang eingebracht wird. Im Falle einer im Verhältnis zur Vibra tionsfrequenz langen Integrationsdauer einzelner Fotodetektoren auf dem Bild sensor erscheint das Bild auf dem Bildsensor etwas verschwommen. Dieses Bild stellt jedoch eine Mitteilung über eine Vielzahl von Phasenzuständen der auf den Bildsensor fallenden Wellen dar, so daß sich ein von der Oberflächenstruktur der beleuchteten Oberfläche unabhängiges Interferenzstreifenmuster ergibt.Optically, an improved accuracy of the interference fringe pattern can be achieved on the image sensor. Will that spot on the Object generating laser beam brought to a slight vibration, so The interference fringes on the image sensor also appear vibrating. On The same effect can be achieved if an optical, a vibration verur appropriate, element both in the beam path of the laser, as well as in the Reception beam path is introduced. In the case of one in relation to the vibra tion frequency long integration period of individual photodetectors in the picture sensor, the image on the image sensor looks a bit blurry. This picture however, provides notification of a variety of phase conditions of the Image sensor falling waves, so that one of the surface structure of the illuminated surface gives independent interference fringe pattern.
Bei allen Verfahren kann, insbesondere jedoch bei dem vorgehend beschriebenen Verfahren des Spalt- bzw. Gitter-Bildsensors mit Frequenzverschiebung infolge der hohen zeitlichen Auflösung der Meßwerte, aus der Differenz aufeinanderfolgender Entfernungsmeßwerte die Geschwindigkeit des Meßobjekts ermittelt werden (ma thematisch: Ableitung der Entfernung nach der Zeit).In all methods, but especially in the previously described Method of the slit image sensor with frequency shift due to high temporal resolution of the measured values, from the difference of successive ones Distance measurements the speed of the DUT are determined (ma thematic: derivation of the distance after the time).
Im folgenden wird die Erfindung anhand der Zeichnung näher erläutert. Es zeigenIn the following the invention will be explained in more detail with reference to the drawing. Show it
Fig. 1 ein Entfernungsmeßgerät mit Doppelspaltblende vor der Empfangs optik in schematischer Darstellung; Fig. 1 is a distance measuring device with double slit in front of the receiving optics in a schematic representation;
Fig. 2 eine schematische Darstellung der vorliegenden Abbildungs geometrie; Fig. 2 is a schematic representation of the present imaging geometry;
Fig. 3 einen Ausschnitt aus dem Strahlengang nach Fig. 1, Fig. 6 und Fig. 9 mit einem Teil des Bildsensors; Figure 3 is a section of the beam path of Figure 1, Figures 6 and 9 with a part of the image sensor....;
Fig. 4a, 4b, 4c die Ortskurve des Bildes des auf dem zu vermessenden Gegen standes erzeugten Leuchtflecks bei sich ändernder Entfernung, die Variation des Abstandes des Bildpunktes von der abbildenden Linse in Abhängigkeit der Entfernung des Gegenstandes und die Variation des Interferenzstreifenabstandes mit den Parametern: Figures 4a, 4b, 4c, the locus of the image of to be measured on the article produced light spot with a changing distance, the variation of the distance of the image point of the imaging lens dependent on the distance of the object and the variation of the interference fringe spacing with the parameters.:
Fig. 5a, 5b, 5c die Ortskurve des Bildes des auf dem zu vermessenden Gegen standes erzeugten Leuchtflecks bei sich ändernder Entfernung, die Variation des Abstandes des Bildpunktes von der abbildenden Linse in Abhängigkeit der Entfernung des Gegenstandes und die Variation des Interferenzstreifenabstandes mit den Parametern: Figures 5a, 5b, 5c, the locus of the image of to be measured on the article produced light spot with a changing distance, the variation of the distance of the image point of the imaging lens dependent on the distance of the object and the variation of the interference fringe spacing with the parameters.:
Fig. 6 ein Entfernungsmeßgerät mit Strahlteiler in schematischer Dar stellung; Fig. 6 is a distance measuring device with beam splitter in a schematic Dar position;
Fig. 7 einen Ausschnitt aus dem Strahlengang nach Fig. 1, Fig. 6 bzw. Fig. 9 mit eingefügtem frequenzverschiebendem Element; Figure 7 is a section of the beam path of Figure 1, Figure 6 and Figure 9 with an inserted frequenzverschiebendem element....;
Fig. 8 einen Ausschnitt aus dem Strahlengang nach Fig. 1, Fig. 6 bzw. Fig. 9 mit zusätzlich eingefügtem zweiten Fotodetektor; Figure 8 is a section of the beam path of Figure 1, Figure 6 and Figure 9 with an additionally inserted second photodetector....;
Fig. 9 ein Entfernungsmeßgerät mit Mattscheibe und Strahlteiler in sche matischer Darstellung; Fig. 9 is a distance meter with ground glass and beam splitter in cal mathematical representation;
Fig. 10 eine erweiterte Anordnung zur Analyse der Abbildungseigenschaften eines optischen Systems; Figure 10 is an expanded arrangement for the analysis of the imaging properties of an optical system.
Fig. 11a, 11b und 11c einen Ausschnitt des Strahlenganges aus Fig. 10 in drei verschiedenen Situationen; Figures 11a, 11b and 11c shows a detail of the beam path of Figure 10 in three different situations..;
Fig. 12 eine Erweiterung der Fig. 10 um Elemente, die ein Einspiegeln eines zusätzlichen Bildes in das Sichtfeld eines Auges erlaubt. FIG. 12 shows an enlargement of FIG. 10 about elements which allow an additional image to be reflected in the field of view of an eye.
Das nachstehend beschriebene und in Fig. 1 dargestellte Verfahren dient der Be stimmung der Entfernung des Sensors zu dem Meßobjekt.The method described below and shown in Fig. 1 is used to determine Be the distance of the sensor to the DUT.
Der von Laser 1 gebildete Laserstrahl 2 trifft auf die Oberfläche des Gegenstandes 3 und bildet dort den Leuchtfleck 4. Das von diesem Leuchtfleck 4 abgestrahlte Licht bildet mehr oder weniger gleichverteilt, mit durch die Oberflächenstrukturen, die Oberflächengeschwindigkeit und -bewegungen bedingten zeitlichen und räum lichen Intensitätsschwankungen, die diffuse Strahlungskeule 11. Die Doppelspalt blende 6 blendet aus der Strahlungskeule 11 die beiden Teilstrahlen 14 und 15 aus. Diese werden durch die Linse 7 auf dem Bildsensor 8 zum Schnitt gebracht. Im Schnittvolumen 9, welches mit dem Auftreffpunkt der Strahlen 14 und 15 auf der photoempfindlichen Schicht des Bildsensors 8 identisch ist, entsteht nun das in Fig. 3 gezeigte Interferenzstreifenmuster. Der Interferenzstreifenabstand Δx wird im wesentlichen durch die Laserwellenlänge λ und den Schnittwinkel Θ festgelegt. Alle geometrischen Einflüsse gehen also über Θ in den Interferenzstreifenabstand ein. Dies sind der Spaltabstand der Doppelspalt-Blende und das Abbildungsver hältnis, bestimmt über das jeweilige Abbildungsgesetz (siehe Fig. 2). Somit giltThe laser beam 2 formed by laser 1 strikes the surface of the object 3 and forms there the light spot 4 . The emitted light from this spot 4 light forms more or less evenly distributed, with the surface structures, the surface velocity and movement-related temporal and spatial fluctuations in intensity, the diffuse lobe 11th The double-slit aperture 6 fades out of the radiation lobe 11 the two partial beams 14 and 15 . These are brought through the lens 7 on the image sensor 8 to the section. In the sectional volume 9 , which is identical to the point of impingement of the beams 14 and 15 on the photosensitive layer of the image sensor 8 , now arises the interference fringe pattern shown in FIG . The interference fringe spacing Δx is essentially determined by the laser wavelength λ and the intersection angle Θ. All geometrical influences thus enter the interference fringe distance via Θ. These are the gap distance of the double-slit diaphragm and the imaging ratio, determined by the respective imaging law (see FIG. 2). Thus applies
wobei f die Linsenbrennweite, G die Gegenstandsweite, B die Bildweite und δ der halbe Abstand zwischen den beiden Spalten der Doppelspalt-Blende sei.where f is the lens focal length, G is the object width, B is the image width and δ is the is half the distance between the two columns of the double-slit diaphragm.
Bewegt sich nun der Sensor (bestehend aus den Komponenten 1, 6, 7, 8) auf die Oberfläche zu bzw. bewegt sich die Oberfläche auf den Abstandssensor zu, so ergibt sich zu einem späteren Zeitpunkt z. B. der neue Auftreffpunkt 5 mit der dann zugehörigen Strahlungskeule 12. Der Auftreffpunkt 5 wird nun auf der Stelle 10 auf den Bildsensor abgebildet. In dem Schnittpunkt 10 liegt natürlich ebenfalls ein In terferenzstreifenmuster vor. Dieses hat aber nun aufgrund der zum Leuchtfleck 4 verschiedenen Gegenstandsweite G einen anderen Interferenzstreifenabstand. Über diesen, sich in Abhängigkeit von der Gegenstandsweite G ändernden Inter ferenzstreifenabstand wird der Abstand zur Oberfläche bestimmt. Der wesentliche Vorteil hierbei ist die weitgehende Unabhängigkeit des Streifenabstandes von In tensitäts- und Intensitätsverteilungsschwankungen des durch den Laserstrahl 2 er zeugten Leuchtflecks. Der sich ergebende Interferenzstreifenabstand kann mit einer Genauigkeit besser 1‰ ausgewertet werden. Die zeitliche Änderung des so bestimmten Interferenzstreifenabstandes ergibt die gewünschte Geschwindigkeits information.Now moves the sensor (consisting of the components 1, 6, 7, 8) to the surface or moves to the surface of the distance sensor, it results at a later time z. B. the new point of impact 5 with the associated radiation lobe 12th The impact point 5 is now imaged at the location 10 on the image sensor. Of course, there is also an interference fringe pattern in the intersection 10 . However, this now has a different interference fringe spacing due to the different object width G relative to the light spot 4 . The distance to the surface is determined by way of this interval of distance, which changes as a function of the object width G. The main advantage here is the high degree of independence of the strip spacing of intensity and intensity distribution variations in intensity of the laser beam 2 he testified luminous spot. The resulting interference fringe spacing can be evaluated with an accuracy of better than 1 ‰. The temporal change of the so determined interference fringe spacing gives the desired speed information.
Da bei dieser Anordnung, simultan zum sich ändernden Interferenzstreifenabstand, die Interferenzstreifen noch auf dem Bildsensor 8 sich bewegen, und da zwischen Streifenposition und Interferenzstreifenabstand ein eindeutiger Zusammenhang besteht, dieses aber unabhängig bestimmbare Größen sind, kann diese Tatsache dazu herangezogen werden, um Dejustagen oder Beschädigungen des Sensors (die dann zu einem Sensorausfall oder zu falschen Meßwerten führen können) frühzeitig zu erkennen und anzuzeigen bevor es zu Fehlmessungen oder Total ausfällen kommen kann. D.h., in gewissen Grenzen kann hierdurch eine interne Kalibrierung vom Sensor jederzeit vorgenommen werden und es können immer veränderte Sensoreigenschaften angezeigt werden, bevor es zu Genauigkeits änderungen kommen kann. Since in this arrangement, simultaneously to the changing interference fringe spacing, the interference fringes still move on the image sensor 8 , and since there is a clear relationship between fringe position and fringe spacing, but these are independently determinable quantities, this fact can be used to misalignments or damage of the sensor (which can then lead to a sensor failure or to incorrect measured values) to recognize early and display before it can lead to incorrect measurements or total failures. This means that within certain limits an internal calibration of the sensor can be made at any time and it can always be changed sensor properties are displayed before it can lead to accuracy changes.
Fig. 2 dient zur Erläuterung des Abbildungsvorganges. Der in der Zeichnung ver tikal austretende Laserstrahl trifft im Gegenstandspunkt auf das zu vermessende Objekt. Ein Teil des in alle Richtungen gestreuten Lichts wird durch die Linse 7 auf den Bildpunkt abgebildet. Zwischen der Gegenstandsweite G, der Bildweite B sowie der Brennweite f der Linse 7 besteht folgende Beziehung: Fig. 2 serves to explain the imaging process. The ver tikal exiting in the drawing laser beam strikes in the object point on the object to be measured. Part of the light scattered in all directions is imaged by the lens 7 onto the pixel. Between the object width G, the image width B and the focal length f of the lens 7 , the following relationship exists:
Der Winkel α wird durch den Abstand des Laserstrahls zur Mitte der Linse 7 sowie der Entfernung des Meßobjekts festgelegt. Befindet sich der Gegenstandspunkt im Unendlichen, so wird der Bildpunkt im Abstand der Linsenbrennweite f auf die ver tikale Achse abgebildet. (Dieser Punkt bildet den Koordinatenursprung in Fig. 4a und 5a). Nähert sich der Gegenstandspunkt dem Gerät, so wird die Gegenstands weite G kleiner, die Bildweite B sowie der Winkel α größer. Der Bildpunkt über streicht dabei einen bestimmten Weg in der Zeichenebene. Diese Ortskurve der Bildpunkte ist in Fig. 4a und 5a aufgetragen. Man erkennt, daß es sich dabei näherungsweise um eine Gerade handelt, so daß ein linearer Zeilensensor ein gesetzt werden kann. Die Änderung der Gegenstandsweite G in Abhängigkeit der Entfernung des Meßobjekts ist in Fig. 4b und 5b dargestellt. Man erkennt, daß die Genauigkeit des Sensors mit abnehmender Entfernung zunimmt, jedoch auch der Bildsensor größer werden muß. Bestimmend für den Winkel, unter dem die Orts kurve der Bildpunkte zu der vertikalen Achse steht und unter dem der Bildsensor angeordnet werden muß, ist der Abstand des Laserstrahls zu der Linse. Wird die ser Abstand sehr klein gewählt, so trifft das Streulicht nur unter einem sehr kleinen Winkel auf den Bildsensor. Fig. 3 zeigt das auf der Oberfläche des Bildsensors entstehende Interferenzstreifenmuster. Der Abstand Δx ist unabhängig von dem Einfallswinkel α des gesamten Lichtbündels. Der Schnittwinkel des Lichtbündels mit dem Bildsensor wird in der Praxis im wesentlichen von dem Kippwinkel der Ortskurve der Bildpunkte, also dem Abstand Laser-Linse, und nur unwesentlich von dem Winkel α, also der Entfernung des Meßobjekts bestimmt. Durch diesen Winkel zwischen dem Lichtbündel und dem Bildsensor erscheint das Interferenz streifenmuster auf dem Bildsensor vergrößert (um den Faktor 1/sin (Schnittwinkel)). Der Abstand Laser-Linse muß also entsprechend der geforderten Genauigkeit und der Auflösung des Bildsensors gewählt werden. The angle α is determined by the distance of the laser beam to the center of the lens 7 and the distance of the DUT. If the object point is at infinity, the pixel is imaged at the distance of the lens focal length f to the vertical axis. (This point forms the origin of the coordinates in FIGS. 4a and 5a). If the object point approaches the device, the object becomes wider G smaller, the image width B and the angle α larger. The pixel above crosses a certain path in the drawing plane. This locus of the pixels is plotted in FIGS. 4a and 5a. It can be seen that this is approximately a straight line, so that a linear line sensor can be set. The change of the object width G as a function of the distance of the test object is shown in FIGS. 4b and 5b. It can be seen that the accuracy of the sensor increases with decreasing distance, but also the image sensor must be larger. Determining the angle at which the locus curve of the pixels to the vertical axis and under which the image sensor must be arranged, is the distance of the laser beam to the lens. If this distance is chosen to be very small, the scattered light strikes the image sensor only at a very small angle. Fig. 3 shows the interference fringe pattern formed on the surface of the image sensor. The distance Δx is independent of the angle of incidence α of the entire light beam. The intersection angle of the light beam with the image sensor is determined in practice essentially by the tilt angle of the locus of the pixels, ie the distance laser lens, and only slightly from the angle α, ie the distance of the measured object. Due to this angle between the light beam and the image sensor, the interference fringe pattern appears enlarged on the image sensor (by the factor 1 / sin (intersection angle)). The distance laser lens must therefore be selected according to the required accuracy and the resolution of the image sensor.
Fig. 3 zeigt im Detail das Auftreffen der beiden durch die Blenden vor der Front linse erzeugten Lichtkegel 14 und 15 auf den Bildsensor. Beide Lichtkegel erzeu gen durch Interferenz das Interferenzstreifenmuster 13, dessen Streifenabstand Δx sich aus dem Schnittwinkel 2 Θ (vgl. Fig. 1) der beiden Lichtkegel 14 und 15 ergibt zu: Fig. 3 shows in detail the impact of the two lenses generated by the apertures in front of the front light cone 14 and 15 on the image sensor. Both light cones generate by interference the interference fringe pattern 13 , the fringe spacing Δx of which results from the intersection angle 2 Θ (see FIG. 1) of the two light cones 14 and 15 :
Fig. 4c und 5c zeigen den Abstand Δx des Interferenzstreifenmusters über die Entfernung abgetragen, ohne Berücksichtigung des Kippwinkels des Bildsensors. Für den in Fig. 4a, 4b und 4c dargestellten Fall ergibt sich ein Schnittwinkel zwi schen dem Bildsensor und dem einfallenden Lichtbündel von ca. 18,5° bei einem Interferenzstreifenabstand von ca. 12,5 µm. Der Bildsensor sieht dann also einen Streifenabstand von ca. 39,4 µm, so daß ein CCD-Zeilensensor mit 7 µm Pixel abstand gut als Bildsensor geeignet wäre. Ähnliche Zahlen ergeben sich für den Fall von Fig. 5a, 5b und 5c. Der Interferenzstreifenabstand Δx kann nahezu unab hängig von den anderen diskutierten Parametern durch den Abstand der beiden Blenden vor der Empfangslinse und somit dem Winkel 2 Θ in Fig. 1 eingestellt werden. Figures 4c and 5c show the distance Δx of the interference fringe pattern over the distance, without regard to the tilt angle of the image sensor. For the case shown in Fig. 4a, 4b and 4c results in an intersection angle between tween the image sensor and the incident light beam of about 18.5 ° at an interference fringe spacing of about 12.5 microns. The image sensor then sees a strip spacing of about 39.4 microns, so that a CCD line sensor with 7 microns pixel spacing would be well suited as an image sensor. Similar numbers result for the case of Figs. 5a, 5b and 5c. The interference fringe spacing Δx can be set almost independently of the other parameters discussed by the distance between the two apertures in front of the receiving lens and thus the angle 2 Θ in FIG .
Fig. 4a, 4b und 4c zeigen ein Beispiel für einen Entfernungsbereich von 4 bis 50 m. Die Linsenbrennweite beträgt 0,3 m, der Abstand des Lasers zum Mittelpunkt der Linse 0,1 m. Die Bildpunkte überstreichen dabei eine Strecke von ca. 2,2 cm (Fig. 4a), so daß ein Bildsensor mit dieser Länge unter einem Winkel von 18,5° zur vertikalen Achse angeordnet werden kann. Die Änderung der Bildweite in Abhän gigkeit der Entfernung des Meßobjekts ist in Fig. 4b dargestellt. Es läßt sich er kennen, daß die Bildweitenänderung bei kleinen Entfernungen größer wird, so daß hier die Genauigkeit der Bestimmung der Position des Leuchtflecks auf dem Bild sensor steigt. Fig. 4c zeigt die Änderung des Interferenzstreifenabstands Δx über der Entfernung. Auch hier ergibt sich eine größere Änderung des Interferenz streifenabstands bei kleinen Entfernungen und somit eine höhere Genauigkeit. Bei dem sehr ähnlichen Signalverlauf des Ausgangssignals eines Laser-Doppler- Anemometers (LDA) können Genauigkeiten von besser als 1‰ erreicht werden, wobei ein größerer Dynamikbereich als im vorliegenden Fall abgedeckt werden muß. Eine Genauigkeit von 1‰ bei der Bestimmung des Interferenzstreifenmu sters führt im Fall der Fig. 4c auf eine Genauigkeit der daraus bestimmten Ent fernung von ca. 4,5 m bei einer Entfernung von 40 m und von 5 cm bei einer Ent fernung von 4 m vom Meßobjekt. Figures 4a, 4b and 4c show an example of a distance range of 4 to 50 m. The lens focal length is 0.3 m, the distance of the laser to the center of the lens 0.1 m. The pixels cover a distance of about 2.2 cm ( Figure 4a), so that an image sensor with this length can be arranged at an angle of 18.5 ° to the vertical axis. The change of the image width in depen dence of the distance of the DUT is shown in Fig. 4b. It can be known that the image change in distance at small distances is greater, so that here increases the accuracy of determining the position of the light spot on the image sensor. Fig. 4c shows the change of the interference fringe distance Δx over the distance. Again, there is a larger change in the interference fringe spacing at small distances and thus a higher accuracy. With the very similar signal curve of the output signal of a laser Doppler anemometer (LDA) accuracies of better than 1 ‰ can be achieved, whereby a larger dynamic range than in the present case must be covered. An accuracy of 1 ‰ in the determination of the Interferenzstreifenmu sters leads in the case of Fig. 4c to an accuracy of the determined Ent distance of about 4.5 m at a distance of 40 m and 5 cm at a distance of 4 m Ent from the test object.
Das Beispiel in Fig. 5a, 5b und 5c wurde für einen Entfernungsbereich von 1-6 m erstellt. Dabei wurde eine Linsenbrennweite von 0,14 m und ein Abstand zum Laser von 0,05 m gewählt. Wieder mußte ein Sensor mit einer Länge von ca. 2 cm unter einem Winkel von ca. 20° angebracht werden. Die Genauigkeit beträgt nun bei 6 m Abstand ca. 20 cm, bei einem Abstand von 1,1 m ca. 6 mm.The example in FIGS. 5a, 5b and 5c was prepared for a distance range of 1-6 m. In this case, a lens focal length of 0.14 m and a distance to the laser of 0.05 m was selected. Again, a sensor with a length of about 2 cm at an angle of about 20 ° had to be attached. The accuracy is now at 6 m distance about 20 cm, at a distance of 1.1 m about 6 mm.
Ein anderes erfindungsgemäßes Ausführungsbeispiel eines Abstandssensors ist in Fig. 6 aufgezeigt. Der von Laser 1 gebildete Laserstrahl 2 trifft auf dem Gegen stand 3 auf und bildet dort den Leuchtfleck 4. Der Teil des vom Leuchtfleck 4 ab gestrahlten und auf die Öffnung der Blende 16 fallenden Lichts wird durch die Linse 17 in Form des Strahlenbündels 18 auf den Strahlteiler 19 abgebildet. Die Art der Abbildung ist dieselbe, wie sie bereits oben anhand des Beispiels der Fig. 1 ausführlich erläutert wurde. Die Geometrie ist wiederum in Fig. 2 dargestellt. Das Bild des Leuchtflecks 4 wandert also auf dem Strahlteiler 19, während der Gegen stand 3 sich dem Laser 1 nähert und zu einem späteren Zeitpunkt in das Bild des Leuchtflecks 5 übergeht. Die beiden vom Strahlteiler 19 erzeugten Lichtbündel werden durch die Linse 20 in Form der Lichtbündel 14 und 15 auf den Bildsensor 8 abgebildet und dort zum Schnitt gebracht. Wiederum bildet sich dann an der Stelle 9 im Falle des Leuchtflecks 4 ein Interferenzstreifenmuster aus. Für den Inter ferenzstreifenabstand gelten die analogen Überlegungen wie im oben geschilder ten Ausführungsbeispiel (vgl. Fig. 3).Another embodiment of a distance sensor according to the invention is shown in FIG . The laser beam 2 formed by laser 1 impinges on the object 3 and forms there the light spot. 4 The part of the light spot 4 from radiated and incident on the opening of the aperture 16 light is imaged by the lens 17 in the form of the beam 18 on the beam splitter 19 . The type of mapping is the same as explained in detail above with reference to the example of FIG . The geometry is again shown in FIG . The image of the light spot 4 thus moves on the beam splitter 19 , while the object 3 is approaching the laser 1 and merges into the image of the light spot 5 at a later time. The two light beams generated by the beam splitter 19 are imaged by the lens 20 in the form of the light beams 14 and 15 on the image sensor 8 and brought there to the section. Again, an interference fringe pattern then forms at point 9 in the case of the light spot 4 . For the Inter distance strip distance, the analog considerations apply as in the above geschilder th embodiment (see Fig. 3).
Ein weiteres Ausführungsbeispiel der Erfindung ist in Fig. 9 gezeichnet. Der im Auftreffpunkt des in Fig. 9 nicht dargestellten Lasers auf dem Gegenstand 3 ent stehende Leuchtfleck 4 wird, bei durch die Blende 27 einstellbarer Apertur, mit Hilfe der Linse 28 in Form des Lichtbündels 29 auf die Mattscheibe 30 abgebildet. Dabei handelt es sich nicht in allen Fällen um eine echte Abbildung, bei der das Bild des Leuchtflecks 4 scharf auf die Mattscheibe 30 abgebildet wird: Der Abstand zwischen der Linse 28 und der Mattscheibe 30 wird vorteilhafterweise so einge stellt, daß bei einer mittleren Entfernung des Gegenstandes 3 zur Linse 28 das Bild des Leuchtflecks 4 genau auf die Mattscheibe 30 fällt und dort scharf er scheint. Bei kleineren Abständen des Gegenstands 3 liegt der Fokus des Licht bündels 29 nun hinter, bei größeren Abständen vor der Mattscheibe 30. Ist der Öffnungswinkel des Lichtkegels 29, bedingt durch eine große Blendenöffnung der Blende 27, nun groß, so kann auf der Mattscheibe 30 ein diffuser Leuchtfleck ent stehen. Die Intensitäts-Verteilung des aus der Mattscheibe 30 wieder austretenden Lichtbündels 44 ist bei einer typischen Mattscheibe keulenförmig. Die Symmetrie achse dieser Keule ist jedoch identisch mit der Symmetrieachse des auf die Matt scheibe 30 treffenden Lichts 29. Bei einem geeignet angeordneten Laser ändert sich also die Austrittsrichtung des Lichtbündels 44 aus der Mattscheibe 30 in Ab hängigkeit der Entfernung des Gegenstandes 3. Das Lichtbündel 44 trifft auf den Strahlteiler 31. Die beiden von dem Strahlteiler 31 ausgehenden Lichtbündel er scheinen nun, als kämen sie aus den gedachten Punkten 41 und 43 auf der virtu ellen Mattscheibe 42. Im Abstand a vor der virtuellen Mattscheibe 42 befindet sich nun die virtuelle Linse 40, die der realen Linse 28 entspricht. Die beiden in die Linse 32 eintretenden Lichtbündel, die als Lichtbündel 37 und 38 wieder austreten, werden durch die Linse 32 auf die Oberfläche 45 des Bildsensors 35 abgelenkt und schneiden sich dort, so daß ein Interferenzstreifenmuster entsteht. Die Ober fläche 45 des Bildsensors 35 wird vorzugsweise in der EntfernungAnother embodiment of the invention is shown in FIG . At the point of impact of the laser, not shown in FIG. 9, on the object 3 , the light spot 4 is imaged on the ground glass 30 , with the aperture 27 being adjustable by means of the lens 28 in the form of the light beam 29 . This is not in all cases a true image in which the image of the light spot 4 is sharply imaged on the ground glass 30 : The distance between the lens 28 and the ground glass 30 is advantageously adjusted so that at an average distance of Object 3 to the lens 28, the image of the light spot 4 falls exactly on the ground glass 30 and there he sharp. At smaller distances of the object 3 , the focus of the light beam 29 is now behind, with larger distances in front of the screen 30th If the opening angle of the light cone 29 , due to a large aperture of the aperture 27 , now large, so may be on the screen 30, a diffuse light spot ent. The intensity distribution of the light beam 44 emerging from the ground glass 30 is club-shaped in a typical ground glass screen. The symmetry axis of this lobe, however, is identical to the axis of symmetry of the disc 30 striking the light 29th In a suitably arranged laser thus changes the exit direction of the light beam 44 from the ground glass 30 in dependence from the distance of the object. 3 The light beam 44 strikes the beam splitter 31 . The two light beams emanating from the beam splitter 31 now appear as if they came from the imaginary points 41 and 43 on the virtual ground glass 42 . At a distance a in front of the virtual ground glass 42 is now the virtual lens 40 , which corresponds to the real lens 28 . The two light bundles entering the lens 32 , which exit as light bundles 37 and 38 , are deflected by the lens 32 onto the surface 45 of the image sensor 35 and intersect to form an interference fringe pattern. The upper surface 45 of the image sensor 35 is preferably at a distance
hinter der Linse 32 angeordnet. Dabei kennzeichnet f die Brennweite der Linse 32, b den Abstand der Linse 32 zur virtuellen Mattscheibe 42 (entsprechend dem op tischen Abstand zur realen Mattscheibe 30) und a den Abstand der virtuellen Matt scheibe 42 zur virtuellen Linse 40 (entsprechend dem Abstand der Mattscheibe 30 zur Linse 28). Vorteilhaft wird dabei b = f gewählt.behind the lens 32 is arranged. In this case, f indicates the focal length of the lens 32 , b the distance of the lens 32 to the virtual ground glass 42 (corresponding to the optical distance to the real focusing screen 30 ) and a the distance of the virtual Matt disc 42 to the virtual lens 40 (corresponding to the distance of the ground glass 30th to the lens 28 ). Advantageously, b = f is chosen.
Um den Aufwand bei der Justage des Geräts sowie die Kosten gering zu halten, können mehrere optische Elemente zusammengefaßt werden. Die Spiegel 33 und 34 sowie der Strahlteiler 31 können beispielsweise sehr vorteilhaft in Form eines einzelnen Strahlteilerprismas realisiert werden.In order to keep the effort in the adjustment of the device and the cost low, several optical elements can be summarized. The mirrors 33 and 34 as well as the beam splitter 31 can for example be realized very advantageously in the form of a single beam splitter prism.
Fig. 10 zeigt ein weiteres Beispiel für die Ausführung der Erfindung zur Analyse der Abbildungseigenschaften eines optischen Systems. Fig. 10 erläutert dies anhand einiger dargestellter Teile des menschlichen Auges. Analoges trifft selbst verständlich auch auf andere in der Technik verwendete Linsensysteme mit dahin ter angeordnetem Bildempfänger bzw. Mattscheibe zu. Der von Laser 1 gebildete Laserstrahl 2 tritt durch das, aus Hornhaut 46, Linse 48 sowie sonstiger eventuell das Licht beeinflussender Elemente bestehende, Linsensystem hindurch und trifft in Form des konvergierenden Strahls 49 auf der Netzhaut 50 auf. Der dabei ent stehende Leuchtfleck 51 strahlt nun Licht in quasi alle Richtungen ab. Ein Teil die ses abgestrahlten Lichts fällt nun durch die Linse 48 und die Hornhaut 46 hindurch auf die Blende 52, die der Blende 16 in Fig. 6 bzw. der Blende 27 in Fig. 9 ent spricht. Der durch die Blende 52 fallende Teil des Lichts trifft dann auf die Linse 54. Die Linse 54 entspricht der Linse 17 in Fig. 6 bzw. der Linse 28 in Fig. 9. Der gezeichnete Kasten 53 repräsentiert also die Anordnung der Fig. 6 bzw. Fig. 9, die bereits beschrieben wurden. Der Strahlengang in der Umgebung des Linsensy stems 46/48 und der Netzhaut 50 sei anhand von drei verschiedenen Fällen noch mals in Fig. 11 dargestellt: Fig. 11a zeigt den Fall, daß die Netzhaut sich in Brenn weitenabstand hinter dem Linsensystem befindet. Der Laserstrahl 2 wird also scharf auf die Netzhaut fokussiert. Das durch das Linsensystem wieder austreten de und durch die Blende 52 teilweise abgeblendete Rückstreulicht von der Netz haut verläuft nun parallel zum Laserstrahl 2 und ist kollimiert. Fig. 11b zeigt den Fall, daß sich die Netzhaut zu nah hinter der Linse befindet bzw. die Brennweite der Linse zu groß ist. Das durch das Rückstreulicht hervorgerufene Lichtbündel ist nun divergent und anders gerichtet (nach unten orientiert). In Fig. 11c ergeben sich umgekehrte Verhältnisse. Die Brennweite der Linse ist zu klein bzw. der Ab stand zwischen Linse und Netzhaut zu groß. Das Rückstreulicht außerhalb des Auges ist nun konvergent und dabei nach oben gerichtet. Analog zu Fig. 6 und Fig. 9 ändert sich also die Richtung des austretenden Lichts, so daß der auf dem Bildsensor sichtbare Interferenzstreifenabstand variiert. Dieser Interferenzstreifen abstand ist ein Maß für das Verhältnis der Brennweite des Linsensystems im Auge zu dem Abstand dieses Linsensystems zur Netzhaut. Durch das Anbringen einer korrigierenden Linse vor dem Auge (Brille, Kontaktlinse) können die Abbildungs eigenschaften des Auges verändert werden. Eine derartige Linse, automatisch austauschbar oder vorzugsweise mit veränderbarer Brennweite (Zoom-Objektiv), kann auch als Teil der in Fig. 10 dargestellten Anordnung angebracht werden. Diese Vorsatzlinse kann dann automatisch, als Teil eines Regelkreises, so ange paßt werden, daß das aus dem Auge austretende Rückstreulicht parallel zum Laserstrahl 2 ist. Das Auge zusammen mit der sich ergebenden Vorsatzlinse bildet dann Objekte, die im Unendlichen liegen, scharf auf die Netzhaut ab. Um eventuell vorhandene Astigmatismusfehler der abbildenden Elemente im Auge zu erfassen, kann die gesamte in Fig. 10 gezeigte Anordnung relativ zum Auge gedreht werden, so daß die Brechkraft in mehreren Ebenen vermessen werden kann. Fig. 10 shows another example of the embodiment of the invention for analyzing the imaging properties of an optical system. Fig. 10 illustrates this with reference to some parts of the human eye shown. Of course, the same applies to other lens systems used in the art with image receiver or ground glass arranged thereafter. The laser beam 2 formed by laser 1 passes through the lens system consisting of cornea 46 , lens 48 and other elements that possibly influence the light and impinges on retina 50 in the form of converging beam 49 . The ent standing light spot 51 now emits light in virtually all directions. A portion of this radiated light now falls through the lens 48 and the cornea 46 through the aperture 52 , which speaks the aperture 16 in Fig. 6 and the aperture 27 in Fig. 9 ent. The portion of the light passing through the aperture 52 then strikes the lens 54 . The lens 54 corresponds to the lens 17 in Fig. 6 and the lens 28 in Fig. 9. The drawn box 53 thus represents the arrangement of Fig. 6 and Fig. 9, which have already been described. The beam path in the vicinity of the Linsensy stems 46/48 and the retina 50 is shown on the basis of three different cases even times in Fig. 11: Fig. 11a shows the case that the retina is located in Brennweite distance behind the lens system. The laser beam 2 is therefore focused sharply on the retina. The back through the lens system escaping de and partially dimmed by the aperture 52 back scattered light from the mesh now runs parallel to the laser beam 2 and is collimated. Fig. 11b shows the case that the retina is too close behind the lens or the focal length of the lens is too large. The light beam produced by the backscattering light is now divergent and directed differently (oriented downwards). In Fig. 11c reverse conditions arise. The focal length of the lens is too small or the distance between lens and retina was too large. The backscattered light outside the eye is now convergent, pointing upwards. Thus, analogous to Fig. 6 and Fig. 9 changes the direction of the emerging light, so that the visible interference fringes on the image sensor distance varies. This interference fringe distance is a measure of the ratio of the focal length of the lens system in the eye to the distance of this lens system to the retina. By attaching a corrective lens in front of the eye (glasses, contact lens), the imaging properties of the eye can be changed. Such a lens, automatically replaceable or preferably with variable focal length (zoom lens), may also be mounted as part of the arrangement shown in FIG . This ancillary lens can then automatically, as part of a control loop, be fitted so that the exiting the eye backscattering light is parallel to the laser beam 2 . The eye, together with the resulting auxiliary lens, then sharply focusses on the retina objects lying at infinity. In order to detect any astigmatism errors of the imaging elements in the eye, the entire arrangement shown in FIG. 10 can be rotated relative to the eye, so that the refractive power can be measured in several planes.
Bei der realen Vermessung der Brechkraft des Auges ist es notwendig, die im Auge vorhandene verstellbare Linse in einen bestimmten Zustand zu bringen. Dies kann medikamentös durch temporäre Lähmung der entsprechenden Muskeln, oder aber dadurch, daß dem Auge ein reelles Bild angeboten wird, erreicht werden. Fig. 12 skizziert eine entsprechende Anordnung. Das auf der Oberfläche 57 existie rende Bild, beispielsweise ein Schriftzug, wird mit Hilfe der Linse 56 und dem Strahlteiler bzw. Spiegel 55 dem Auge eingeblendet. Beträgt der Abstand d zwi schen Linse 56 und Oberfläche 57 genau die Brennweite der Linse 56, so er scheint das Bild für das Auge im Unendlichen. Dies ist beim Anpassen einer Fernbrille gewünscht. Soll das Auge sich auf eine kürzere Entfernung einstellen, so ist der Abstand d kleiner als die Brennweite der Linse 56 zu wählen. Das Ele ment 55 kann entweder als Strahlteiler oder aber als im Bereich des Laserstrahls 2 sowie des auf die Blende 52 fallenden rückgestreuten Lichts durchlässiger (ge bohrter) Spiegel ausgeführt sein.In the actual measurement of the refractive power of the eye, it is necessary to bring the present in the eye adjustable lens in a certain state. This can be achieved medically by temporary paralysis of the corresponding muscles, or by the fact that the eye is offered a real picture. Fig. 12 sketches a corresponding arrangement. The image existing on the surface 57 , for example a lettering, is faded into the eye with the aid of the lens 56 and the beam splitter or mirror 55 . If the distance d between the lens 56 and the surface 57 is exactly the focal length of the lens 56 , then the image for the eye appears at infinity. This is desired when fitting a pair of glasses. If the eye is to adjust to a shorter distance, the distance d is smaller than the focal length of the lens 56 to choose. The ele ment 55 may be embodied either as a beam splitter or as in the area of the laser beam 2 and the incident on the aperture 52 backscattered light permeable (ge drilled) mirror.
Das von der Oberfläche 57 ausgehende Licht sollte die Farbe des emittierten Laserlichts nicht enthalten. Ein beispielsweise zwischen dem Element 55 und der Empfangseinheit 53 angebrachter optischer Farbfilter, der nur die Wellenlänge des Laserlichts durchläßt, kann dann dazu verwendet werden, um nur das ursprünglich vom Laser stammende Licht zum Bildsensor durchzulassen. Die Gesamtintensität des auf die Netzhaut 50 fallenden Lichts sollte gering sein, so daß die Irisblende 47 möglichst groß geöffnet bleibt.The light emanating from the surface 57 should not contain the color of the emitted laser light. An optical color filter, for example, mounted between the element 55 and the receiving unit 53 , which transmits only the wavelength of the laser light, can then be used to pass only the light originally originating from the laser to the image sensor. The total intensity of the light falling on the retina 50 should be low, so that the iris diaphragm 47 remains as large as possible.
Die in allen genannten Ausführungsbeispielen verwendeten Bildsensoren können beispielsweise in Form eines CCD (Charge Coupled Device)-Zeilen- oder Flä chensensors ausgebildet werden. Diese Sensoren sind relativ billig, da sie in großem Maßstab industriell eingesetzt werden (z. B. in Fax-Geräten). Die Daten eines vorzugsweise verwendeten CCD-Zeilensensors werden zu einem Micro prozessor bzw. Microcontroller übertragen. Das zumeist analoge Ausgangssignal des Sensors muß mit Hilfe eines Analog-Digital-Wandlers in digitale Information, die dann der Microprozessor/-controller verarbeiten kann, umgesetzt werden. Bei geringen Auslesegeschwindigkeiten kann ein eventuell im Microcontroller integrier ter Analog-Digital-Wandler eingesetzt werden. Hohe Auslesegeschwindigkeiten in Kombination mit einem langsamen Prozessor/Controller erfordern u. U. einen ex ternen AD-Wandler sowie ein FIFO zur Datenpufferung. The image sensors used in all the mentioned embodiments can For example, in the form of a CCD (Charge Coupled Device) -Zeil- or Flä be formed chenensors. These sensors are relatively cheap as they are in industrial scale (eg in fax machines). The data a preferably used CCD line sensor become a micro processor or microcontroller transferred. The mostly analog output signal of the sensor must be converted to digital information by means of an analog-to-digital converter; then the microprocessor / controller can handle, be implemented. at low readout speeds can possibly be integrated in the microcontroller The analog-to-digital converter can be used. High readout speeds in Combination with a slow processor / controller may require U. an ex internal AD converter and a FIFO for data buffering.
Der Bildsensor wird in einem bestimmten Bereich durch zwei interferierende Streu lichtstrahlen (Fig. 3) beleuchtet. Die Lichtintensität auf dem Bildsensor, über der Pixelnummer aufgetragen, hat die Form eines "modulierten Bursts". Dieser Burst ähnelt sehr dem Ausgangssignal eines Laser-Doppler-Anemometers (LDA). Sowohl die Modulationsfrequenz (d. h. der Abstand der Interferenzstreifen) als auch, im Falle der Fig. 1 und Fig. 6, der Ort an dem der Burst auf dem Bildsensor erscheint, sind ein Maß für die Entfernung des Meßobjekts. Die Verarbeitung die ses Sensor-Ausgangs-Signals kann auf vielfältige Weise, ähnlich wie beim LDA, durchgeführt werden. Dabei kommen digitale Filter-, Fouriertransformations- (FFT-), sowie Korrelations-Verfahren in Frage. Nach geeignet durchgeführter Bandpaßfilterung liegt ein mit der Schwebungsfrequenz des Bursts um Null herum schwingendes Signal vor, so daß die Frequenz durch Bestimmung der Nulldurch gänge sowie die Position durch Ermittlung der Einhüllenden ermittelt werden können. Nach einer FFT zeigt das Spektrum einen signifikanten Peak, dessen Lage die Frequenz und dessen Phase die Position des Bursts darstellt. Das Korrelationsverfahren führt insbesondere bei der Positionsbestimmung zu guten Ergebnissen.The image sensor is illuminated in a certain area by two interfering scattered light beams ( Fig. 3). The light intensity on the image sensor, plotted over the pixel number, is in the form of a "modulated burst". This burst is very similar to the output of a laser Doppler anemometer (LDA). Both the modulation frequency (ie, the spacing of the interference fringes) and, in the case of Fig. 1 and Fig. 6, the place where the burst appear on the image sensor that are a measure of the distance of the measurement object. The processing of this sensor output signal can be performed in a variety of ways, similar to the LDA. Digital filter, Fourier transform (FFT) and correlation methods are possible. After properly performed bandpass filtering is present with the beat frequency of the burst around zero oscillating signal, so that the frequency can be determined by determining the Nulldurch courses and the position by determining the envelope. After an FFT, the spectrum shows a significant peak whose position represents the frequency and whose phase represents the position of the burst. The correlation method leads to good results, in particular when determining the position.
Eine alternative Ausbildungsform des Bildsensors sieht wie folgt aus: In allen beschriebenen Ausführungsformen der Optik (Fig. 1, Fig. 6 und Fig. 9) kann in eines der beiden, das Interferenzstreifenmuster auf dem Bildsensor erzeugenden, Lichtbündel (z. B. 15 in Fig. 1, 15 in Fig. 6 und 38 in Fig. 9) ein frequenzverschie bendes Element eingefügt werden. Fig. 7 verdeutlicht dies: Die Frequenz des einfallenden Lichtbündels 15 wird durch das Element 24 geändert, so daß die Frequenz des austretenden Lichtbündels 25 typischerweise um einige zig MHz anders ist. Als frequenzverschiebendes Element kommt beispielsweise ein ro tierendes optisches Gitter oder ein akustooptischer Modulator (sog. Bragg-Zelle) in Frage. Durch diese Frequenzverschiebung Δf eines der beiden, auf den Bild sensor fallenden, Lichtbündels steht nun das erzeugte Interferenzstreifenmuster nicht mehr still, sondern bewegt sich in Richtung der Normalen zu den Interferenz streifen (vgl. Laser-Doppler-Anemometer mit Frequenzshift). Das Interferenz streifenmuster läuft nun genau so schnell über den Bildsensor hinweg, daß an einem feststehenden Punkt auf dem Bildsensor Licht mit genau der Schwebungs frequenz Δf gesehen wird, mit der zuvor die Frequenz des einen der beiden auf den Bildsensor fallenden Lichtbündels geändert worden ist (z. B. Treiberfrequenz der Bragg-Zelle). Die Oberfläche des Bildsensors 8 bzw. 35 wird nun in Form der Spaltblende 21 realisiert, wobei die Spaltblende parallel zu den Interferenzstreifen orientiert sein soll. Der hinter der Spaltblende 21 (in Fig. 7) angeordnete Foto detektor 23 wird so groß ausgelegt, daß alles durch die Spaltblende 21 fallende Licht darauf fällt. Das im Detektor 23 erfaßte Licht ist nun ebenfalls mit der Fre quenz Δf moduliert. Diese Frequenz ist jedoch unabhängig vom Winkel 2 Θ zwischen den Lichtbündeln 25 und 14. Daher wird die Anordnung, wie in Fig. 8 skizziert, um den Strahlteiler 22 (halbdurchlässiger Spiegel) sowie einen zweiten Bildsensor, bestehend aus der Spaltblende 26 sowie dem dahinterliegenden Fotodetektor, ergänzt. Dieser Fotodetektor sieht nun ebenfalls, mit der Frequenz Δf moduliertes Licht. Die Spaltblende 26 sollte so angeordnet sein, daß sein Bild, bei einer Achsenspiegelung an der, auf der Oberfläche des Strahlteilers 22 in der Zeichenebene verlaufenden Achse, nicht genau auf die Spaltblende 21 abgebildet wird, sondern die Spaltblende 26 in Richtung der Normalen auf den Spalt parallel zur Oberfläche des Elements verschoben ist. Diese Verschiebung wird vorzugs weise so gewählt, daß sie dem ganzzahligen Vielfachen des Interferenzstreifen abstands Δx, bei einem mittleren angenommenen Winkel 2 Θ zwischen den Lichtbündeln 14 und 25 entspricht. Ändert sich nun die Entfernung zum Gegen stand 3 und somit der Winkel 2 Θ, führt dies zu einer Änderung des Interferenz streifenabstands Δx. Die beiden, von den beiden Fotodetektoren gesehenen Signale mit der Frequenz Δf und der Phasenlage von z. B. 360° ändern nun ihre Phasenbeziehung. Diese Phasenbeziehung ist also ein Maß für die Entfernung des Gegenstandes 3. Die Phasenlage kann durch beispielsweise in der Nach richtentechnik übliche Verfahren detektiert werden (vgl. auch Fractional Triggering- Methode; technische Beschreibung: Techniques for Improved Time Spectroscopy, Firma EG). Die beiden Spalte in Blende 21 bzw. 26 können, zur Steigerung der Lichtintensität auf den Fotodetektoren, als Mehrfachspalte, d. h. also als Gitter aus gebildet werden. Die Gitterkonstante sollte dabei etwa dem mittleren Interferenz streifenabstand Δx entsprechen. Wiederum müssen beim gedachten Umklappen des Gitters 26 auf das Gitter 21 die beiden Gitter leicht gegeneinander verschoben sein.An alternative embodiment of the image sensor is as follows: In all the described embodiments of the optical system (Figures 1, 6 and 9...) May in one of the two, producing the interference fringe pattern on the image sensor, light beams (e.g., 15 in. Fig. 1, 15 in Fig. 6 and 38 in Fig. 9) a frequency-shifting element bendes be inserted. Fig. 7 illustrates this: the frequency of the incident light beam 15 is changed by the element 24 so that the frequency of the emergent light beam 25 is typically different by a few tens of MHz. As a frequency-shifting element is, for example, a ro animal optical grating or an acousto-optic modulator (so-called. Bragg cell) in question. By this frequency shift .DELTA.f one of the two, falling on the image sensor, light beam is now no longer resting the generated interference fringe pattern, but moves in the direction of the normal to the interference fringe (see. Laser Doppler anemometer with frequency shift). The interference fringe pattern now runs just as fast over the image sensor, that at a fixed point on the image sensor light with exactly the beat frequency .DELTA.f is seen, with the previously the frequency of one of the two falling on the image sensor light beam has been changed (z B. Driver frequency of the Bragg cell). The surface of the image sensor 8 or 35 is now realized in the form of the slit diaphragm 21 , wherein the slit diaphragm should be oriented parallel to the interference fringes. The behind the slit 21 (in Fig. 7) arranged photo detector 23 is designed so large that all falling through the slit 21 light falls on it. The light detected in the detector 23 is now also modulated with the frequency .DELTA.f. However, this frequency is independent of the angle 2 Θ between the light beams 25 and 14th Therefore, the arrangement, as sketched in FIG. 8, is supplemented by the beam splitter 22 (semitransparent mirror) and a second image sensor, consisting of the slit diaphragm 26 and the photodetector behind it. This photodetector now also sees light modulated at the frequency Δf. The slit diaphragm 26 should be arranged so that its image, with an axial reflection at the, on the surface of the beam splitter 22 in the plane extending axis, not exactly on the slit 21 is imaged, but the slit aperture 26 in the direction of the normal to the gap moved parallel to the surface of the element. This shift is preferential chosen so that it corresponds to the integer multiple of the interference fringe distance Δx, at a mean assumed angle 2 Θ between the light beams 14 and 25 . If the distance to the object 3 changes, and thus the angle 2 Θ, this leads to a change in the interference fringe spacing Δx. The two, seen by the two photodetectors signals with the frequency .DELTA.f and the phase angle of z. For example, 360 ° will change their phase relationship. This phase relationship is thus a measure of the distance of the object 3 . The phase position can be detected by, for example, in the direction of the conventional technique (see also Fractional triggering method, technical description: Techniques for Improved Time Spectroscopy, company EG). The two gaps in aperture 21 or 26 can, to increase the light intensity on the photodetectors, as a multiple column, ie formed as a grid. The lattice constant should correspond approximately to the average interference strip spacing Δx. Again, the imaginary folding of the grid 26 on the grid 21, the two grids must be slightly shifted from each other.
Bei allen Anordnungen kann das auf dem Bildsensor erscheinende Interferenz streifenmuster, infolge von verzerrter Wellen der erzeugenden Lichtbündel, be dingt durch eine Fokussierung des Lichts, durch nichtideale optische Eigen schaften der Anordnung, sowie durch vorhandene Oberflächenstrukturen der beleuchteten Oberflächen 4 bzw. 50 geringfügig verzerrt sein, d. h. die einzelnen Abstände zwischen den Interferenzstreifen sind nicht exakt gleich. Um dies zu berücksichtigen, kommen zwei Verfahren in Frage: Kann ein Datenverarbeitungs system auf die Daten der Interferenzstreifenverteilung auf dem Bildsensor (wie z. B. im Falle der CCD-Zeile) zugreifen, so kann die Abweichung der das Interferenz streifenmuster erzeugenden Wellenfronten von der idealen ebenen Welle rech nerisch bestimmt (abgeschätzt) werden und daraus auf den wahren Schnittwinkel 2 Θ zwischen den Lichtbündeln geschlossen werden. Diese Kompensation der Verzerrungen der Interferenzstreifenabstände kann jedoch auch optisch durchge führt werden. Dabei muß der Laserstrahl 2 beispielsweise durch rotierende Keil platten, akustooptische Deflektoren, rotierende Polygonprismen oder bewegliche Spiegel möglichst schnell, mehr oder weniger weit, vorzugsweise in der Größen ordnung des Leuchtflecks 4 bzw. 51 auf der Oberfläche 3 bzw. 50, hin- und herbe wegt werden. Dieses "Vibrieren" des Auftreffpunktes 4 bzw. 51 auf der Oberfläche 3 bzw. 50 führt dann bei hinreichend großer Integrationsdauer der Bildsensoren 8, 23, 23′, 35 zu einer Mittelung über eine Vielzahl von Phasenzuständen der auf dem Bildsensor 8, 23, 23′, 35 fallenden Wellen, so daß sich ein von der Ober flächenstruktur der beleuchteten Oberfläche 3, 50 unabhängiges Interferenzmuster ergibt. Derselbe Effekt kann in Fig. 9 dadurch erzielt werden, daß die Mattscheibe 30 sich parallel zu ihrer Oberfläche bewegt. Vorzugsweise rotiert die Mattscheibe 30 dabei um die Rotationsachse 30′ hinreichend schnell.In all arrangements, the interference pattern appearing on the image sensor may be slightly distorted due to distorted waves of the generating light bundles due to focusing of the light, non-ideal optical properties of the device, as well as existing surface structures of the illuminated surfaces 4 and 50, respectively , ie the individual distances between the interference fringes are not exactly the same. In order to take this into account, two methods can be used: If a data processing system can access the data of the interference fringe distribution on the image sensor (as in the case of the CCD line), the deviation of the wavefronts generating the interference fringe pattern from the The ideal plane wave can be computationally determined (estimated) and from this the true intersection angle 2 Θ between the light bundles can be deduced. However, this compensation of the distortions of the interference fringe spacings can also be optically Runaway leads. In this case, the laser beam 2 plates, for example, by rotating wedge plates, acousto-optic deflectors, rotating polygon prisms or moving mirror as fast as possible, more or less far, preferably in the size order of the light spot 4 and 51 on the surface 3 and 50 , back and forth be moved. This "vibration" of the impact point 4 or 51 on the surface 3 or 50 then leads to a sufficiently large integration period of the image sensors 8 , 23 , 23 ', 35 to an average over a plurality of phase states of the on the image sensor 8 , 23 , 23rd ', 35 falling waves, so that one of the upper surface structure of the illuminated surface 3 , 50 results in independent interference pattern. The same effect can be achieved in Fig. 9 in that the ground glass 30 moves parallel to its surface. Preferably, the ground glass 30 rotates about the rotation axis 30 'sufficiently fast.
Claims (50)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19934344076 DE4344076A1 (en) | 1993-12-23 | 1993-12-23 | Optical determination of object distance, velocity and image quality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19934344076 DE4344076A1 (en) | 1993-12-23 | 1993-12-23 | Optical determination of object distance, velocity and image quality |
Publications (1)
Publication Number | Publication Date |
---|---|
DE4344076A1 true DE4344076A1 (en) | 1995-06-29 |
Family
ID=6505930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19934344076 Withdrawn DE4344076A1 (en) | 1993-12-23 | 1993-12-23 | Optical determination of object distance, velocity and image quality |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE4344076A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2757953A1 (en) * | 1996-12-26 | 1998-07-03 | Nec Corp | Line of Sight Speed Measurement Apparatus for Moving Objects |
DE10326516B3 (en) * | 2003-06-10 | 2005-02-03 | Institut für Physikalische Hochtechnologie e.V. | Fiber grating sensor system |
CN110763144A (en) * | 2019-11-06 | 2020-02-07 | 中铁隧道局集团有限公司 | Measuring device and method for rapidly measuring inner diameter size deviation of shield segment tunnel |
-
1993
- 1993-12-23 DE DE19934344076 patent/DE4344076A1/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2757953A1 (en) * | 1996-12-26 | 1998-07-03 | Nec Corp | Line of Sight Speed Measurement Apparatus for Moving Objects |
DE10326516B3 (en) * | 2003-06-10 | 2005-02-03 | Institut für Physikalische Hochtechnologie e.V. | Fiber grating sensor system |
CN110763144A (en) * | 2019-11-06 | 2020-02-07 | 中铁隧道局集团有限公司 | Measuring device and method for rapidly measuring inner diameter size deviation of shield segment tunnel |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1984770B1 (en) | Method and arrangement for a rapid and robust chromatic confocal 3d measurement technique | |
DE3886893T2 (en) | Device for three-dimensional measurement of a shape. | |
DE69612844T2 (en) | Wavefront determination with micromirror for self-reference and its adjustment | |
DE69029723T2 (en) | METHOD FOR DETERMINING THE SIZE AND SPEED OF SPHERICAL PARTICLES USING THE PHASE AND INTENSITY OF LIGHT DISTRIBUTED | |
EP1358839B1 (en) | Apparatus and method for determining geometric measured values for an eye | |
DE10392881B4 (en) | Frequency-scanning interferometer with diffuse-reflecting reference surface | |
EP1805480A2 (en) | Method and device for detecting the contour data and/or optical characteristics of a three-dimensional semi-transparent object | |
WO1999041568A9 (en) | Laser scanner measurement system | |
DE102004037137A1 (en) | Object`s distance measurement method, involves providing electrical reference signal to time-of-flight unit, mixing electromagnetic radiation falling on unit with reference signal and detecting delay time between signal and radiation | |
DE2354141C2 (en) | Optical measuring method for examining surfaces and device for carrying out the method | |
DE4211875A1 (en) | Optical rangefinder with electronic correction for spot eccentricity - evaluates measurement error due to e.g. inclination of object surface in terms of spot displacement at second photodetector. | |
DE19911671A1 (en) | Narrow band module inspection apparatus e.g. for excimer laser | |
EP3924764A1 (en) | Optical measurement device and multiple mirror | |
EP1636544B1 (en) | Optical inclinometer | |
DE102015016240B3 (en) | Transparent measuring probe for beam scanning | |
EP0610374B1 (en) | Process for measuring the inclination of boundary areas in an optical system | |
DE102006031822B3 (en) | Optical interference pattern intensity distribution electronic scanning method, involves inferring incident beam running in direction of adjacent diffraction array by optical grid and another incident beam, which is not influenced by grid | |
EP1314953A2 (en) | Interferometer and interferometric measuring procedure | |
DE3789901T2 (en) | DISTANCE MEASUREMENT BY DIFFERENTIATION. | |
DE4344076A1 (en) | Optical determination of object distance, velocity and image quality | |
DE60101335T2 (en) | DEVICE FOR OPTO-ELECTRONIC MEASUREMENT OF A THREE-DIMENSIONAL SHAPE | |
DE19545369C1 (en) | Surface distance and contour measurement by triangulation | |
DE3924290C2 (en) | ||
DE3815474A1 (en) | METHOD AND DEVICE FOR MEASURING THE FLOW RATE, ESPECIALLY IN A WIND TUNNEL | |
DE3114355A1 (en) | Optical arrangement for measuring the vibrations of an object having a reflecting surface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8139 | Disposal/non-payment of the annual fee |