WO2010037485A1 - Anordnungen und verfahren zur messung einer augenbewegung, insbesondere einer bewegung des augenhintergrunds - Google Patents

Anordnungen und verfahren zur messung einer augenbewegung, insbesondere einer bewegung des augenhintergrunds Download PDF

Info

Publication number
WO2010037485A1
WO2010037485A1 PCT/EP2009/006816 EP2009006816W WO2010037485A1 WO 2010037485 A1 WO2010037485 A1 WO 2010037485A1 EP 2009006816 W EP2009006816 W EP 2009006816W WO 2010037485 A1 WO2010037485 A1 WO 2010037485A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
detector
images
movement
arrangement according
Prior art date
Application number
PCT/EP2009/006816
Other languages
English (en)
French (fr)
Inventor
Daniel Bublitz
Stefan Richter
Original Assignee
Carl Zeiss Meditec Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102008049881A external-priority patent/DE102008049881A1/de
Priority claimed from DE102008049846A external-priority patent/DE102008049846A1/de
Application filed by Carl Zeiss Meditec Ag filed Critical Carl Zeiss Meditec Ag
Priority to US13/121,557 priority Critical patent/US8596786B2/en
Priority to JP2011528229A priority patent/JP5512682B2/ja
Publication of WO2010037485A1 publication Critical patent/WO2010037485A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation

Definitions

  • the invention relates to arrangements and methods for (fast) measuring a movement of a human eye, in particular an ocular fundus, by means of a two-dimensionally spatially resolving detector for repeatedly recording a potential field of motion of the eye in overview images.
  • motion tracking devices have been used for some time to measure and track eye movement, among other things for research, diagnostic and therapeutic purposes, such as in the treatment of the eye (cornea, retina) It is important to ensure that the entry of light energy actually occurs at the pre-treatment sites in the eye to prevent damage to the eye, either by shutting off the laser as soon as eye movement is detected or by tracking Further fields of application of the eye movement measurement are controls of machines, for example computers or motor vehicles.
  • the pupil of the eye is usually recorded by means of a high-speed video camera at a high frame rate repeatedly in succession in images, for example according to WO 01/89438 A2.
  • the relatively sharp boundary between the black eye pupil and the brighter iris can be identified by means of special image evaluation algorithms, for example by edge detection. From shifts of this boundary or the center of the pupil in successive images, in principle, the eye movement can be determined.
  • the images In order to capture low amplitude eye movements, the images must be taken with high optical resolution and sharpness.
  • the potential field of motion of the pupil must be included as much as possible in the pictures. The combination of both requirements requires the inclusion of images with a high number of pixels.
  • IR illumination is used on nonmydriatic fundus cameras during alignment and adjustment. Only for a color image is visible light irradiated for a short time, which typically leads to eyelid closure only after the end of the image exposure time.
  • the recorded IR images In order to determine a movement of the ocular fundus, in particular for tracking a laser, with sufficient accuracy, the recorded IR images must be evaluated in much larger image portions due to the low contrast than for an edge detection on the pupil. This further reduces the effective refresh rate.
  • the movement of the fundus can be determined from a change in position of larger blood vessels.
  • the ocular fundus since the ocular fundus has few major blood vessels, only a small portion of the ocular fundus may be responsible for this type of evaluation can be used so that only in a limited field of motion can be measured.
  • ocular fundus movements can be measured with scanning laser motion sequencing devices, such as those known from US 2006/228011, US 6,726,325, and US 5,644,642, which sample as highly structured a part as possible
  • the scan can be done in a circle around a thicker branching of the trunk or around the optic disc of the eye.
  • These systems have the advantage that the sensors can be adjusted to the geometry of the special eye, so that they only need a few points
  • the disadvantage is that a complex laser scanning unit (“Laser Scanner”) is needed.
  • the invention has for its object to improve an arrangement and a method of the type mentioned in such a way that with high spatial accuracy of measurement with little effort, a higher effective refresh rate is made possible as in the prior art.
  • the effective image repetition frequency can be significantly increased by combining a large-format, slow movement measurement arrangement with a fast, small-format movement measurement arrangement.
  • a second two-dimensional spatially resolving detector for repeatedly recording a respective section of the eye in excerpts, each containing a first number of pixels, with a second refresh rate, which is higher than the first refresh rate, and a computing unit for determining an intermediate shift based on two indirectly or immediately successive overview images and an intermediate shift on the basis of two indirectly or immediately successive, temporally recorded between these overview images section images and for determining a movement of the eye by concatenating this Shifts are arranged.
  • a shift in the sense of the invention is, for example, a two-dimensional vector.
  • a vector may describe an offset between the images.
  • the series connection of the two shifts for example by vectorial addition.
  • the second number of picture elements is smaller, in particular significantly smaller, than the first number of picture elements in order to achieve the higher second picture repetition frequency. Due to the smaller number of pixels of the section images, their evaluation for determining the displacement can also be carried out more quickly.
  • the increase in the effective image repetition frequency for the measurement of eye movement is achieved by this combination of features, in that the measurement of the eye movement, in simple terms, is interpolated in the time between the overview images taken with a low frame rate by means of the image sections taken at a higher image repetition frequency.
  • the shifts extracted from the high-resolution overview images comprising the entire potential motion field are used for recalibration in order to allow error propagation of the shifts extracted from the section images avoid.
  • the recalibration succeeds preferably by comparing the last taken overview image with always the same (constant), preferably taken at the beginning of the process earliest overview image.
  • a quasi-absolute starting position of the eye in this earliest overview image can be determined by manual or automatic (for example by means of image processing algorithms) comparison with a previous treatment planning acquisition.
  • the shifts from the smaller section images can be detected at high speed, so that a high effective refresh rate is achieved. Due to this high effective refresh rate, a therapy laser can be tracked to planned light energy inputs with high spatial-temporal accuracy.
  • the shifts are determined by comparing at least a respective part of the image content of the two images in question, for example by means of cross-correlation.
  • two-dimensional displacements can be determined with little effort.
  • the use of the correlation technique is described in US 5,786,804, the disclosure of which is incorporated herein in its entirety.
  • an optimized comparison may be made by primarily examining a direction of motion known from a previous displacement. Only if the test shows that the movement in this direction has not continued, are the other possible directions checked secondarily.
  • a first light source for illuminating the potential field of motion of the eye with incoherent light and a second light source for illuminating the respective section of the eye with coherent light are provided such that in the respective section by interfering coherent light scattered on the eye
  • the pattern is formed on the eye by the scattering of a microstructure in the volume of the eye tissue, for example in the dermis (Sclera) or the retina (retina).
  • the high - contrast stain pattern in the Sectional images can be a displacement and thus the eye movement in a low-contrast area of the eye, for example, the dermis or, in the infrared region, the retina, determined as the stain pattern moves in an eye movement to the same extent.
  • the shift of the speckle pattern can be determined, for example, by an image comparison by means of cross-correlation.
  • the correlation of speckle patterns is described for example in JP 60174905.
  • the second detector preferably has optics for enlarged imaging of the spot pattern on the second detector in such a way that individual spots of the spot pattern have a size which corresponds to or is greater than a size of picture elements of the second detector.
  • the shift of the patch pattern between the patch images can be detected with high accuracy.
  • the first light source for illuminating the fundus of the eye is advantageously formed with infrared light
  • the first detector for recording at least part of the fundus formed as a potential field of motion of the eye
  • the second light source for illuminating a respective section of the fundus with infrared light educated.
  • the second light source is designed for a flat illumination angle between 1 ° and 10 °.
  • a flat illumination angle between 1 ° and 10 °.
  • substantially punctiform formation of the second light source in the plane of the eye pupil disturbing light reflections on the eye, especially on the front of the cornea (cornea), can be avoided or at least reduced.
  • This can be realized, for example, by a substantially annular formation of a second light source plane conjugated to the eye pupil become.
  • the second light source is configured to focus the coherent light in a plane conjugate to a pupil of the eye. Due to the conjugated arrangement, the arrangement according to the invention can be integrated with little effort in a conventional fundus camera.
  • the imaging and illumination beam paths are formed so that a mean direction of incidence of the coherent light of the second light source to the eye substantially coincides with an observation direction of the second detector.
  • This can be achieved, for example, by coupling the imaging and illumination beam paths by means of one or more beam splitters / combiners. In particular, this succeeds with mirrors which reflect a geometric part of the respective beam path and leave untouched another geometric part, for example ring mirrors.
  • the arrangement according to the invention can be realized with little effort by using a detector of a laser mouse for the second detector.
  • detectors are available inexpensively due to large numbers and standard electronics.
  • An evaluation unit for the formation of correlations between successive cut-out forms is typically integrated in such detectors.
  • the second detector is arranged in a plane which is optically conjugate to the respective cutout.
  • the respective section lies in the case of measuring the movement of the fundus in the fundus, so that the second detector is conjugated to the fundus. Due to the conjugated arrangement, the arrangement according to the invention can be integrated with little effort in a conventional fundus camera.
  • the arrangement according to the invention can be used particularly advantageously in a fundus camera or in an ophthalmic laser system as a movement sequence arrangement for a therapy laser and / or for switching off the therapy laser upon detection of (for example, too great) eye movement be used.
  • a movement sequence arrangement for a therapy laser and / or for switching off the therapy laser upon detection of (for example, too great) eye movement be used can be used.
  • PDT photodynamic therapies
  • the fundus camera or the laser system preferably has a reflection-free front objective for illumination and detection or, in relation to the arrangement according to the invention, extra-axial illumination and detection. In this way, disturbing light reflections on the front lens can be avoided.
  • an eye movement with sufficient accuracy for some applications can also be determined exclusively by means of a single fast detector, by illuminating a dermis of the eye with coherent light during the repeated acquisition of detail images by means of the two-dimensionally spatially resolving detector, a staining pattern is produced by interfering light scattered on the dermis, wherein the detector must be designed to receive at least a part of the stain pattern in the excerpt images.
  • a shift in the sense of the invention is, for example, a two-dimensional vector.
  • such a vector may describe an offset between the images.
  • a movement of the eye can then be determined, for example by a computing unit, on the basis of an intermediate displacement of the speckle pattern, which is determined on the basis of two detail images.
  • a complex evaluation of the image content for example by edge detection, can be dispensed with, since at a high refresh rate only a few pixels must be evaluated in order to determine the displacement of the speckle pattern can.
  • the arithmetic unit determines the shift by comparing the image content of the respective clipping images, for example by means of correlation. After determining the movement, this is expediently output for further processing.
  • the detector has optics for magnifying the spot pattern onto the detector such that individual spots of the speckle pattern have a size about the size of pixels of the detector is equal to or greater than this. Thereby, the shift of the speckle pattern between the crop images can be detected with high accuracy.
  • the coherent light source is designed for a flat surface illumination between 10 .mu.m.times.10 .mu.m and 1 mm.times.1 mm.
  • a flat surface illumination between 10 .mu.m.times.10 .mu.m and 1 mm.times.1 mm.
  • the imaging and illumination beam paths are designed so that a mean direction of incidence of the coherent light on the eye substantially coincides with an observation direction of the detector. This can be achieved, for example, by coupling the imaging and illumination beam paths by means of one or more beam splitters / combiners.
  • the inventive arrangement can be realized with little effort by a detector of a laser mouse is used for the detector.
  • detectors are available inexpensively due to large numbers and standard electronics.
  • An evaluation unit for the formation of correlations between successive cut-out forms is typically integrated in such detectors.
  • the arrangement according to the invention can be used particularly advantageously in a fundus camera or in an ophthalmic laser system as a movement following arrangement for a therapy laser and / or for switching off the therapy laser upon detection of (for example, too great) eye movement.
  • surgical procedures can be performed with high accuracy.
  • the fundus camera or the laser system preferably has a reflection-free front objective for illumination and detection or, in relation to the arrangement according to the invention, extra-axial illumination and detection. In this way, disturbing light reflections on the front lens can be avoided.
  • Particularly preferred embodiments are those in which, for example by the arithmetic unit, more than two recorded clipping images are mosaically combined to form an overview image based on the respectively determined displacement, wherein the displacement of the speckle pattern for the respective last clipping image by comparing the image content of this clipping image with the image content of the overview picture.
  • the invention also includes computer programs and control units for carrying out one of the methods according to the invention, in particular data carriers containing such computer programs, and ophthalmological devices comprising an arrangement according to the invention.
  • FIG. 2 shows a high-quality infrared fundus image
  • FIG. 3 is a schematic representation of a fundus camera with fast and slow motion measurement arrangement
  • Fig. 5 is a captured on a demonstration eye excerpt image with a speckle pattern
  • Fig. 6 is a schematic representation of an eye movement follower arrangement with only one detector.
  • like parts bear like reference numerals.
  • the light backscattered from the surface may interfere with the space, leaving a typical pattern of granular structures or speckles.
  • a) Measurement of the distance of a scattering surface of a contact surface for example, for autofocusing.
  • a laser wave with a specific aperture is focused on the sample surface.
  • the backscattered from the surface of the sample light wave is registered with a camera sensor without optics.
  • the average size of the objective spots is determined by determining the half width of the autocorrelation function of the camera images. This half width is directly proportional to the diameter of the illuminated surface at fixed wavelength and distance of the camera from the scattering surface. Since the focusing of the illumination wave, the diameter of the illuminated surface depends on the distance of the scattering surface of the focal plane of the illumination wave, a distance sensor can be realized in this way.
  • a laser wave is imaged on the sample surface to be measured.
  • the backscattered from the sample Light is imaged on a camera sensor using an optical system. Due to the optical aberration, a certain part of the specimen is always imaged onto one point of the camera surface due to the aberrations and the diffraction diffraction.
  • the object distribution is folded with the point-spread function (PSF) of the optical system, resulting in the image taken in.
  • PSF point-spread function
  • the coherence of the laser wave makes it possible to interfere with and produce the light incident on a pixel of the camera sensor
  • This pattern of patches moves with the scattering surface during lateral displacements
  • the size and direction of the patches can be determined
  • the method is robust because it does not measure the structures of the sample, but rather the correlations in the backscattered light field, and the structuring of the image comes about through the coherent properties of the illumination wave in conjunction with the statistical phase variance the scattering on the surface.
  • For cross-correlation small, low-resolution camera sensors with a few hundred pixels can be used, which enables very high measuring speeds in the kilohertz range.
  • a three-dimensional displacement vector can be determined.
  • the changes in position and angle of a general area can be determined and thus the movements of a human eye in all degrees of freedom can be detected.
  • a similar method for two-dimensional displacement determination is used in computer optical mice in which the correlations in backscattered light from the table are measured.
  • the motion degrees of freedom of the system have to be determined. These degrees of freedom of movement can very much depend on the application to be implemented.
  • the eye can move along with the head in all three spatial directions or tilt by three angles.
  • the eye can rotate in the eye socket by two angles (horizontal, vertical). So to measure all the movements of the eye, so would the determination of three Shifts and three angle changes needed.
  • the movement of the eyes is measured and compensated for only about 1 second. In this case, not the head movements, but only the fast eye movements must be measured. In this case, two degrees of freedom (horizontal and vertical rotation angle), which can be measured with a sensor, are sufficient.
  • an autofocus sensor would be required to measure the removal of the cornea from the treatment device.
  • FIG. 1 shows a conventional fundus camera 1.
  • the illumination beam path B it has a light source 3 with optical elements 4 for focused illumination of the background 6 of the eye 2.
  • the imaging beam path A is reflected by a beam splitter 7 in the illumination beam path B and contains a detection optics 9 for imaging the ocular fundus 6 on the spatially resolving detector 10.
  • the fundus camera 1 is operated by a control unit 14, on the one hand with the detector 13 and on the other hand with the light source 3 is connected.
  • Fig. 2 shows an infrared fundus recording high quality. Nevertheless, the contrast is low, so that a shift between two successive shots, for example by correlation, only with great effort (correlation of large image areas) and therefore can be determined slowly.
  • FIG. 3 schematically illustrates a fundus camera 1 according to the invention with a fast and a slow movement measurement arrangement.
  • the slow motion measurement arrangement comprises a first incoherent IR light source 3 and a first IR detector 10 including detection optics 9A.
  • the fast motion measurement arrangement comprises a second, coherent IR light source 12 for generating a speckle pattern by interference and a second IR detector 15 including detection optics 9B for receiving the speckle pattern. Both detectors 10, 15 are connected to a computing unit (not shown), the continuous means of the first detector 10 overview images of the entire potential field of motion of the fundus 6 and by means of the second detector 15 accepts sectional images of the fundus 6.
  • the slow movement measurement arrangement has the advantage that it allows very reliably the displacement of the fundus in quasi-absolute coordinates and thus the reference to a previous Fundusfact. This makes a pre-planning of treatment / diagnostics possible.
  • relatively strong fundus deflections can be detected with the aid of the slow movement measurement arrangement with its relatively large image field.
  • the fast motion measurement arrangement has the advantages of a very short latency, a high speed and a high reliability of the motion measurement even when measuring in blurred and poorly structured fundus areas. It has the disadvantage that it can only be measured relative shifts, so that on this basis alone no treatment planning is possible.
  • computational errors add up by the pairwise comparison of consecutive images and thus can lead to larger errors in the coordinate computation of the total displacement due to error propagation.
  • the displacement of the fundus with respect to an earlier photograph is performed to schedule the slow motion measurement treatment.
  • the movement of the fundus is continuously detected. For example, twice a second, an overview image is captured and evaluated using the slow motion measurement arrangement, comparing it with the earlier planning shot. The movement determined therefrom serves to recalibrate the coordinate system of the fast motion measurement arrangement by concatenating the determined displacements.
  • the entire fundus 6 is illuminated with a first IR light source 3, for example an IR LED or a white light lamp with a spectral filter.
  • a first IR light source 3 for example an IR LED or a white light lamp with a spectral filter.
  • the light backscattered by the eye behind approximately 6 is imaged onto a spatially resolving detector 10, for example a CMOS or CCD camera.
  • a spatially resolving detector 10 for example a CMOS or CCD camera.
  • the hardware for this slow part of the combined motion measurement arrangement is already engineered in all nonmydriatic fundus cameras as an IR monitor or IR adjuster.
  • the first overview image may be the first image of a series of overview images, then the displacement of each further overview image relative to the first overview image is known.
  • a color image and an associated IR image of the fundus 6 are recorded with a standard fundus camera. With the aid of these images, the physician can plan the therapy / diagnosis to be performed, for example laser coagulation of areas of the ocular fundus 6.
  • a first IR overview image of the ocular fundus is recorded and correlated against the IR image of the therapy planning admission To determine the initial position of the fundus 6.
  • the following overview images are then always correlated against the first overview image or against the IR image of the therapy planning admission.
  • the image field for the correlation is selected to be so large that the maximum amplitude of eye movements that occur in the specific case of observation (for example, supported by an internal fixation), ie the potential field of motion of the fundus 6, are smaller than the size of the image field.
  • the great advantage of the illustrated method is that it is already technically provided in any non-mediary fundus camera, and thus can be realized very inexpensively.
  • the process involves the use of standard Monochrome cameras, such as those used in a nonmydriatic fundus camera, are expected to have a typical readout time of at least 50 ms.
  • the calculation of the cross-correlations should preferably take place in a standard computer contained in the fundus camera and thus requires, depending on the size of the image field to be correlated, approximately 500 ms.
  • the 550 ms process is much slower compared to other state of the art motion measurement or motion tracking devices. For this reason, the slow motion measurement arrangement is combined with a second, independent system that enables fast motion measurement.
  • the fast movement measurement arrangement For the fast movement measurement arrangement, a small part of the fundus 6 is illuminated with a coherent IR laser illumination 12.
  • the diameter of the coherently illuminated area in the fundus 6 is approximately between 1 ° and 10 ° at a flat angle, whereby the radiation exposure of the fundus 6 is as low as possible, and is thus significantly smaller than the field of view of the fundus camera detector 10.
  • the illuminated area is however with between 1 ° and 10 ° significantly larger than that of a typical confocal point illumination.
  • the light reflected from the ocular fundus 6 interferes in the form of a speckle pattern, which is recorded in section images with a spatially resolving detector 15 of low resolution.
  • the detector examples include CCD, CMOS or InGaAs cameras, wherein preferably only a small image section ("region of interest", ROI) is read out the spots caused by the coherent properties of the illumination source 12 are at least as large as the pixels of the detector 15.
  • region of interest preferably only a small image section ("region of interest", ROI) is read out the spots caused by the coherent properties of the illumination source 12 are at least as large as the pixels of the detector 15.
  • the relative shift to the respective predecessor image or to a first excerpt image after recording a further overview image is then calculated via a cross-correlation or, alternatively, estimated via a consideration of the optical flow.
  • Another way to increase the speed of calculating the cross-correlation is not to get all the points of cross-correlation to calculate. Only nine pixels (3x3) of the cross-correlation are calculated, namely the pixels of the expected shift between the two clipping images and its nearest neighbor in each direction. This is used to calculate the exact displacement (preferably with subpixel interpolation) and is used to estimate the shift to the next detail image.
  • the 9 pixels of the cross-correlation are calculated, which correspond to the expected shift between the two excerpts.
  • This type of evaluation can reduce the computation time by a factor of 100 for a typical pixel array (for example, 30x30 pixels). The only requirement that has to be fulfilled is that the acceleration of the displacement must not exceed a certain limit.
  • the size of the recorded clipping images or the sub-images of the clipping images used for the correlation is approximately 10 ⁇ 10 pixels to 100 ⁇ 100 pixels, so that only relatively few data have to be evaluated and the evaluation thus becomes significantly faster.
  • the fast movement measurement arrangement should preferably take a picture within 5 ms, read it and evaluate the displacement data.
  • the evaluation can be carried out in a standard computer or preferably in a special evaluation, for example in a so-called smart pixel camera.
  • a further advantage of the method is that due to the specific properties of "speckle" spots a measurement of the movement of the fundus 6 is possible even in the not optimally focused state of the detector 15 (the detection optics 9B).
  • the recording and evaluation of the sectional images of the fast motion measurement arrangement with a commercially available laser mouse sensor.
  • These sensors were designed to measure movements above a diffusing surface using specular reflections below the glancing angle, disclosed for example in US Pat. Nos. 7,161,682 B2 and US Pat US 5,786,804.
  • the principle of evaluation which is generally wired in the sensor, can surprisingly be used cost-effectively for the recording and evaluation of the patch pattern detail images.
  • no specular reflections are evaluated in the embodiment variant shown here, since they essentially result from a 3D surface curvature of a scattering surface, while a approximately 0.5 mm thick volume scattering layer (retina) is to be detected on the ocular fundus 6.
  • retina approximately 0.5 mm thick volume scattering layer
  • the detector 15 of the laser mouse sensor is arranged in the fundus camera 1 in a plane ZB (intermediate image plane) conjugated to the fundus.
  • ZB intermediate image plane
  • the aperture of the optical detection system 9B is limited such that the resulting detection spots are larger than the pixels of the detector 15 by a diaphragm, or by selecting a corresponding magnification.
  • a fundus camera 1 essentially corresponds to a biological microscope with the aid of which the fundus of the eye can be depicted. Due to the specific geometry of the human eye, special technical design possibilities are provided in a fundus camera 1 in order to be able to record the best possible image of the fundus 6.
  • One element of this specific optics is a ring illumination in the pupil 5 of the eye 2. This illumination is chosen to suppress a light reflection of the coma front in the detection beam path.
  • a lighting ring 3 with, for example, 5.5 mm outside diameter and 3.5 mm inner diameter in the cornea plane of the human eye 2 is irradiated as a virtual illumination source, which illuminates the fundus 6 as evenly as possible to field angles of about 22 °.
  • the radiation that is emitted, for example, by an annular fiber bundle 3 is imaged by optics 16 on an annular mirror 13, which is also in a conjugate to the eye pupil 5 level.
  • This second detector 15 is in an intermediate image plane ZB conjugated to the fundus 6.
  • coherent IR laser illumination 12 is collimated with optics 19A and then focused by a second lens 19B onto an annular aperture 14 located in a plane conjugate to the pupil plane, as shown in detail in FIG.
  • the coherent IR light is then superimposed on the illumination beam path of the first incoherent IR light source 3 via a dichroic or semitransparent mirror as beam combiner 20 (FIG. 3).
  • the IR light is then directed through the optics 16, 4 of the fundus camera 1 to the fundus 6 and illuminates there a surface with a flat diameter between 1 ° and 10 ° (Fig. 3).
  • the backscattered light from the fundus 6 is split off from the fundus beam path by another dichroic or partially transmissive mirror 7 and imaged onto the second detector 15 conjugated to the fundus 6 (FIG. 3).
  • the second detector 15 conjugated to the fundus 6
  • two types of spots are created, subjective spots and objective spots.
  • the subjective detection spots are utilized to measure the movement of the fundus 6, while the objective illumination spots are a disturbance.
  • the coherent illumination is preferably focused in a plane conjugated to the eye pupil (annular stop 14).
  • the illumination spots in the fundus 6 have a size which corresponds approximately to the beam diameter in the fundus 6 and therefore no longer pose a problem for the further method.
  • Semiconductor laser sources are preferably used for the second light source 12, but all other types of coherent light sources are also used Coherence lengths greater than about 0.5 mm (the coherence length should preferably be at least twice the thickness of the retina to allow good pattern patching on the detector 15) reach) and good spatial coherence for the method can be applied.
  • Another specific feature of fundus camera illumination optics is the introduction of antireflection points (apertures) in the illumination beam path, which are intended to prevent reflections on the front objective of the fundus camera into the detection beam path. If these antireflection points are not optimally adjusted or if some of the optical elements of the illumination beam path are slightly scattering due to dust particles, the detector image of the fundus camera shows a typical annular reflex which also occurs in the laser emission path and can lead to problems in the motion measurement. For this reason, the use of a reflex-free front lens is particularly preferred.
  • a second preferred variant when using standard lenses in the fundus camera is a slightly extra-axial illumination and an adapted extra-axial detection.
  • FIG. 5 shows a speckle pattern recorded with coherent illumination of an ocular fundus 6.
  • a contact lens is used to define the position of the eye in cases where a particularly high degree of accuracy is required (for example femtosecond-Lasik; fs- Lasik).
  • a movement of the eye is theoretically not possible.
  • shifts of the eye can occur parallel to the contact lens. In this case, these shifts would need to be measured very quickly to track or turn off the therapy laser. Exactly this measuring task solves the arrangement according to the invention with only one detector particularly simple and cheap.
  • the basic structure of the movement measuring arrangement is shown in FIG. 6 in a schematic representation.
  • the beam path of the Lasik laser (not shown) for the treatment of the cornea 16 remains unchanged.
  • a highly coherent laser beam of the light source 12 is focused on the dermis 17 of the eye 2 in addition to the contact glass 18 or at the edge thereof through the contact glass 18.
  • the sclera 17 Backscattered light is magnified by a detection optics (not shown) magnified on a single, spatially resolving camera sensor 15. Since only a very small image field has to be imaged onto the camera sensor 15, the requirements for the quality of the optics are relatively low.
  • the resolution of the optical system is chosen to match the measurement accuracy of the motion measurement arrangement to be achieved.
  • the resolution should be between 1 ⁇ m and 3 ⁇ m. This requires a lens with a relatively high numerical aperture. A field of view with a diameter of about ten "speckle" spots is sufficient for the evaluation of the data, which corresponds to a field of view of about 10 ⁇ m at a resolution of 1 .mu.m Such small image fields can be used with illumination with strictly monochromatic laser light with relatively little effort During the movement measurement, the camera sensor 15 records section images of the dermis 17 with a very high refresh rate and calculates the cross-correlation of immediately successive images be dimensioned in its image field so that the shift between two section images is never larger than the image field of the camera sensor 15. It should be noted in this arrangement that only the relative displacement between the images can be calculated e absolute orientation of the eye with the number of clipping images is uncertain as the measurement errors propagate.
  • the third detail image which is measured is not cross-correlated against the second detail image, but again against the first, and thus determines the shift to the first detail image. This succeeds as long as the relative displacements of the two images are smaller than the image field of the sensor.
  • the different clipping images are combined in a mosaic-like manner to a full-surface overview image with the help of the correlation algorithms. An additional image is then correlated exclusively with a part of this global overview image.
  • the position inaccuracy no longer increases with the number of images, but only with the relative distance to the center of the image first excerpt image.

Abstract

Neben einem ersten Detektor zur Aufnahme eines potentiellen Bewegungsfeldes des Auges in Übersichtsbilder dient ein zweiter Detektor zur Aufnahme eines jeweiligen Ausschnitts des Auges in Ausschnittsbilder. Aus einer Verschiebung zwischen zwei Übersichtsbildern und einer zwischenzeitigen Verschiebung zwischen zwei zwischen diesen Übersichtsbildern aufgenommenen Ausschnittsbildern wird die Augenbewegung durch Verketten dieser Verschiebungen ermittelt. Vorzugsweise werden die Ausschnitte mit kohärentem Licht derart beleuchtet, dass durch interferierendes, am Auge gestreutes Licht ein Fleckmuster entsteht. Alternativ wird die Lederhaut des Auges mit kohärentem Licht derart beleuchtet, dass durch an der Lederhaut gestreutes Licht ein Fleckmuster entsteht, von dem mittels eines ortsauflösenden Detektors ein jeweiliger Teil in Ausschnittsbilder aufgenommen wird, aus denen eine zwischenzeitige Verschiebung ermittelt wird.

Description

Anordnungen und Verfahren zur Messung einer Auqenbewequnq. insbesondere einer Bewegung des Auoenhinterqrunds
Die Erfindung betrifft Anordnungen und Verfahren zur (schnellen) Messung einer Bewegung eines menschlichen Auges, insbesondere eines Augenhintergrunds (Fundus), mittels eines zweidimensional ortsauflösenden Detektors zur wiederholten Aufnahme eines potentiellen Bewegungsfeldes des Auges in Übersichtsbilder.
In der Ophthalmologie und anderen Anwendungsgebieten werden seit geraumer Zeit Bewegungsfolgeanordnungen zur Messung und Nachverfolgung der Augenbewegung (engl, „eye tracker") unter anderem zu Forschungs-, Diagnose- und Therapiezwecken eingesetzt. Beispielsweise muss bei der Behandlung des Auges (Cornea, Retina) mittels eines chirurgischen Lasers sichergestellt werden, dass der Eintrag von Lichtenergie tatsächlich an den im Vorfeld der Behandlung zu planenden Orten im Auge erfolgt, um eine Schädigung des Auges zu vermeiden. Dies geschieht entweder durch Abschalten des Lasers, sobald eine Augenbewegung detektiert wird, oder durch Nachführen des Laserstrahls mittels der Beleuchtungsoptik entsprechend der gemessenen Augenbewegung. Weitere Einsatzgebiete der Augenbewegungsmessung sind Steuerungen von Maschinen, beispielsweise Computer oder Kraftfahrzeuge.
Im Stand der Technik wird die Pupille des Auges zumeist mittels einer Hochgeschwind ig keits- Videokamera bei einer hohen Bildwiederholfrequenz mehrfach in Folge in Bilder aufgenommen, beispielsweise gemäß WO 01/89438 A2. In den aufgenommenen Bildern kann mittels spezieller Bildauswertungsalgorithmen, beispielsweise durch Kantendetektion, die relativ scharfe Grenze zwischen schwarzer Augenpupille und hellerer Iris identifiziert werden. Aus Verschiebungen dieser Grenze beziehungsweise der Pupillenmitte in aufeinanderfolgenden Bildern kann prinzipiell die Augenbewegung ermittelt werden. Um Augenbewegungen geringer Amplitude erfassen zu können, müssen die Bilder mit hoher optischer Auflösung und Schärfe aufgenommen werden. Um auch Augenbewegungen großer Amplitude erfassen zu können, muss das potentielle Bewegungsfeld der Pupille möglichst weitgehend in die Bilder aufgenommen werden. Die Kombination beider Anforderungen erfordert die Aufnahme von Bildern mit einer hohen Pixelanzahl.
Das Auslesen derart großer Bilder aus dem Kamerasensor und das anschließende Auswerten zumindest von Bildteilen dauern jedoch aufgrund der Datenmenge relativ lange, so dass nur niedrige effektive Bildwiederholfrequenzen, also die Frequenzen für die Aufnahme einschließlich der anschließenden Auswertung, von maximal einigen 100 Hz erreicht werden können. Das menschliche Auge kann jedoch sogenannte Sakkadenbewegungen mit einer Geschwindigkeit bis zu etwa 600° pro Sekunde durchführen. Um bei solchen Geschwindigkeiten eine hohe Genauigkeit der Bewegungsmessung zu erreichen eine deutlich höhere effektive Bildwiederholfrequenz erreicht werden. Für das Nachführen eines Therapielasers während einer Femtosekunden-Lasik-Operation wäre beispielsweise eine effektive Bildwiederholfrequenz von mindestens 1 kHz erforderlich. Dies kann im Stand der Technik nur durch Einschränken der räumlichen Auflösung oder des betrachteten maximalen Bewegungsfelds erreicht werden.
Bei der Messung der Bewegung des Augenhintergrundes, insbesondere während einer Behandlung der Retina, beispielsweise einer Laserkoagulation, besteht darüber hinaus das Problem, dass die notwendige Beleuchtung nur im infraroten (IR) Wellenlängenbereich erfolgen darf, um eine Blendung und damit einen Lidschlussreflex zu vermeiden, dass aber der Augenhintergrund im IR-Bereich kontrastarm ist. Eine IR-Beleuchtung wird beispielsweise bei nonmydriatischen Funduskameras während der Ausrichtung und Einstellung verwendet. Erst für eine Farbbildaufnahme wird kurzzeitig sichtbares Licht eingestrahlt, was typischerweise erst nach Ende der Bildbelichtungszeit zu einem Lidschluss führt. Um eine Bewegung des Augenhintergrunds, insbesondere zum Nachführen eines Lasers, hinreichend genau zu ermitteln, müssen die aufgenommenen IR-Bilder aufgrund des geringen Kontrasts in deutlich größeren Bildteilen ausgewertet werden als für eine Kantendetektion an der Pupille. Dadurch verringert sich die effektive Bildwiederholfrequenz noch weiter. Alternativ kann die Bewegung des Augenhintergrunds aus einer Lageveränderung größerer Blutgefäßen ermittelt werden. Da der Augenhintergrund jedoch nur wenige größere Blutgefäße aufweist, kann nur ein geringer Teil des Augenhintergrunds für diese Art der Auswertung verwendet werden, so dass nur in einem eingeschränkten Bewegungsfeld gemessen werden kann.
Neben der Bewegungsmessung anhand von Videoaufnahmen können die Bewegungen speziell des Augenhintergrundes mit abtastenden (engl, „scanning") Laser-Bewegungsfolgeanordnungen gemessen werden. Diese Systeme, beispielsweise bekannt aus US 2006/228011 , US 6,726,325 und US 5,644,642, tasten einen möglichst stark strukturierten Teil des Augenhintergrundes konfokal mit einem Laserstrahl ab. Die Abtastung kann dabei kreisförmig um eine dickere Adernverzweigung oder um die Papille des Auges erfolgen. Diese Systeme haben den Vorteil, dass die Sensoren auf die Geometrie des speziellen Auges eingestellt werden können. Damit müssen sie nur wenige Punkte des Augenhintergrundes abtasten, um Bewegungen mit hoher Genauigkeit zu detektieren, und ermöglichen damit eine schnelle und unkomplizierte Auswertung der Bildinhalte. Nachteilig ist, dass eine aufwendige Laser-Abtasteinheit (engl. „Laser Scanner") benötigt wird.
Der Erfindung liegt die Aufgabe zugrunde, eine Anordnung und ein Verfahren der eingangs genannten Art so zu verbessern, dass bei hoher räumlicher Messgenauigkeit mit geringem Aufwand eine höhere effektive Bildwiederholfrequenz als im Stand der Technik ermöglicht wird.
Die Aufgabe wird erfindungsgemäß durch die in den unabhängigen Ansprüchen angegebenen Merkmalskombinationen gelöst.
Vorteilhafte Ausgestaltungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
Erfindungsgemäß wurde erkannt, dass bei der Messung einer Augenbewegung die effektive Bildwiederholfrequenz durch Kombination einer großformatigen, langsamen Bewegungsmessungsanordnung mit einer schnellen, kleinformatigen Bewegungsmessungsanordnung deutlich gesteigert werden kann.
Erfindungsgemäß ist daher vorgesehen, dass neben dem ersten zweidimensional ortsauflösenden Detektor zur wiederholten Aufnahme eines potentiellen Bewegungsfeldes des Auges in Übersichtsbilder, die jeweils eine erste Anzahl von Bildelementen enthalten, mit einer ersten Bildwiederholfrequenz zusätzlich ein zweiter zweidimensional ortsauflösender Detektor zur wiederholten Aufnahme eines jeweiligen Ausschnitts des Auges in Ausschnittsbilder, die jeweils eine erste Anzahl von Bildelementen enthalten, mit einer zweiten Bildwiederholfrequenz, die höher ist als die erste Bildwiederholfrequenz, und eine Recheneinheit zum Ermitteln einer zwischenzeitigen Verschiebung anhand zweier mittelbar oder unmittelbar aufeinanderfolgenden Übersichtsbilder und einer zwischenzeitigen Verschiebung anhand zweier mittelbar oder unmittelbar aufeinanderfolgenden, zeitlich zwischen diesen Übersichtsbildern aufgenommenen Ausschnittsbilder und zum Ermitteln einer Bewegung des Auges durch Verketten dieser Verschiebungen angeordnet sind. Eine Verschiebung im Sinne der Erfindung ist beispielsweise ein zweidimensionaler Vektor. Ein solcher Vektor kann beispielsweise einen Versatz zwischen den Bildern beschreiben. Als Verkettung wird im Sinne der Erfindung die Hintereinanderschaltung der beiden Verschiebungen verstanden, beispielsweise durch vektorielle Addition. Beim Ermitteln der Bewegung wird die ermittelte zweidimensionale Verschiebung zweckmäßigerweise auf eine zweidimensionale Drehbewegung umgerechnet. Nach dem Ermitteln der Bewegung wird diese zweckmäßigerweise zur Weiterverarbeitung ausgegeben.
Vorteilhafterweise ist die zweite Anzahl von Bildelementen kleiner, insbesondere signifikant kleiner, als die erste Anzahl von Bildelementen, um die höhere zweite Bildwiederholfrequenz zu erreichen. Aufgrund der geringeren Pixelanzahl der Ausschnittsbilder kann deren Auswertung zum Bestimmen der Verschiebung zudem schneller durchgeführt werden.
Die Steigerung der effektiven Bildwiederholfrequenz für die Messung der Augenbewegung gelingt durch diese Merkmalskombination, indem die Messung der Augenbewegung, vereinfacht ausgedrückt, in der Zeit zwischen den mit niedriger Bildwiederholfrequenz aufgenommenen Übersichtsbildern mittels der mit höherer Bildwiederholfrequenz aufgenommenen Ausschnittsbilder interpoliert wird. Die aus den das gesamte potentielle Bewegungsfeld umfassenden, hochauflösenden Übersichtsbildern extrahierten Verschiebungen dienen der Rekalibrierung, um eine Fehlerfortpflanzung der aus den Ausschnittsbildern extrahierten Verschiebungen zu vermeiden. Die Rekalibrierung gelingt dabei vorzugsweise durch Vergleich des jeweils zuletzt aufgenommenen Übersichtsbildes mit stets demselben (konstanten), vorzugsweise zu Beginn des Verfahrens aufgenommenen frühesten Übersichtsbild. Vorteilhafterweise kann eine quasi-absolute Ausgangslage des Auges in diesem frühesten Übersichtsbild durch manuellen oder automatischen (beispielsweise mittels Bildverarbeitungsalgorithmen) Vergleich mit einer früheren Behandlungsplanungsaufnahme ermittelt werden. Die Verschiebungen aus den kleineren Ausschnittsbildern können mit hoher Geschwindigkeit ermittelt werden, so dass eine hohe effektive Bildwiederholfrequenz erreicht wird. Durch diese hohe effektive Bildwiederholfrequenz kann ein Therapielaser bei der Positionierung auf geplante Lichtenergieeinträge mit hoher räumlich-zeitlicher Genauigkeit nachgeführt werden.
Vorzugsweise werden die Verschiebungen durch Vergleichen zumindest eines jeweiligen Teils des Bildinhalts der betreffenden zwei Bilder, beispielsweise mittels Kreuzkorrelation, ermittelt. Auf diese Weise können zweidimensionale Verschiebungen mit geringem Aufwand ermittelt werden. Die Verwendung der Korrelationstechnik ist in US 5,786,804 beschrieben, deren Offenbarungsgehalt hier in vollem Umfang einbezogen wird. Beispielsweise kann ein optimierter Vergleich erfolgen, indem primär eine Bewegungsrichtung geprüft wird, die aus einer vorhergehenden Verschiebung bekannt ist. Nur, wenn die Prüfung ergibt, dass sich die Bewegung in dieser Richtung nicht fortgesetzt hat, werden sekundär die übrigen möglichen Richtungen geprüft.
In einer besonders bevorzugten Ausführungsform ist eine erste Lichtquelle zum Beleuchten des potentiellen Bewegungsfeldes des Auges mit inkohärentem Licht und eine zweite Lichtquelle zum Beleuchten des jeweiligen Ausschnitts des Auges mit kohärentem Licht derart vorgesehen, dass in dem betreffenden Ausschnitt durch interferierendes, am Auge gestreutes kohärentes Licht ein Fleckmuster entsteht, und es ist der zweite Detektor zur Aufnahme zumindest eines Teils des Fleckmusters (engl, „speckle pattern") in das betreffende Ausschnittsbild ausgebildet. Das Fleckmuster entsteht am Auge durch die Streuung an einer Mikrostruktur im Volumen des Augengewebes, beispielsweise in der Lederhaut (Sklera) oder der Netzhaut (Retina). Durch Erzeugung und Aufnahme des kontrastreichen Fleckmusters in die Ausschnittsbilder kann eine Verschiebung und damit die Augenbewegung auch in einem kontrastarmen Bereich des Auges, beispielsweise der Lederhaut oder, im Infrarotbereich, der Netzhaut, ermittelt werden, da sich das Fleckmuster bei einer Augenbewegung im gleichen Maße bewegt. Die Verschiebung des Fleckmusters kann beispielsweise durch einen Bildvergleich mittels Kreuzkorrelation ermittelt werden. Die Korrelation von Fleckmustern ist beispielsweise in JP 60174905 beschrieben.
Dabei weist der zweite Detektor vorzugsweise eine Optik zum vergrößerten Abbilden des Fleckmusters auf den zweiten Detektor derart auf, dass einzelne Flecken des Fleckmusters eine Größe aufweisen, die etwa einer Größe von Bildelementen des zweiten Detektors entspricht oder größer ist als diese. Dadurch kann die Verschiebung des Fleckmusters zwischen den Ausschnittsbildern mit hoher Genauigkeit ermittelt werden.
Zur Messung einer Bewegung eines Hintergrunds des Auges wird vorteilhafterweise die erste Lichtquelle zum Beleuchten des Augenhintergrunds mit Infrarotlicht ausgebildet, der erste Detektor zur Aufnahme zumindest eines Teils des Augenhintergrunds als potentielles Bewegungsfeld des Auges ausgebildet und die zweite Lichtquelle zum Beleuchten eines jeweiligen Ausschnitts des Augenhintergrunds mit Infrarotlicht ausgebildet. Durch die Verwendung von Infrarotlicht werden bei der Messung der Bewegung des Augenhintergrunds eine Blendung und damit ein Lidschlussreflex vermieden.
Vorzugsweise ist die zweite Lichtquelle für einen ebenen Ausleuchtungswinkel zwischen 1° und 10° ausgebildet. Dadurch wird eine zu hohe Energiedichte, wie sie beispielsweise bei einer konfokalen Punktbeleuchtung entsteht, vermieden.
Durch im wesentlichen punktförmige Ausbildung der zweiten Lichtquelle in der Ebene der Augenpupille können störende Lichtreflexe am Auge, insbesondere an der Vorderseite der Augenhornhaut (Cornea), vermieden oder zumindest verringert werden. Dies kann beispielsweise durch eine im wesentlichen ringförmige Ausbildung einer zur Augenpupille konjugierten zweiten Lichtquellenebene realisiert werden.
Vorzugsweise ist die zweite Lichtquelle ausgebildet zur Fokussierung des kohärenten Lichts in eine Ebene, die zu einer Pupille des Auges konjugiert ist. Durch die konjugierte Anordnung kann die erfindungsgemäße Anordnung mit geringem Aufwand in einer herkömmlichen Funduskamera integriert werden.
Vorteilhafterweise sind die Abbildungs- und Beleuchtungsstrahlengänge so ausgebildet, dass eine mittlere Einfallsrichtung des kohärenten Lichts der zweiten Lichtquelle auf das Auge im wesentlichen mit einer Beobachtungsrichtung des zweiten Detektors übereinstimmt. Dies kann beispielsweise durch Kopplung der Abbildungs- und Beleuchtungsstrahlengänge mittels eines oder mehrerer Strahlteiler/-vereiniger realisiert werden. Insbesondere gelingt dies mit Spiegeln, die einen geometrischen Teil des jeweiligen Strahlengangs reflektieren und einen anderen geometrischen Teil unberührt lassen, beispielsweise Ringspiegel.
Die erfindungsgemäße Anordnung kann mit geringem Aufwand realisiert werden, indem für den zweiten Detektor ein Detektor einer Lasermaus verwendet wird. Solche Detektoren sind aufgrund großer Stückzahlen und Standardelektronik kostengünstig verfügbar. Eine Auswerteelektronik zur Korrelationsbildung zwischen aufeinanderfolgenden Ausschnittsbilden ist in solchen Detektoren typischerweise integriert.
Vorzugsweise ist der zweite Detektor in einer Ebene angeordnet, die zu dem jeweiligen Ausschnitt optisch konjugiert ist. Der jeweilige Ausschnitt liegt im Falle der Messung der Bewegung des Augenhintergrunds im Augenhintergrund, so dass der zweite Detektor zum Augenhintergrund konjugiert ist. Durch die konjugierte Anordnung kann die erfindungsgemäße Anordnung mit geringem Aufwand in einer herkömmlichen Funduskamera integriert werden.
Die erfindungsgemäße Anordnung kann besonders vorteilhaft in einer Funduskamera oder in einem ophthalmologischen Lasersystem als Bewegungsfolgeanordnung für einen Therapielaser und/oder zum Abschalten des Therapielasers bei Detektion einer (beispielsweise zu großen) Augenbewegung eingesetzt werden. Dadurch können chirurgische Eingriffe, Laserkoagulationen oder photodynamische Therapien (PDT) im Augenhintergrund mit hoher Genauigkeit durchgeführt werden.
Vorzugsweise weist die Funduskamera beziehungsweise das Lasersystem ein reflexfreies Frontobjektiv für Beleuchtung und Detektion oder, in Bezug auf die erfindungsgemäße Anordnung, eine außeraxiale Beleuchtung und Detektion auf. Auf diese Weise können störende Lichtreflexe am Frontobjektiv vermieden werden.
Erfindungsgemäß wurde weiter erkannt, dass eine Augenbewegung mit für einige Anwendungen ausreichender Genauigkeit auch ausschließlich mittels eines einzelnen schnellen Detektors ermittelt werden kann, indem während der wiederholten Aufnahme von Ausschnittsbildern mittels des zweidimensional ortsauflösenden Detektors eine Lichtquelle eine Lederhaut des Auges mit kohärentem Licht derart beleuchtet wird, dass durch interferierendes, an der Lederhaut gestreutes Licht ein Fleckmuster entsteht, wobei der Detektor zur Aufnahme zumindest eines Teils des Fleckmusters in die Ausschnittsbilder ausgebildet sein muss. Eine Verschiebung im Sinne der Erfindung ist beispielsweise ein zweidimensionaler Vektor. Ein solcher Vektor kann beispielsweise einen Versatz zwischen den Bildern beschreiben. Eine Bewegung des Auges kann dann, beispielsweise durch eine Recheneinheit, anhand einer zwischenzeitigen Verschiebung des Fleckmusters ermittelt werden, die anhand zweier Ausschnittsbilder ermittelt wird. Auf eine aufwendige Auswertung des Bildinhalts, beispielsweise durch eine Kantendetektion, kann dadurch verzichtet werden, da bei einer hohen Bildwiederholfrequenz nur wenige Pixel ausgewertet werden müssen, um die Verschiebung des Fleckmusters ermitteln zu können. Vorzugsweise ermittelt die Recheneinheit die Verschiebung durch Vergleichen des Bildinhalts der betreffenden Ausschnittsbilder, beispielsweise mittels Korrelation. Nach dem Ermitteln der Bewegung wird diese zweckmäßigerweise zur Weiterverarbeitung ausgegeben.
Vorzugsweise weist der Detektor eine Optik zum vergrößerten Abbilden des Fleckmusters auf den Detektor derart auf, dass einzelne Flecken des Fleckmusters eine Größe aufweisen, die etwa einer Größe von Bildelementen des Detektors entspricht oder größer ist als diese. Dadurch kann die Verschiebung des Fleckmusters zwischen den Ausschnittsbildern kann mit hoher Genauigkeit ermittelt werden.
Vorzugsweise ist die kohärente Lichtquelle für eine ebene Flächenausleuchtung zwischen 10 μm x 10 μm und 1 mm x 1 mm ausgebildet. Dadurch wird eine zu hohe Energiedichte, wie sie beispielsweise bei einer konfokalen Punktbeleuchtung entsteht, vermieden.
Vorteilhafterweise sind die Abbildungs- und Beleuchtungsstrahlengänge so ausgebildet, dass eine mittlere Einfallsrichtung des kohärenten Lichts auf das Auge im wesentlichen mit einer Beobachtungsrichtung des Detektors übereinstimmt. Dies kann beispielsweise durch Kopplung der Abbildungs- und Beleuchtungsstrahlengänge mittels eines oder mehrerer Strahlteiler/-vereiniger realisiert werden.
Die erfindungsgemäße Anordnung kann mit geringem Aufwand realisiert werden, indem für den Detektor ein Detektor einer Lasermaus verwendet wird. Solche Detektoren sind aufgrund großer Stückzahlen und Standardelektronik kostengünstig verfügbar. Eine Auswerteelektronik zur Korrelationsbildung zwischen aufeinanderfolgenden Ausschnittsbilden ist in solchen Detektoren typischerweise integriert.
Die erfindungsgemäße Anordnung kann besonders vorteilhaft in einer Funduskamera oder in einem ophthalmologischen Lasersystem als Bewegungsfolgeanordnung für einen Therapielaser und/oder zum Abschalten des Therapielasers bei Detektion einer (beispielsweise zu großen) Augenbewegung eingesetzt werden. Dadurch können chirurgische Eingriffe mit hoher Genauigkeit durchgeführt werden.
Vorzugsweise weist die Funduskamera beziehungsweise das Lasersystem ein reflexfreies Frontobjektiv für Beleuchtung und Detektion oder, in Bezug auf die erfindungsgemäße Anordnung, eine außeraxiale Beleuchtung und Detektion auf. Auf diese Weise können störende Lichtreflexe am Frontobjektiv vermieden werden. Besonders bevorzugt sind Ausgestaltungen, in denen, beispielsweise durch die Recheneinheit, mehr als zwei aufgenommene Ausschnittsbilder anhand der jeweils ermittelten Verschiebung mosaikartig zu einem Übersichtsbild zusammengesetzt werden, wobei die Verschiebung des Fleckmusters für das jeweils zuletzt aufgenommene Ausschnittsbild durch Vergleichen des Bildinhalts dieses Ausschnittsbild mit dem Bildinhalt des Übersichtsbilds. Dadurch kann die Fehlerfortpflanzung im Laufe der Verschiebung während mehrerer Folgeaufnahmen verringert werden.
Die Erfindung umfasst auch Computerprogramme und Steuereinheiten zur Durchführung eines der erfindungsgemäßen Verfahren, insbesondere Datenträger, die solche Computerprogramme enthalten, sowie ophthalmologische Geräte, die eine erfindungsgemäße Anordnung umfassen.
Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen näher erläutert.
In den Zeichnungen zeigen:
Fig. 1 eine herkömmliche Funduskamera,
Fig. 2 eine Infrarot-Fundusaufnahme hoher Qualität,
Fig. 3 eine schematische Darstellung einer Funduskamera mit schneller und langsamer Bewegungsmessungsanordnung,
Fig. 4 eine schematische Darstellung eines Beleuchtungsstrahlengangs,
Fig. 5 ein an einem Demonstrationsauge aufgenommenes Ausschnittsbild mit einem Fleckmuster und
Fig. 6 eine schematische Darstellung einer Augenbewegungsfolgeanordnung mit nur einem Detektor. In allen Zeichnungen tragen übereinstimmende Teile gleiche Bezugszeichen.
Beleuchtet man eine streuende Oberfläche, beispielsweise Papier oder eine Wand, mit einem Laser oder einer anderen räumlich und zeitlich kohärenten Lichtquelle, so kann das von der Oberfläche rückgestreute Licht im Raum interferieren, wobei ein typisches Muster körniger Strukturen oder Flecken (engl, „speckies") entsteht, im Sinne der Erfindung als Fleckenmuster bezeichnet. Man unterscheidet zwischen subjektiven und objektiven Flecken. Subjektive Flecken entstehen, wenn die streuende Oberfläche mit einer Optik auf den Kamerasensor abgebildet wird. Die subjektiven Flecken sind genau so groß wie die optische Auflösung des abbildenden Systems. Das dann registrierte Fleckenmuster bewegt sich bei Verschiebungen der streuenden Oberfläche mit und ermöglicht somit eine quantitative Bestimmung der Verschiebung. Objektive Flecken entstehen, wenn der Kamerasensor ohne Optik in dem von der Probe rückgestreuten Licht angeordnet wird. Objektive Flecken reagieren auf Kippungen der Probenoberfläche. Die Größe der objektiven Flecken errechnet sich aus der Wellenlänge der Strahlung, dem Durchmesser der beleuchteten Probenfläche und dem Abstand zwischen Probenfläche und Kamerasensor. Folgende Größen können, insbesondere an einem Auge, unter anderem mit der Flecken-Korrelationstechnik gemessen werden:
a) Messung des Abstandes einer streuenden Fläche von einer Anlagefläche, beispielsweise für Autofokussierung. Es wird eine Laserwelle mit einer bestimmten Apertur auf die Probenoberfläche fokussiert. Die von der Oberfläche der Probe rückgestreute Lichtwelle wird mit einem Kamerasensor ohne Optik registriert. Es wird die mittlere Größe der objektiven Flecken bestimmt, indem die Halbwertsbreite der Autokorrelationsfunktion der Kamerabilder bestimmt wird. Diese Halbwertsbreite ist bei fester Wellenlänge und Abstand der Kamera von der streuenden Fläche direkt proportional zum Durchmesser der beleuchteten Fläche. Da durch die Fokussierung der Beleuchtungswelle der Durchmesser der beleuchteten Fläche vom Abstand der streuenden Fläche von der Fokusebene der Beleuchtungswelle abhängt, kann auf diese Weise ein Abstandssensor realisiert werden.
b) Messung der Verschiebung einer streuenden Fläche: Eine Laserwelle wird auf die zu vermessende Probenoberfläche abgebildet. Das von der Probe rückgestreute Licht wird mit Hilfe eines optischen Systems auf einen Kamerasensor abgebildet. Durch die Optik wird aufgrund der Bildfehler und der Beugungsunschärfe immer ein bestimmter Teil der Probe auf einen Punkt der Kamerafläche abgebildet. Die Objektverteilung wird dabei mit der Punktbildfunktion (engl, „point-spread function"; PSF) des optischen Systems gefaltet und ergibt so das aufgenommene Bild. Durch die Kohärenz der Laserwelle kann das Licht, das auf einem Bildpunkt des Kamerasensors fällt, interferieren und erzeugt dadurch das Fleckenmuster mit Flecken, die im Mittel so groß sind wie die Halbwertsbreite der beugungsbegrenzten PSF. Dieses Fleckenmuster bewegt sich bei lateralen Verschiebungen mit der streuenden Fläche mit. Durch Bilden der Kreuzkorrelation zwischen zwei nacheinander aufgenommenen Bildern des Fleckenmusters können die Größe und die Richtung der relativen Verschiebung zwischen den beiden Bildern bestimmt werden. Das Verfahren ist robust, da nicht die Strukturen der Probe vermessen werden, sondern die Korrelationen im rückgestreuten Lichtfeld. Die Strukturierung des Bildes kommt durch die kohärenten Eigenschaften der Beleuchtungswelle in Verbindung mit der statistischen Phasenvarianz durch die Streuung an der Oberfläche zustande. Für die Kreuzkorrelation können kleine, geringauflösende Kamerasensoren mit wenigen hundert Pixeln eingesetzt werden, was sehr hohe Messgeschwindigkeit im Kilohertz-Bereich ermöglicht. Durch Kombination der Vermessung der objektiven und der subjektiven Flecken, kann ein dreidimensionaler Verschiebungsvektor ermittelt werden. Mit mehreren Sensoren können die Lage- und Winkeländerungen einer allgemeinen Fläche bestimmt werden und so die Bewegungen eines menschlichen Auges in allen Freiheitsgraden erfasst werden. Ein ähnliches Verfahren für die zweidimensionale Verschiebungsbestimmung wird bei optischen Computermäusen eingesetzt, bei denen die Korrelationen im vom Tisch rückgestreuten Licht gemessen werden.
Um einen auf Geschwindigkeit und Genauigkeit optimierte Bewegungsmessung zu realisieren, müssen zunächst die Bewegungsfreiheitsgrade des Systems bestimmt werden. Diese Bewegungsfreiheitsgrade können sehr stark von der zu realisierenden Anwendung abhängen. Prinzipiell kann sich das Auge mitsamt dem Kopf in allen drei Raumrichtungen verschieben bzw. auch um drei Winkel verkippen. Zusätzlich kann sich das Auge in der Augenhöhle um zwei Winkel (horizontal, vertikal) drehen. Um alle Bewegungen des Auges zu messen, wäre also die Bestimmung von drei Verschiebungen und drei Winkeländerungen nötig. Für einige ophthalmologische Anwendungen wird aber die Bewegung der Augen nur etwa 1 Sekunde lang gemessen und kompensiert. In diesem Fall müssen nicht die Kopfbewegungen, sondern nur die schnellen Augenbewegungen vermessen werden. In diesem Fall reichen zwei Freiheitsgrade (horizontaler und vertikaler Drehwinkel), die mit einem Sensor vermessen werden können. Außerdem wäre im Fall der refraktiven Therapie der Cornea ein Autofokussensor erforderlich, der die Entfernung der Cornea vom Behandlungsgerät misst.
Zunächst soll die Messung der Bewegung des Augenhintergrunds in einer Funduskamera betrachtet werden. Fig. 1 zeigt zu diesem Zweck eine herkömmliche Funduskamera 1. Sie weist im Beleuchtungsstrahlengang B eine Lichtquelle 3 mit optischen Elementen 4 zur fokussierten Beleuchtung des Hintergrunds 6 des Auges 2 auf. Der Abbildungsstrahlengang A ist über einen Strahlteiler 7 in den Beleuchtungsstrahlengang B eingespiegelt und enthält eine Detektionsoptik 9 zur Abbildung des Augenhintergrunds 6 auf den ortsauflösenden Detektor 10. Die Funduskamera 1 wird mittels einer Steuereinheit 14 betrieben, die einerseits mit dem Detektor 13 und andererseits mit der Lichtquelle 3 verbunden ist.
Fig. 2 zeigt eine Infrarot-Fundusaufnahme hoher Qualität. Dennoch ist der Kontrast gering, so dass eine Verschiebung zwischen zwei aufeinanderfolgenden Aufnahmen, beispielsweise durch Korrelation, nur mit großem Aufwand (Korrelation großer Bildbereiche) und daher langsam ermittelt werden kann.
In Fig. 3 ist eine erfindungsgemäß verbesserte Funduskamera 1 mit einer schnellen und einer langsamen Bewegungsmessungsanordnung schematisch dargestellt. Die langsame Bewegungsmessungsanordnung umfasst eine erste, inkohärente IR- Lichtquelle 3 und einen ersten IR-Detektor 10 einschließlich Detektionsoptik 9A. Die schnelle Bewegungsmessungsanordnung umfasst eine zweite, kohärente IR- Lichtquelle 12 zur Erzeugung eines Fleckenmusters durch Interferenz und einen zweiten IR-Detektor 15 einschließlich Detektionsoptik 9B zur Aufnahme des Fleckenmusters. Beide Detektoren 10, 15 sind mit einer Recheneinheit verbunden (nicht dargestellt), die mittels des ersten Detektors 10 fortlaufend Übersichtsbilder vom gesamten potentiellen Bewegungsfeld des Augenhintergrunds 6 und mittels des zweiten Detektors 15 Ausschnittsbilder des Augenhintergrunds 6 aufnimmt.
Die langsame Bewegungsmessungsanordnung hat den Vorteil, dass sie sehr zuverlässig die Verschiebung des Augenhintergrundes in quasi-absoluten Koordinaten und damit den Bezug auf eine frühere Fundusaufnahme ermöglicht. Dies macht eine Vorplanung der Behandlung/Diagnostik möglich. Außerdem können mit Hilfe der langsamen Bewegungsmessungsanordnung mit ihrem relativ großen Bildfeld relativ starke Fundusauslenkungen detektiert werden. Die schnelle Bewegungsmessungsanordnung hat die Vorteile einer sehr kurzen Latenzzeit, einer hohen Geschwindigkeit und einer hohen Zuverlässigkeit der Bewegungsmessung auch bei der Messung in unscharfen und wenig strukturierten Fundusbereichen. Sie hat den Nachteil, dass er nur relative Verschiebungen messbar sind, so dass allein auf dieser Basis keine Behandlungsplanung möglich ist. Außerdem summieren sich Berechnungsfehler durch den paarweisen Vergleich aufeinanderfolgender Bilder auf und können so durch Fehlerfortpflanzung zu größeren Fehlern in der Koordinatenberechnung der gesamten Verschiebung führen.
Aus diesem Grund wird zunächst die Verschiebung des Augenhintergrundes im Bezug auf eine frühere Aufnahme zur Planung der Behandlung mit der langsamen Bewegungsmessungsanordnung durchgeführt. Danach wird mit der schnellen Bewegungsmessungsanordnung die Bewegung des Augenhintergrundes fortlaufend detektiert. Beispielsweise zweimal pro Sekunde wird ein Übersichtsbild mit der langsamen Bewegungsmessungsanordnung aufgenommen und ausgewertet, indem es mit der früheren Planungsaufnahme verglichen wird. Die daraus ermittelte Bewegung dient durch Verkettung der ermittelten Verschiebungen zur Rekalibrierung des Koordinatensystems der schnellen Bewegungsmessungsanordnung.
Funktionsprinzip der langsamen Bewegungsmessungsanordnung: Der gesamte Augenhintergrund 6 wird mit einer ersten IR-Lichtquelle 3, beispielsweise einer IR-LED oder einer Weißlichtlampe mit spektralem Filter, beleuchtet. Das vom Augen hinterg rund 6 rückgestreute Licht wird auf einen ortsauflösenden Detektor 10, beispielsweise eine CMOS- oder CCD-Kamera, abgebildet. Es werden Übersichtsbilder mit einer Bildwiederholfrequenz zwischen 1 Hz und 30 Hz (Bilder pro Sekunde) aufgenommen und auf einem Computermonitor angezeigt (Fig. 2). Die Hardware für diesen langsamen Teil der kombinierten Bewegungsmessungsanordnung ist bereits in allen nonmydriatischen Funduskameras als IR-Monitor oder IR-Einstellhilfe technisch ausgeführt. Aus den so aufgezeichneten Übersichts-Fundusbildern wird ein quadratisches Bildfeld mit 2nx2n Pixeln ausgeschnitten, das möglichst viele spezifische strukturierte Bilddetails enthält. Alle Übersichtsbilder werden gegen das erste Übersichtsbild kreuzkorreliert und so die Verschiebung jedes der Übersichtsbilder gegenüber dem ersten Übersichtsbild bestimmt. Das erste Übersichtsbild kann das erste Bild einer Serie von Übersichtsbildern sein, dann ist die Verschiebung jedes weiteren Übersichtsbildes relativ zum ersten Übersichtsbild bekannt. In einer besonders bevorzugten Ausgestaltungsvariante werden mit einer Standard-Funduskamera ein Farbbild und ein dazugehöriges IR-BiId des Augenhintergrundes 6 aufgezeichnet. Mit Hilfe dieser Bilder kann der Arzt die durchzuführende Therapie/Diagnostik planen, beispielsweise eine Laserkoagulation von Bereichen des Augenhintergrundes 6. Zu Beginn der Therapie/Diagnose wird dann ein erstes IR-Übersichtsbild des Augenhintergrundes aufgezeichnet und gegen das IR-BiId der Therapieplanungsaufnahme korreliert, um die Ausgangslage des Augenhintergrunds 6 zu bestimmen. Die folgenden Übersichtsbilder werden dann stets gegen das erste Übersichtsbild oder gegen das IR-BiId der Therapieplanungsaufnahme korreliert. Auf diese Weise können beispielsweise mit einem Laserkoagulator vorher geplante Punkte des Augenhintergrundes angefahren und behandelt werden, da die Bewegung des Fundus 6 im Bezug auf die Behandlungsplanung gemessen wird. Das Bildfeld für die Korrelation wird so groß gewählt, dass die maximale Amplitude von Augenbewegungen die im speziellen Beobachtungsfall (beispielsweise unterstützt durch eine Innenfixation) auftreten, also das potentielle Bewegungsfeld des Augenhintergrunds 6, kleiner sind als die Größe des Bildfeldes. Eine gewisse Mindestgröße, die von der optischen Qualität der Übersichtsbilder abhängt, darf dabei nicht unterschritten werden, damit die Augenhintergrundbewegung sicher detektiert werden kann (damit ergibt sich ein bevorzugtes n=6...9).
Der große Vorteil des dargestellten Verfahrens ist, das es in jeder nonmydriatischen Funduskamera bereits technisch vorgesehen ist, und damit sehr kostengünstig realisiert werden kann. Da bei dem Verfahren aber der Einsatz von Standard- Monochromkameras, wie sie in eine nonmydriatischen Funduskamera eingesetzt werden, vorgesehen ist, ist mit einer typischen Auslesezeit von mindestens 50 ms zu rechnen. Die Berechnung der Kreuzkorrelationen soll bevorzugt in einem in der Funduskamera enthaltenen Standard rechner erfolgen und benötigt damit in Abhängigkeit von der Größe des zu korrelierenden Bildfeldes etwa 500 ms. Damit ist das Verfahren mit 550 ms im Vergleich zu anderen Bewegungsmessungs- oder Bewegungsfolgeanordnungen, die zum Stand der Technik gehören, viel langsamer. Aus diesem Grund wird die langsame Bewegungsmessungsanordnung mit einem zweiten, unabhängigen System kombiniert, das eine schnelle Bewegungsmessung ermöglicht.
Funktionsprinzip der schnellen Bewegungsmessungsanordnung: Für die schnelle Bewegungsmessungsanordnung wird ein kleiner Teil des Augenhintergrundes 6 mit einer kohärenten IR-Laserbeleuchtung 12 beleuchtet. Der Durchmesser des kohärent beleuchteten Bereiches im Augenhintergrund 6 beträgt etwa zwischen 1° und 10° im ebenen Winkel, wodurch die Strahlenbelastung des Augenhintergrunds 6 möglichst niedrig ist, und ist damit deutlich kleiner als das Bildfeld des Funduskamera-Detektors 10. Die beleuchtete Fläche ist jedoch mit zwischen 1° und 10° deutlich größer als die einer typischen konfokalen Punktbeleuchtung. Das vom Augenhintergrund 6 reflektierte Licht interferiert in Form eines Fleckenmusters, das mit einem ortsauflösenden Detektor 15 geringer Auflösung in Ausschnittsbilder aufgenommen wird. Beispiele für die technische Ausgestaltung des Detektors sind CCD-, CMOS- oder InGaAs-Kameras, wobei vorzugsweise nur ein kleiner Bildausschnitt (engl, „region of interest"; ROI) ausgelesen wird. Die Apertur der Detektionsoptik 9B ist so ausgelegt, das die Größe der durch die kohärenten Eigenschaften der Beleuchtungsquelle 12 verursachten Flecken mindestens so groß ist wie die Pixel des Detektors 15.
Von den auf diese Weise aufgezeichneten Ausschnittsbildern wird anschließend die relative Verschiebung zum jeweiligen Vorgängerbild oder jeweils zu einem ersten Ausschnittsbild nach Aufnahme eines weiteren Übersichtsbilds über eine Kreuzkorrelation berechnet oder alternativ über eine Betrachtung des optischen Flusses abgeschätzt. Eine weitere Möglichkeit, die Geschwindigkeit der Berechnung der Kreuzkorrelation zu erhöhen ist es, nicht alle Punkte der Kreuzkorrelation zu berechnen. Es werden nur neun Pixel (3 x 3) der Kreuzkorrelation berechnet und zwar der Pixel der erwarteten Verschiebung zwischen den beiden Ausschnittsbildern und dessen nächste Nachbarn in jeder Richtung. Damit wird die genaue Verschiebung (vorzugsweise mit Subpixelinterpolation) berechnet und dient der Abschätzung der Verschiebung zum nächsten Ausschnittsbild. Im darauffolgenden Ausschnittsbild werden nun nur die 9 Pixel der Kreuzkorrelation berechnet, die der erwarteten Verschiebung zwischen den beiden Ausschnittsbildern entsprechen. Durch diese Art der Auswertung kann die Berechnungszeit bei einem typischen Pixelarray (mit beispielsweise 30x30 Pixeln) um einen Faktor 100 verringert werden. Die einzige Forderung die erfüllt werden muss ist, dass die Beschleunigung der Verschiebung eine gewisse Grenze nicht überschreiten darf.
Die Größe der aufgezeichneten Ausschnittsbilder beziehungsweise der für die Korrelation verwendeten Subbilder der Ausschnittsbilder beträgt zirka 10x10 Pixel bis 100x100 Pixel, so dass nur relativ wenige Daten ausgewertet werden müssen und die Auswertung damit deutlich schneller wird. Als Zielspezifikation soll die schnelle Bewegungsmessungsanordnung bevorzugt innerhalb von 5ms ein Bild aufnehmen, auslesen und die Verschiebungsdaten auswerten können. Die Auswertung kann dabei in einem Standardrechner oder bevorzugt in einer speziellen Auswerteelektronik erfolgen, beispielsweise in einer sogenannten Smart-Pixel- Kamera.
Durch die kohärente Beleuchtung werden dem relativ strukturlosen Fundus 6 sehr strukturstarke Interferenzmuster aufgeprägt, die deutlich besser registriert werden können. Ein weiterer Vorteil des Verfahrens ist, das aufgrund der spezifischen Eigenschaften von „Speckle"-Flecken eine Messung der Bewegung des Augenhintergrundes 6 auch im nicht optimal fokussierten Zustand des Detektors 15 (der Detektionsoptik 9B) möglich ist.
Besonders bevorzugt erfolgt die Aufnahme und Auswertung der Ausschnittsbilder der schnellen Bewegungsmessungsanordnung mit einem kommerziell verfügbaren Lasermaussensor. Diese Sensoren wurden für die Messung von Bewegungen über einem streuenden Untergrund unter Nutzung spekularer Reflexe unter dem Glanzwinkel konstruiert, offenbart beispielsweise in US 7,161 ,682 B2 und US 5,786,804. Das in der Regel im Sensor fest verdrahtete Prinzip der Auswertung kann jedoch überraschenderweise kostengünstig für die Aufnahme und Auswertung der Fleckenmuster-Ausschnittsbilder genutzt werden. Es werden bei der hier dargestellten Ausgestaltungsvariante aber keine spekularen Reflexe ausgewertet, da diese im wesentlich durch eine 3D-Oberflächenkrümmungen einer streuenden Oberfläche entstehen, während am Augenhintergrund 6 eine zirka 0,5 mm dicke Volumenstreuerschicht (Retina) detektiert werden soll. Entsprechendes gilt für alternative Ausführungsformen zur Messung auf der Lederhaut.
Der Detektor 15 des Lasermaussensors ist in der Funduskamera 1 in einer zum Augenhintergrund konjugierten Ebene ZB (Zwischenbildebene) angeordnet. Dabei werden entweder alle in US 7,161 ,682 B2 im Detektionsstrahlengang befindlichen Optiken und strahlbegrenzenden Flächen eliminiert beziehungsweise das zum Augenhintergrund konjugierte Bild wird in dem optimalen Fokuspunkt der dort beschriebenen Detektionsoptik angeordnet. In beiden Fällen wird durch eine Blende, bzw. durch Wahl eines entsprechenden Abbildungsmaßstabes die Apertur des optischen Detektionssystems 9B derart begrenzt, das die entstehenden Detektionsflecken größer als die Pixel des Detektors 15 sind.
Eine Funduskamera 1 entspricht im Wesentlichen einem biologischen Mikroskop mit dessen Hilfe der Augenhintergrund bildlich dargestellt werden kann. Aufgrund der spezifischen Geometrie des menschlichen Auges sind in einer Funduskamera 1 spezielle technische Ausgestaltungsmöglichkeiten vorgesehen, um ein möglichst optimales Bild des Augenhintergrundes 6 aufnehmen zu können. Ein Element dieser spezifischen Optik ist eine Ringbeleuchtung in der Pupille 5 des Auges 2. Diese Beleuchtung wird gewählt, um einen Lichtreflex der Comeavorderseite im Detektionsstrahlengang zu unterdrücken. Dazu wird als virtuelle Beleuchtungsquelle ein Beleuchtungsring 3 mit beispielsweise 5,5 mm Außendurchmesser und 3,5 mm Innendurchmesser in der Corneaebene des menschlichen Auges 2 eingestrahlt, der den Augenhintergrund 6 möglichst gleichmäßig bis zu Feldwinkeln von etwa 22° ausleuchtet. Die Strahlung, die beispielsweise von einem ringförmigen Faserbündel 3 emittiert wird, wird durch Optiken 16 auf einen ringförmigen Spiegel 13 abgebildet, der sich ebenfalls in einer zur Augenpupille 5 konjugierten Ebene befindet. Die vom Augenhintergrund 6 rückgestreute Strahlung transmittiert durch das Loch im Ringspiegel 13 und wird auf den zweiten Detektor 15 abgebildet. Dieser zweite Detektor 15 steht in einer zum Augenhintergrund 6 konjugierten Zwischenbildebene ZB. Der so beschriebene Aufbau entspricht einer Standard- Funduskamera und stellt in dieser Aufführungsform den langsamen Teil der kombinierten Bewegungsmessungsanordnung dar.
Für den schnellen Teil wird eine kohärente IR-Laserbeleuchtung 12 wird mit einer Optik 19A kollimiert und dann durch eine zweite Linse 19B auf eine Ringblende 14 fokussiert, die in einer zur Pupillenebene konjugierten Ebene angeordnet ist, was in Fig. 4 im Detail dargestellt ist. Das kohärente IR-Licht wird dann über einen dichroitischen oder teildurchlässigen Spiegel als Strahlvereiniger 20 mit dem Beleuchtungsstrahlengang der ersten, inkohärenten IR-Lichtquelle 3 überlagert (Fig. 3). Das IR-Licht wird dann durch die Optiken 16, 4 der Funduskamera 1 auf den Augenhintergrund 6 gerichtet und beleuchtet dort eine Fläche mit einem ebenen Durchmesser zwischen 1° und 10° (Fig. 3).
Das vom Augenhintergrund 6 rückgestreute Licht wird durch einen weiteren dichroitischen oder teildurchlässigen Spiegel 7 vom Funduskamerastrahlengang abgespalten und auf den zum Augenhintergrund 6 konjugierten zweiten Detektor 15 abgebildet (Fig. 3). Durch die Beleuchtung des Augenhintergrundes 6 mit kohärentem Licht und die Abbildung des rückgestreuten Lichtes auf den zweiten Detektor 15 werden zwei Arten von Flecken verursacht, subjektive Detektionsflecken und objektive Beleuchtungsflecken. Die subjektiven Detektionsflecken werden ausgenutzt, um die Bewegung des Augenhintergrundes 6 zu messen, während die objektiven Beleuchtungsflecken eine Störgröße darstellen. Um den störenden Einfluss der objektiven Beleuchtungsflecken zu begrenzen, wird die kohärente Beleuchtung vorzugsweise in eine zur Augenpupille konjugierte Ebene fokussiert (Ringblende 14). Dadurch haben die Beleuchtungsflecken im Fundus 6 eine Größe, die etwa dem Strahldurchmesser im Augenhintergrund 6 entspricht und stellen damit für das weitere Verfahren kein Problem mehr dar. Für die zweite Lichtquelle 12 werden bevorzugt Halbleiterlaserquellen eingesetzt, wobei aber auch alle anderen Arten von kohärenten Lichtquellen mit Kohärenzlängen über etwa 0,5 mm (die Kohärenzlänge sollte vorzugsweise mindestens der doppelten Dicke der Retina entsprechen, um einen guten Fleckenmusterkontrast auf dem Detektor 15 zu erreichen) und guter räumlicher Kohärenz für das Verfahren angewendet werden können.
Ein weiteres spezifisches Merkmal einer Funduskamerabeleuchtungsoptik ist die Einführung von Antireflexionspunkten (Blenden) im Beleuchtungsstrahlengang, die Reflexe am Frontobjektiv der Funduskamera in den Detektionsstrahlengang verhindern sollen. Sind diese Antireflexpunkte nicht optimal justiert oder sind einige der optischen Elemente des Beleuchtungsstrahlenganges durch Staubpartikel leicht streuend, so erkennt man im Detektorbild der Funduskamera einen typischen ringförmigen Reflex, der auch im Lasermausstrahlengang auftritt und zu Problemen bei der Bewegungsmessung führen kann. Aus diesem Grund wird die Verwendung eines reflexfreien Frontobjektivs besonders bevorzugt. Eine zweite bevorzuge Variante bei der Verwendung von Standartobjektiven in der Funduskamera ist eine leicht außeraxiale Beleuchtung und eine angepasste außeraxiale Detektion.
Fig. 5 zeigt ein bei kohärenter Beleuchtung eines Augenhintergrunds 6 aufgenommenes Fleckenmuster.
Bei der refraktiv-chirurgischen Therapie der Cornea wird in Fällen, in denen eine besonders hohe Genauigkeit benötigt wird (beispielsweise Femtosekunden-Lasik; fs- Lasik), ein Kontaktglas eingesetzt, um die Lage des Auges zu definieren. In diesem Fall ist eine Bewegung des Auges theoretisch nicht möglich. Es kann aber bei stärkeren Kräften zwischen Auge und Kontaktglas zu Verschiebungen des Auges parallel zum Kontaktglas kommen. In diesem Fall müssten diese Verschiebungen sehr schnell gemessen werden, um den Therapielaser nachzuführen oder auszuschalten. Genau diese Messaufgabe löst die erfindungsgemäße Anordnung mit nur einem Detektor besonders einfach und günstig.
Den Grundaufbau der Bewegungsmessungsanordnung zeigt Fig. 6 in einer schematischen Darstellung. Der Strahlengang des Lasik-Lasers (nicht abgebildet) zur Behandlung der Cornea 16 bleibt unverändert. Für die Realisierung der Bewegungsmessungsanordnung wird neben dem Kontaktglas 18 oder an dessen Rand durch das Kontaktglas 18 hindurch ein hochkohärenter Laserstrahl der Lichtquelle 12 auf die Lederhaut 17 des Auges 2 fokussiert. Das von der Sklera 17 rückgestreute Licht wird durch eine Detektionsoptik (nicht abgebildet) stark vergrößert auf einen einzelnen, ortsauflösenden Kamerasensor 15 abgebildet. Da nur ein sehr kleines Bildfeld auf den Kamerasensor 15 abgebildet werden muss, sind die Anforderungen an die Qualität der Optik relativ gering. Die Auflösung des optischen Systems wird so gewählt, dass sie mit der zu erreichenden Messgenauigkeit der Bewegungsmessanordnung übereinstimmt. Im Falle des fs- Lasik sollte die Auflösung zwischen 1 μm und 3 μm betragen. Dafür wird ein Objektiv mit relativ hoher numerischer Apertur benötigt. Für die Auswertung der Daten reicht ein Bildfeld mit einem Durchmesser von etwa zehn „Speckle"-Flecken. Das entspricht bei einer Auflösung von 1 μm einem Bildfeld von etwa 10 μm. Derart kleine Bildfelder können bei der Beleuchtung mit streng monochromatischen Laserlicht mit relativ geringem Aufwand realisiert werden. Während der Bewegungsmessung nimmt der Kamerasensor 15 mit sehr hoher Bildwiederholfrequenz Ausschnittsbilder der Lederhaut 17 auf und berechnet die Kreuzkorrelation unmittelbar aufeinanderfolgender Bilder. Die Lage des Maximums der Kreuzkorrelationsfunktion gibt die relative Verschiebung der streuenden Sklera 17 zwischen den Ausschnittsaufnahmen an. Der Kamerasensor 15 muss in seinem Bildfeld so dimensioniert werden, dass die Verschiebung zwischen zwei Ausschnittsbildern nie größer als das Bildfeld des Kamerasensors 15 ist. Zu beachten ist bei dieser Anordnung, dass nur die relative Verschiebung zwischen den Aufnahmen berechnet werden kann. Das bedeutet, dass die absolute Lagebestimmung des Auges mit der Anzahl der Ausschnittsbilder unsicherer wird, da sich die Messfehler fortpflanzen.
Um Bewegungen beziehungsweise Positionen des Auges quasi-absolut messen zu können, wird nach Beginn der Messung das dritte Ausschnittsbild, das gemessen wird, nicht gegen das zweite Ausschnittsbild, sondern wiederum gegen das erste kreuzkorreliert und so die Verschiebung zum ersten Ausschnittsbild bestimmt. Dies gelingt, solange die relativen Verschiebungen der beiden Bilder kleiner sind als das Bildfeld des Sensors. Um nun einen globalen Maßstab zu entwickeln, werden die verschiedenen Ausschnittsbilder mit Hilfe der Korrelationsalgorithmen mosaikartig zu einem vollflächigen Übersichtsbild zusammengefügt. Eine weitere Aufnahme wird dann ausschließlich mit einem Teil dieses globalen Übersichtsbilds korreliert. Durch dieses Auswerteverfahren nimmt die Positionsungenauigkeit nicht mehr mit der Anzahl der Bilder zu, sondern lediglich mit der relativen Entfernung zum Zentrum des ersten Ausschnittsbildes. Mit dem so beschriebenen Verschiebungssensor kann eine Messgenauigkeit zwischen 1 μm und 3 μm bei einer effektiven Bildwiederholfrequenz von entsprechend zwischen 1 kHz und 10 kHz erreicht werden.
Bezugszeichenliste
1 Funduskamera
2 Auge
3 Erste Lichtquelle
4 Frontobjektiv
5 Pupille
6 Hintergrund
7 Strahlteiler
8 Blende
9 Detektionsoptik
10 Erster Detektor
11 Steuereinheit
12 Zweite Lichtquelle
13 Ringspiegel
14 Ringblende
15 Zweiter Detektor
16 Cornea
17 Lederhaut
18 Deckglas
19 Beleuchtungsoptik
20 Strahlvereiniger
A Abbildungsstrahlengang
B Beleuchtungsstrahlengang
ZB Zwischenbildebene f. f Brennweiten

Claims

Patentansprüche
1. Anordnung zur Messung einer Bewegung eines Auges (2), aufweisend einen ersten zweidimensional ortsauflösenden Detektor (10) zur wiederholten Aufnahme eines potentiellen Bewegungsfeldes des Auges (2) in Übersichtsbilder mit einer ersten Bildwiederholfrequenz, gekennzeichnet durch einen zweiten zweidimensional ortsauflösenden Detektor (15) zur wiederholten Aufnahme eines jeweiligen Ausschnitts des Auges (2) in Ausschnittsbilder mit einer zweiten Bildwiederholfrequenz, die höher ist als die erste Bildwiederholfrequenz, und eine Recheneinheit (11 ) zum Ermitteln einer zwischenzeitigen Verschiebung anhand zweier Übersichtsbilder und einer zwischenzeitigen Verschiebung anhand zweier Ausschnittsbilder und zum Ermitteln einer Bewegung des Auges (2) durch Verketten dieser Verschiebungen.
2. Anordnung nach Anspruch 1 , gekennzeichnet durch
- eine erste Lichtquelle (3) zum Beleuchten des potentiellen Bewegungsfeldes des Auges (2) mit inkohärentem Licht,
- eine zweite Lichtquelle (12) zum Beleuchten des jeweiligen Ausschnitts des Auges (2) mit kohärentem Licht derart, dass in dem betreffenden Ausschnitt durch interferierendes, am Auge (2) gestreutes kohärentes Licht ein Fleckmuster entsteht, und
- Ausbildung des zweiten Detektors (15) zur Aufnahme zumindest eines Teils des Fleckmusters in das betreffende Ausschnittsbild.
3. Anordnung nach Anspruch 2, dadurch gekennzeichnet, dass der zweite Detektor (15) eine Optik (9B) zum vergrößerten Abbilden des Fleckmusters auf den zweiten Detektor (15) derart aufweist, dass einzelne Flecken des Fleckmusters eine Größe aufweisen, die etwa einer Größe von Bildelementen des zweiten Detektors (15) entspricht oder größer ist als diese.
4. Anordnung nach Anspruch 2 oder 3 zur Messung einer Bewegung eines Hintergrunds des Auges (2), gekennzeichnet durch
- Ausbildung der ersten Lichtquelle (3) zum Beleuchten des Augenhintergrunds (6) mit Infrarotlicht,
- Ausbildung des ersten Detektors (10) zur Aufnahme zumindest eines Teils des Augenhintergrunds (6) als potentielles Bewegungsfeld des Auges (2) und
- Ausbildung der zweiten Lichtquelle (12) zum Beleuchten eines jeweiligen Ausschnitts des Augenhintergrunds (6) mit Infrarotlicht.
5. Anordnung nach einem der Ansprüche 2 bis 4, gekennzeichnet durch Ausbildung der zweiten Lichtquelle (12) für einen (ebenen) Ausleuchtungswinkel zwischen 1° und 10°.
6. Anordnung nach einem der Ansprüche 2 bis 5, gekennzeichnet durch im wesentlichen punktförmige Ausbildung der zweiten Lichtquelle (12) in der Ebene der Augenpupille (5).
7. Anordnung nach einem der Ansprüche 2 bis 6, gekennzeichnet durch Ausbildung der zweiten Lichtquelle (12) zur Fokussierung des kohärenten Lichts in eine Ebene, die zu einer Pupille (5) des Auges (2) konjugiert ist.
8. Anordnung nach einem der Ansprüche 2 bis 7, dadurch gekennzeichnet, dass eine mittlere Einfallsrichtung des kohärenten Lichts der zweiten Lichtquelle (12) auf das Auge (2) im wesentlichen mit einer Beobachtungsrichtung des zweiten Detektors (15) übereinstimmt.
9. Anordnung nach einem der vorhergehenden Ansprüche 2 bis 9, gekennzeichnet durch Ausbildung des zweiten Detektors (15) als Detektor einer Lasermaus.
10. Anordnung nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Anordnung des zweiten Detektors (15) in einer Ebene (ZB), die zu dem jeweiligen Ausschnitt optisch konjugiert ist.
11.Anordnung nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Recheneinheit (11) die Verschiebungen durch Vergleichen zumindest eines jeweiligen Teils des Bildinhalts der betreffenden zwei Bilder, bei kohärenter Beleuchtung insbesondere durch Vergleichen zumindest eines jeweiligen Teils des aufgenommenen Fleckmusters, ermittelt.
12. Verfahren zur Messung einer Bewegung eines Auges, wobei mittels eines ersten zweidimensional ortsauflösenden Detektors wiederholt zumindest ein potentielles Bewegungsfeld des Auges mit einer ersten Bildwiederholfrequenz in Übersichtsbilder aufgenommen wird, dadurch gekennzeichnet, dass mittels eines zweiten zweidimensional ortsauflösenden Detektors wiederholt ein jeweiliger Ausschnitt des Auges mit einer zweiten Bildwiederholfrequenz, die höher als die erste Bildwiederholfrequenz ist, in Ausschnittsbilder aufgenommen wird, wobei eine zwischenzeitige Verschiebung anhand zweier Übersichtsbilder und eine zwischenzeitige Verschiebung anhand zweier Ausschnittsbilder ermittelt wird und durch Verketten der beiden Verschiebungen eine Bewegung des Auges ermittelt (und ausgegeben) wird.
13. Anordnung zur Messung einer Bewegung eines Auges (2), aufweisend einen zweidimensional ortsauflösenden Detektor (15) zur wiederholten Aufnahme von Ausschnitten des Auges (2) in Ausschnittsbilder, gekennzeichnet durch
- eine Lichtquelle (12) zum Beleuchten einer Lederhaut (17) des Auges (2) mit kohärentem Licht derart, dass durch interferierendes, an der Lederhaut (17) gestreutes Licht ein Fleckmuster entsteht,
- Ausbildung des Detektors (15) zur Aufnahme zumindest eines Teils des Fleckmusters in die Ausschnittsbilder und
- eine Recheneinheit zum Ermitteln einer zwischenzeitigen Verschiebung des Fleckmusters anhand zweier Ausschnittsbildern und zum Ermitteln einer Bewegung des Auges (2) anhand dieser Verschiebung.
14. Anordnung nach Anspruch 13, dadurch gekennzeichnet, dass die Recheneinheit die Verschiebung durch Vergleichen des Bildinhalts der betreffenden Ausschnittsbilder ermittelt.
15. Anordnung nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass der Detektor (15) eine Optik zum vergrößerten Abbilden des Fleckmusters auf den Detektor (15) derart aufweist, dass einzelne Flecken des Fleckmusters eine Größe aufweisen, die etwa einer Größe von Bildelementen des Detektors (15) entspricht oder größer ist als diese.
16. Anordnung nach Anspruch 13, 14 oder 15, gekennzeichnet durch Ausbildung der Lichtquelle (12) für eine (ebene) Ausleuchtungsfläche zwischen 10 μm2 und
1 mm2.
17. Anordnung nach einem der Ansprüche 13 bis 16, dadurch gekennzeichnet, dass eine mittlere Einfallsrichtung des kohärenten Lichts der Lichtquelle (12) auf das Auge im wesentlichen mit einer Beobachtungsrichtung des Detektors (15) übereinstimmt.
18. Anordnung nach einem der Ansprüche 13 bis 17, gekennzeichnet durch Ausbildung des Detektors (15) als Detektor einer Lasermaus.
19. Anordnung nach einem der vorhergehenden Ansprüche 13 bis 18, gekennzeichnet durch Anordnung des Detektors (15) in einer Ebene, die zu dem jeweiligen Ausschnitt optisch konjugiert ist.
20. Anordnung nach einem der vorhergehenden Ansprüche, gekennzeichnet durch Anordnung in einer Funduskamera (1 ) oder in einem ophthalmologischen Lasersystem.
21.Anordnung nach Anspruch 20, gekennzeichnet durch ein reflexfreies
Frontobjektiv für Beleuchtung und Detektion oder durch außeraxiale Ausbildung von Beleuchtung und Detektion.
22. Verfahren zur Messung einer Bewegung eines Auges, wobei mittels eines zweidimensional ortsauflösenden Detektors wiederholt Ausschnitte des Auges in Ausschnittsbilder aufgenommen werden, dadurch gekennzeichnet, dass eine Lederhaut des Auges mittels einer Lichtquelle mit kohärentem Licht derart beleuchtet wird, dass durch interferierendes, an der Lederhaut gestreutes Licht ein Fleckmuster entsteht, von dem mittels des Detektors ein jeweiliger Teil in die Ausschnittsbilder aufgenommen wird und dass eine zwischenzeitige verscnieDung zuminαesi eines Teils des aufgenommenen Fleckmusters anhand zweier Ausschnittsbilder ermittelt und anhand dieser Verschiebung eine Bewegung des Auges ermittelt (und ausgegeben) wird.
23. Verfahren nach Anspruch 22, dadurch gekennzeichnet, dass die Verschiebung durch Vergleichen des Bildinhalts der betreffenden zwei Ausschnittsbilder ermittelt wird.
24. Verfahren nach Anspruch 22 oder 23, dadurch gekennzeichnet, dass mehr als zwei aufgenommene Ausschnittsbilder anhand der jeweils ermittelten Verschiebung mosaikartig zu einem Übersichtsbild zusammengesetzt werden und dass die Verschiebung des Fleckmusters für das jeweils zuletzt aufgenommene Ausschnittsbild durch Vergleichen des Bildinhalts dieses Ausschnittsbild mit dem Bildinhalt des Übersichtsbilds ermittelt wird.
25. Computerprogramm, insbesondere Datenträger mit einem solchen Computerprogramm, oder Steuereinheit, eingerichtet zur Durchführung eines Verfahrens nach einem der Verfahrensansprüche.
PCT/EP2009/006816 2008-09-30 2009-09-22 Anordnungen und verfahren zur messung einer augenbewegung, insbesondere einer bewegung des augenhintergrunds WO2010037485A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/121,557 US8596786B2 (en) 2008-09-30 2009-09-22 Arrangements and method for measuring an eye movement, particularly a movement of the fundus of the eye
JP2011528229A JP5512682B2 (ja) 2008-09-30 2009-09-22 眼球運動、特に眼底の運動の測定装置および測定方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102008049881A DE102008049881A1 (de) 2008-09-30 2008-09-30 Anordnung und Verfahren zur Messung einer Augenbewegung, insbesondere einer Bewegung des Augenhintergrunds
DE102008049881.5 2008-09-30
DE102008049846.7 2008-09-30
DE102008049846A DE102008049846A1 (de) 2008-09-30 2008-09-30 Anordnung und Verfahren zur schnellen Messung einer Augenbewegung

Publications (1)

Publication Number Publication Date
WO2010037485A1 true WO2010037485A1 (de) 2010-04-08

Family

ID=41403423

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2009/006816 WO2010037485A1 (de) 2008-09-30 2009-09-22 Anordnungen und verfahren zur messung einer augenbewegung, insbesondere einer bewegung des augenhintergrunds

Country Status (3)

Country Link
US (1) US8596786B2 (de)
JP (1) JP5512682B2 (de)
WO (1) WO2010037485A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2415393A1 (de) * 2010-08-05 2012-02-08 Nidek Co., Ltd. Ophthalmische Vorrichtung
JP2012034788A (ja) * 2010-08-05 2012-02-23 Nidek Co Ltd 眼科測定装置
US20120229762A1 (en) * 2011-03-10 2012-09-13 Canon Kabushiki Kaisha Photographing apparatus and image processing method
US11050931B2 (en) 2017-05-16 2021-06-29 Sony Corporation Control device and control method

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8182267B2 (en) * 2006-07-18 2012-05-22 Barry Katz Response scoring system for verbal behavior within a behavioral stream with a remote central processing system and associated handheld communicating devices
US20110115894A1 (en) * 2009-11-19 2011-05-19 Daniel Rogers Burnett Device and method for diagnosis and monitoring of neural, opthalmologic and retinal disorders
EP2712541B1 (de) * 2012-09-27 2015-12-30 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Abtastung der Kopf- und/oder Augen-position basierend auf einem geneigten Bild zur Verfolgung des Auges
EP2961311B1 (de) * 2013-02-27 2019-06-12 Optovue, Inc. Automatische ausrichtung eines bilderzeugers
CN105208916A (zh) * 2013-03-15 2015-12-30 瓦索普蒂克医疗公司 使用多种照明形态的眼科检查及疾病管理
DE112020002226T5 (de) * 2019-05-03 2022-01-20 Mark Lobanoff Nahinfrarot-Beleuchtung für chirurgische Verfahren
CN112807005A (zh) * 2019-11-15 2021-05-18 上海西门子医疗器械有限公司 计算机断层扫描方法、设备和系统
US11867900B2 (en) 2020-02-28 2024-01-09 Meta Platforms Technologies, Llc Bright pupil eye-tracking system
US11617508B2 (en) 2020-02-28 2023-04-04 Meta Platforms Technologies, Llc Eye-tracking fundus imaging system
DE102020209379A1 (de) * 2020-07-24 2022-01-27 Carl Zeiss Meditec Ag Verfahren und Vorrichtung zur Einstellung und Kontrolle von Parametern des Beleuchtungsfeldes ophthalmologischer Geräte
CN113933265B (zh) * 2021-09-27 2023-01-03 中国科学院长春光学精密机械与物理研究所 散斑测量装置及测量分析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0392742A1 (de) * 1989-04-10 1990-10-17 Kowa Company Ltd. Verfahren und Gerät für augenoptische Messungen
US20050024586A1 (en) * 2001-02-09 2005-02-03 Sensomotoric Instruments Gmbh Multidimensional eye tracking and position measurement system for diagnosis and treatment of the eye
US7161682B2 (en) * 2003-07-30 2007-01-09 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Method and device for optical navigation
WO2007127291A2 (en) * 2006-04-24 2007-11-08 Physical Sciences, Inc. Stabilized retinal imaging with adaptive optics

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60174905A (ja) 1984-02-22 1985-09-09 Hitachi Ltd 距離測定装置
JP2641220B2 (ja) * 1987-10-28 1997-08-13 興和株式会社 速度分布測定装置
JPH01262835A (ja) 1988-04-15 1989-10-19 Kowa Co 眼科診断方法及び装置
US5098426A (en) * 1989-02-06 1992-03-24 Phoenix Laser Systems, Inc. Method and apparatus for precision laser surgery
JPH02268725A (ja) * 1989-04-10 1990-11-02 Kowa Co 眼科測定方法及び装置
JP3332535B2 (ja) * 1993-12-14 2002-10-07 キヤノン株式会社 眼科測定装置
US5644642A (en) * 1995-04-03 1997-07-01 Carl Zeiss, Inc. Gaze tracking using optical coherence tomography
US5786804A (en) * 1995-10-06 1998-07-28 Hewlett-Packard Company Method and system for tracking attitude
WO2001089438A2 (en) 2000-05-20 2001-11-29 Sensomotoric Instruments Gmbh Methods and apparatus for determination and decrease of dynamic positioning errors of an ablating laser during refractive laser surgery
US6726325B2 (en) * 2002-02-26 2004-04-27 Carl Zeiss Meditec, Inc. Tracking assisted optical coherence tomography
US7805009B2 (en) * 2005-04-06 2010-09-28 Carl Zeiss Meditec, Inc. Method and apparatus for measuring motion of a subject using a series of partial images from an imaging system
US7878910B2 (en) * 2005-09-13 2011-02-01 Igt Gaming machine with scanning 3-D display system
WO2008077854A1 (de) 2006-12-22 2008-07-03 Ophthametrics Ag Ophthalmologisches gerät sowie verfahren zur bestimmung einer position eines auges eines patienten
DE102007056528B3 (de) * 2007-11-16 2009-04-02 Seereal Technologies S.A. Verfahren und Vorrichtung zum Auffinden und Verfolgen von Augenpaaren

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0392742A1 (de) * 1989-04-10 1990-10-17 Kowa Company Ltd. Verfahren und Gerät für augenoptische Messungen
US20050024586A1 (en) * 2001-02-09 2005-02-03 Sensomotoric Instruments Gmbh Multidimensional eye tracking and position measurement system for diagnosis and treatment of the eye
US7161682B2 (en) * 2003-07-30 2007-01-09 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Method and device for optical navigation
WO2007127291A2 (en) * 2006-04-24 2007-11-08 Physical Sciences, Inc. Stabilized retinal imaging with adaptive optics

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2415393A1 (de) * 2010-08-05 2012-02-08 Nidek Co., Ltd. Ophthalmische Vorrichtung
JP2012034788A (ja) * 2010-08-05 2012-02-23 Nidek Co Ltd 眼科測定装置
US20120229762A1 (en) * 2011-03-10 2012-09-13 Canon Kabushiki Kaisha Photographing apparatus and image processing method
US8919959B2 (en) * 2011-03-10 2014-12-30 Canon Kabushiki Kaisha Photographing apparatus and image processing method
US11050931B2 (en) 2017-05-16 2021-06-29 Sony Corporation Control device and control method

Also Published As

Publication number Publication date
US20110176110A1 (en) 2011-07-21
JP2012503996A (ja) 2012-02-16
US8596786B2 (en) 2013-12-03
JP5512682B2 (ja) 2014-06-04

Similar Documents

Publication Publication Date Title
WO2010037485A1 (de) Anordnungen und verfahren zur messung einer augenbewegung, insbesondere einer bewegung des augenhintergrunds
DE69533903T2 (de) Mit optischer Kohärenz-Tomographie gesteuerter chirurgischer Apparat
EP0167877B1 (de) Gerät zur Darstellungflächenhafter Bereiche des menschlichen Auges
EP1284637B1 (de) Verfahren und vorrichtungsanordnung zur bestimmung der hornhautdicke eines auges
EP2592462B1 (de) Verfahren und Anordnung zur Autofokussierung eines Mikroskops
DE19704602B4 (de) Interferometrische Anordnung zur Abtastung eines Objektes
DE102005046690A1 (de) Vorrichtung zur auf spektraler interferenz basierender optischer Kohärenztomographie und ophthalmologische Vorrichtung
DE102016203487B4 (de) Augenmikroskopsystem
EP2485009A1 (de) Frequenzbereichs-OCT
DE3245939A1 (de) Vorrichtung zur erzeugung eines bildes des augenhintergrundes
EP2301425B1 (de) Ophthalmoskop zum Beobachten eines Auges
DE102007019678A1 (de) Operationsmikroskop mit OCT-System
EP2709577B1 (de) Gerät zur untersuchung oder bearbeitung eines humanen auges
DE60204178T2 (de) Aberrationsfreie Abbildung des Augenhintergrundes
DE102010033249A1 (de) Autofokussystem
EP2194840A1 (de) Vorrichtung und verfahren zur untersuchung des augenhintergrundes, insbesondere der photorezeptoren
DE102008049846A1 (de) Anordnung und Verfahren zur schnellen Messung einer Augenbewegung
DE102008049881A1 (de) Anordnung und Verfahren zur Messung einer Augenbewegung, insbesondere einer Bewegung des Augenhintergrunds
DE4422071B4 (de) Netzhaut-Blutströmungsgeschwindigkeits-Meßeinrichtung
DE102014014705B4 (de) Ophthalmologisches System und Verfahren zum Betreiben eines solchen
EP2990015B1 (de) Ophthalmologisches Laserbehandlungssystem
EP2983576B1 (de) Verfahren zur fotografischen beobachtung und/oder dokumentation des fundus eines auges sowie funduskamera
DE102008059876B4 (de) Ophthalmoskopie-System und Ophthalmoskopie-Verfahren
WO2023083822A1 (de) Weitfeld-swept-source-oct und -verfahren für bewegte objekte
EP4321084A1 (de) System zum erfassen und visualisieren von oct-signalen

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09778639

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011528229

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13121557

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 09778639

Country of ref document: EP

Kind code of ref document: A1