WO2022018108A1 - Verfahren und vorrichtung zur einstellung und kontrolle von parametern des beleuchtungsfeldes ophthalmologischer geräte - Google Patents

Verfahren und vorrichtung zur einstellung und kontrolle von parametern des beleuchtungsfeldes ophthalmologischer geräte Download PDF

Info

Publication number
WO2022018108A1
WO2022018108A1 PCT/EP2021/070317 EP2021070317W WO2022018108A1 WO 2022018108 A1 WO2022018108 A1 WO 2022018108A1 EP 2021070317 W EP2021070317 W EP 2021070317W WO 2022018108 A1 WO2022018108 A1 WO 2022018108A1
Authority
WO
WIPO (PCT)
Prior art keywords
parameters
illumination
image sensor
image
sensor
Prior art date
Application number
PCT/EP2021/070317
Other languages
English (en)
French (fr)
Inventor
Dietrich Martin
Original Assignee
Carl Zeiss Meditec Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Meditec Ag filed Critical Carl Zeiss Meditec Ag
Priority to JP2023503457A priority Critical patent/JP2023534526A/ja
Priority to CN202180059702.5A priority patent/CN116171126A/zh
Priority to US18/006,502 priority patent/US20230284889A1/en
Priority to EP21754929.4A priority patent/EP4185182A1/de
Publication of WO2022018108A1 publication Critical patent/WO2022018108A1/de

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1015Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for wavefront analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/13Ophthalmic microscopes
    • A61B3/135Slit-lamp microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography

Definitions

  • the present invention relates to a method and a device for setting and controlling parameters of the illumination field of ophthalmological devices. For example, brightness, color/color temperature, field shape, state of polarization or the like can be considered as parameters.
  • the parameters of the illumination field in laser-based applications are usually checked by analyzing a decoupled, defined part of the radiation.
  • the prior art similarly monitors the shape of the wavefront in optical systems.
  • a defined, small part of the radiation to be monitored is decoupled, recorded by a dedicated sensor (e.g. Shack-Hartmann sensor) and evaluated.
  • a dedicated sensor e.g. Shack-Hartmann sensor
  • the information obtained is used to specifically influence the wavefront.
  • parameters of the illumination field of ophthalmological devices such as slit lamps, fundus cameras or the like have hitherto not been set at all, not completely or only indirectly via scales to be calibrated on the operating elements.
  • the position of the control elements is usually determined from an ergonomic point of view, they are often not in the immediate vicinity of the assemblies to be influenced.
  • the routes for transferring the operating settings can be error-prone, so that in particular after a long period of use of the device, it cannot be ruled out that there will be deviations between the scale setting and the resulting light distribution properties.
  • the existence of the actually used parameters of the illumination field in electronic form is of particular importance, particularly with regard to the remotely controlled use of ophthalmological diagnostic devices (also known under the term telemedicine).
  • the external operator is dependent on reliable feedback on the current device configuration and in particular the real parameters of the illumination field are mandatory.
  • WO 2013/081619 A1 describes a system for ophthalmological imaging.
  • the present solution is based on an ophthalmological device that is controlled via a network and takes stereoscopic or three-dimensional images.
  • the system can be used remotely by one or more physicians to dynamically control every aspect of an ophthalmic device in real time over the network and verbally interact with the patient.
  • the recorded three-dimensional images of the patient's eyes are transmitted in real time to the doctor, who can thus perform an eye examination on at least part of an eye. Since the ophthalmological device is controlled in real time via a network, the doctor can vary and refine the images in order to optimize the examination.
  • comprehensive eye exams can be performed remotely with as much detail and clarity as if the doctor were at the same location as the patient.
  • the eye is illuminated with a slit diaphragm to enable magnification observation of the entire front of the segments of the eye, the cornea, sclera, iris, lens, conjunctiva, ventricle, corner angle, vitreous body and peritoneum perform retina.
  • various observation techniques that use slit lamp microscopes. These include both different lighting and image recording methods.
  • the lighting can, for example, be diffuse, direct and tangential or also as background lighting.
  • fluorescent staining photography or photography using a gonioscope or a fixing lens is widely used. It should be noted that in examinations using a slit lamp microscope, observation targets and observation techniques are arbitrarily combined and applied.
  • the settings of the optical system for example: irradiation angle, amount of illumination light, observation magnification, slit width, filter, but also of the image recording system, such as light sensitivity adjust sensitivity, shutter speed, aperture value, etc. accordingly. Only then are optimal images and examinations possible with little stress on the doctor and patient.
  • US 2014/0139807 A1 describes a slit lamp microscope with which the setting of the optical system can be easily adapted to the different conditions.
  • the slit lamp microscope has a memory unit configured to store correspondence information associated with each of Link standard setting conditions of lighting and/or observation system to several points of an eye.
  • Standard setting conditions are, for example: the value of the observation magnification, the slit width, the amount of light, the irradiation angle, the presence or absence of irradiation of the backlight light, and the presence or absence of a diffusing element, an aperture or a filter in the light path.
  • the standard setting conditions for this location are searched for from the correspondence information, compared with the previously recorded current setting states, and the setting states that differ from the standard setting conditions sought are identified.
  • the differing setting states are then output on a display unit in order to be able to correct them accordingly.
  • the solution described seems to be more about the use of the data in the form of the standard setting conditions, because the extraction of the data is only very vaguely indicated.
  • axially coupled potentiometers are used particularly often to record rotary or translatory movements.
  • Other possible sensors are based on detecting changes in the properties of resonant circuits, capacitances, the Hall effect or the like.
  • the necessary dynamic and value ranges for such sensors represent a particular challenge.
  • the slit width must be determined with an accuracy of less than 25 pm if slit widths are to be set between 100 pm and 20 mm.
  • their mechanical change in position must be determined, which is often very difficult given the cramped installation space.
  • sensors can sometimes also be necessary for sensors not to be arranged directly on the component influencing the light field parameters, but rather along the control chain somewhere between the actuator (e.g. rotary knob, sliding element, ...) and the component. This leads to systematic and random deviations, hysteresis and other errors, which can only be partially compensated for by calibration processes.
  • a disadvantage of the known systems is that different sensors, including signal and supply lines and evaluation electronics, are required to determine the very different parameters of the illumination field.
  • the present invention is based on the object of eliminating the disadvantages of the solutions known from the prior art and of developing a solution for setting and controlling a large number of parameters of the illumination and/or observation field of ophthalmological devices, which manages with as few sensors as possible and their Susceptibility to failure and mutual interference minimized.
  • This task is performed with the method for setting and checking parameters of the illumination field of ophthalmological devices, in which the desired illumination parameters are set, illumination radiation with the desired illumination parameters is generated, converted into a light distribution in the focal plane, part of the illumination radiation is decoupled, for analysis directed to a sensor element and the real illumination parameters of the illumination radiation are determined from the sensor data, solved in that a spatially resolving image sensor is used as the sensor element for analyzing the decoupled part of the illumination radiation.
  • Possible spatially resolving image sensors can be based on CMOS or CCD technology, for example, but other technologies are also conceivable in the future.
  • the part of the radiation that is coupled out reflects the real light distribution and does not change it as far as possible.
  • the digital camera's image sensor records image data continuously or sequentially, utilizing the dynamics of the image sensor.
  • the validity of the image data recorded by the image sensor is checked in a first step.
  • Calibration values are used to determine the parameters from the recorded image data. Furthermore, the ascertained, real lighting parameters are made available to the user or to software available to him as a numerical and/or visual representation and shown on a display or in an observation beam path.
  • the proposed solution is in particular for setting and checking parameters of the illumination field of ophthalmological devices intended, but can also be used in other technical fields, such as microscopy, for example.
  • Figure 1 a schematic representation of the sequence of the method according to the invention in the form of a program flow chart
  • Figure 2 a schematic representation of the inventive
  • the desired illumination parameters are set, illumination radiation is generated with the desired illumination parameters, converted into a light distribution in the focal plane, part of the illumination radiation is decoupled, for analysis on a Sensor element passed and determined from the sensor data, the real lighting parameters of the illumination radiation.
  • a spatially resolving image sensor is used as the sensor element for analyzing the decoupled part of the lighting radiation.
  • the geometric resolution of the sensor can be adapted to the accuracy required by the application. This means that very inexpensive sensors can also be used for a lower sensor resolution, e.g. comparable to those of optical mice (computer input devices).
  • the spatially resolving image sensor of a camera is particularly preferably used.
  • the lighting parameters are specified by the system or the user in the form of information and set in such a way that a desired light distribution is generated in one/the focal plane.
  • the following lighting parameters are used to generate a desired light distribution: brightness, color, light field shape, polarization and the like.
  • the brightness of a light distribution can be changed by changing the current or voltage at the light source(s) and the light color or color temperature with the help of filters or by combining different colored light sources and adjusting their targeted amplification or weakening and correcting them if necessary.
  • polarizers are required to change their polarization.
  • image data are recorded continuously or sequentially by the spatially resolving image sensor.
  • the dynamics can be particularly advantageous here of the image sensor is exploited and used as a light output detector.
  • camera parameters e.g. exposure time or amplification
  • algorithm e.g. binary search
  • the image data recorded by the spatially resolving image sensor is analyzed and the parameters are determined from this using adapted and/or optimized algorithms.
  • the recorded image data can be checked for validity.
  • the image data is examined using an algorithm to determine whether there are one or more luminous fields in the camera images. Only a single illuminated field is expected. If several are found, it is possible that the system has not been set up optimally. Then the following algorithm steps are not necessarily valid either. Ideally, the user should be informed of this.
  • the parameters are then determined using adapted and/or optimized algorithms from the image data recorded by the spatially resolving image sensor.
  • Calibration values are used to determine the parameters, which, for example, compare the size, angle and color representation between the image field and the analyzed result of the image sensor.
  • the illuminated field and its edges are detected using an algorithm from the image data recorded by the image sensor.
  • the distance between the two parallel edges corresponds to the width of the gap and the distance perpendicular to it corresponds to the height of the gap.
  • the center line between the two detected edges represents the reference to the rotation angle evaluation of the gap position.
  • the color of the luminous field can be deduced from the intensity of the differently colored partial images of the image data recorded by the image sensor.
  • the determined real lighting parameters of the lighting radiation are stored for documentation and/or reproduction.
  • the parameters determined from the recorded images and their size can be stored as meta-information on the recorded image or used as an input variable for a control circuit of the lighting module.
  • the real lighting parameters are made available to the user as a numerical and/or pictorial representation. This is done, for example, on a display or directly in the observation beam path.
  • FIG. 1 shows a possible course of the method according to the invention in the form of a program flow chart.
  • part of the light distribution generated is decoupled, analyzed and the real lighting parameters of the lighting radiation are determined therefrom.
  • an image is recorded by the spatially resolving image sensor, checked for validity and repeated in the event of a lack of validity, with the image recording parameters being able to be adjusted if necessary.
  • the illuminated field is detected from the valid image data, also checked for validity and repeated if not available, whereby the user can receive feedback about this.
  • the edges of the slit image are detected from the valid light fields, their dimensions are determined and preferably displayed for the user. Additional calibration data can be used for this.
  • the angle of rotation of the slit image is determined and preferably also displayed to the user.
  • the center line between the two detected long edges represents the reference to the rotation angle evaluation. Additional calibration data can also be used for this.
  • the intensity is determined and the color of the illuminated field is deduced from the intensity of different-colored partial images.
  • the proposed arrangement for setting and checking parameters of the illumination field of ophthalmological devices consists of an actuating unit for setting the desired illumination parameters, an illumination unit for generating illumination radiation with the desired illumination parameters, a decoupling element for decoupling part of the illumination radiation, a sensor element for analysis the decoupled part of the illumination radiation and an evaluation unit for evaluating the sensor data and for determining the real lighting parameters of the illumination radiation.
  • the sensor element for analyzing the extracted portion of the illumination radiation is a spatially resolving image sensor that can record both intensities and information in a spatially resolved manner.
  • the sensor element is the spatially resolving image sensor of a camera.
  • the image sensor In order to be able to evaluate color information, the image sensor must have spectrally differently reacting.
  • the BAYER matrix filter found in many cameras is also suitable for this purpose.
  • the lighting unit consists of several spectrally different and separately controllable light sources.
  • the lighting unit also has a variable aperture to increase the dynamic range.
  • the following lighting parameters are used to generate a desired light distribution: brightness, color, light field shape, polarization and the like.
  • the brightness of a light distribution can be adjusted by changing the current or voltage at the light source(s) and the light color or color temperature with the help of filters or by combining different colored light sources and their more targeted Set amplification or attenuation and correct if necessary.
  • the field shape of the light distribution can be changed by screens, DMD, ELCoS, or similar.
  • part of the radiation that actually reflects the real light distribution is coupled out.
  • the beam splitter provided for this purpose forwards this part of the radiation to the spatially resolving image sensor serving as the sensor element for analysis.
  • the decoupling element for decoupling part of the illumination radiation can also be an already existing element in the form of a mirror or prism, with an optically active surface being designed as a partially transparent layer instead of as a reflective optical layer.
  • the spatially resolving image sensor is designed to record image data continuously or sequentially and to transmit it to the evaluation unit for its evaluation and for determining the real illumination parameters of the illumination radiation.
  • the evaluation unit has a microprocessor for analyzing the images recorded by the image sensor and for determining the real illumination parameters of the illumination radiation.
  • the microprocessor analyzes the recorded image data by using adapted/optimized algorithms and determines the parameters and their size.
  • calibration values are preferably used which, for example, once compare the size, angle and color representation between the set, desired lighting parameters and the image data recorded by the image sensor and characterizing the real light distribution in the focal plane.
  • the arrangement according to the invention can have a memory unit for documenting and/or reproducing the real illumination parameters of the illumination radiation.
  • the determined real illumination parameters of the illumination radiation can be stored as input variables of a control loop for the illumination unit or as meta-information on the recorded image data.
  • the arrangement can have an element for the numerical and/or pictorial representation of the real lighting parameters.
  • the numerical and/or pictorial representation can take place on a display or also directly in the observation beam path, for which purpose the arrangement has an element for coupling into an observation beam path.
  • FIG. 2 shows a schematic representation of the arrangement according to the invention using the example of a slit lamp.
  • the illumination parameters 2 desired by way of example are set on the actuation unit 1 in order to generate the corresponding illumination radiation distribution in the focal plane 5 with the aid of the illumination unit 3 and the gap generation unit 4 (represented in simplified form).
  • a part of the illumination radiation is decoupled from the beam splitter 6 and imaged on the spatially resolving image sensor 7 for analysis of the illumination radiation.
  • the microprocessor 8 evaluates the sensor data transmitted by the spatially resolving image sensor 7, offsets them against any existing calibration data, thereby determines the real illumination parameters of the illumination radiation and shows them on a display 9.
  • the arrangement has an additional sensor element for polarization-dependent analysis of the decoupled part of the illumination radiation. This is the only way to be able to detect polarization-dependent properties.
  • a Stokes setup could be used for this purpose, for example, in which at least 4 different polarization states (parallel or serial) are generated, measured and the polarization state of the radiation is then back-calculated from them.
  • An advantageous embodiment provides that an existing camera observing the actual image field has special algorithms for analyzing and evaluating the lighting information from the overall image.
  • the solution according to the invention a method and an arrangement for setting and checking parameters of the illumination field of ophthalmological devices are made available, with which the disadvantages of the solutions known from the prior art are eliminated.
  • the proposed solution makes it possible to set and control a large number of parameters of the illumination and/or observation field of ophthalmological devices while minimizing the susceptibility to faults and mutual influence of the sensors.
  • the fact that the solution can record and analyze several parameters at the same time with just one sensor is particularly advantageous.
  • the use of the image sensor of a camera also has the advantage that the entire structure can be miniaturized considerably.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Ophthalmology & Optometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Lösung zur Einstellung und Kontrolle von Parametern des Beleuchtungsfeldes ophthalmologischer Geräte. Als Parameter können hierbei beispielsweise Helligkeit, Farbe/ Farbtemperatur, Feldform, Polarisationszustand o. ä. in Betracht kommen. Die erfindungsgemäße Anordnung besteht aus einer Betätigungseinheit zum Einstellen der gewünschten Beleuchtungsparameter, einer Beleuchtungseinheit zum Erzeugen einer Beleuchtungsstrahlung mit den gewünschten Beleuchtungsparametern, einem Auskoppelelement zur Auskopplung eines Teils der Beleuchtungsstrahlung, einem Sensorelement zur Analyse des auskoppelten Teils der Beleuchtungsstrahlung und einer Auswerteeinheit zur Auswertung der Sensordaten und zur Bestimmung der realen Beleuchtungsparameter der Beleuchtungsstrahlung. Erfindungsgemäß ist das Sensorelement ein örtlich auflösender Bildsensor. Die vorgeschlagene Lösung ist zwar insbesondere zur Einstellung und Kontrolle von Parametern des Beleuchtungsfeldes ophthalmologischer Geräte vorgesehen, kann allerdings auch auf anderen technischen Gebieten, wie beispielsweise der Mikroskopie Anwendung finden.

Description

Verfahren und Vorrichtung zur Einstellung und Kontrolle von Parametern des Beleuchtungsfeldes ophthalmologischer Geräte
Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Ein stellung und Kontrolle von Parametern des Beleuchtungsfeldes ophthalmologi scher Geräte. Als Parameter können hierbei beispielsweise Helligkeit, Farbe/ Farbtemperatur, Feldform, Polarisationszustand o. ä. in Betracht kommen.
Die Kontrolle von Parametern des Beleuchtungsfeldes bei laserbasierten An wendungen erfolgt in der Regel durch Analyse eines auskoppelten, definierten Teils der Strahlung.
Nach dem bekannten Stand der Technik wird in ähnlicher Weise die Form der Wellenfront in optischen Systemen überwacht. Ein definierter, kleiner Teil der zu überwachenden Strahlung wird ausgekoppelt, durch einen dedizierten Sen sor (z.B. Shack-Hartmann-Sensor) aufgenommen und ausgewertet. Auch hier werden die gewonnenen Informationen genutzt, um die Wellenfront gezielt zu beeinflussen.
Im Gegensatz dazu werden Parameter des Beleuchtungsfeldes von ophthalmo- logischen Geräten wie, Spaltlampen, Funduskameras oder dergleichen bisher gar nicht, nicht vollständig oder lediglich indirekt über zu kalibrierende Skalen an den Bedienelementen eingestellt.
Eine Kontrolle der im realen Beleuchtungsfeld auftretenden Lichtverteilung hin sichtlich Helligkeit, Farbe oder auch die Lage, Breite und Höhe eines Spaltes oder dergleichen findet nicht statt.
Da die Lage der Bedienelemente meistens aus ergonomischen Gesichtspunk ten festgelegt werden, befinden sich diese oft nicht in unmittelbarer Nähe der zu beeinflussenden Baugruppen. Die Strecken für die Übertragung der Bedie nungseinstellungen können allerdings fehleranfällig sein, so dass insbesondere nach längerer Nutzungsdauer des Gerätes, nicht ausgeschlossen werden kann, dass es zu Abweichungen zwischen der Skaleneinstellung und den dadurch er zeugten Lichtverteilungseigenschaften kommt.
Um wiederholte Einstellungen an den Bedienelementen zu ermöglichen, verfü gen manche ophthalmologischen Geräte über einheitenlose Skalen, wodurch zumindest zu verschiedenen Zeitpunkten annähernd gleiche Einstellungen re produzierbar vorgenommen werden können. Nachteilig wirkt sich hierbei aber aus, dass die Einstellungen an den Bedienelementen vorgenommen werden, ohne wirklich zu wissen, welche entsprechenden Parameter des Beleuchtungs feldes real damit eingestellt sind.
In modernen ophthalmologischen Geräten wird es immer wichtiger Informatio nen zu den im Beleuchtungsfeldes genutzten realen Parametern auch in elekt ronischer Form vorliegen zu haben, um diese beispielsweise zu dokumentieren und/oder in einem Regelkreis nutzen zu können. Zudem ermöglicht das Vorlie gen dieser Informationen in elektronischer Form diese dem Nutzer im Okular oder auf einem Display zur Verfügung zu stellen. Dadurch kann sein Workflow erheblich verbessert werden, da er seine Position zum Gerät beibehalten kann und alle relevanten Informationen vorliegen hat.
Weiterhin eröffnet die elektronische Verfügbarkeit solcher Parameterinformatio nen die Möglichkeit, diese als (Meta-)lnformationen bei automatisierten weiter führenden Prozessen, wie z.B. Bildverarbeitung, deep-learning oder andere Verfahren der künstlichen Intelligenz mit heranzuziehen.
Das Vorliegen der real genutzten Parameter des Beleuchtungsfeldes in elektro nischer Form ist insbesondere unter dem Aspekt der aus der Ferne gesteuerten Nutzung ophthalmologischer Diagnosegeräte (auch unter dem Begriff der Tele- medizin bekannt) von besonderer Bedeutung. Hierbei ist der externe Bediener auf eine verlässliche Rückmeldung der aktuellen Gerätekonfiguration und insbesondere auch der realen Parameter des Beleuchtungsfeldes zwingend an gewiesen.
Hierzu beschreibt die WO 2013/081619 A1 ein System zur ophthalmologischen Bildgebung. Die vorliegende Lösung basiert auf einer ophthalmologischen Vor richtung, die über ein Netzwerk gesteuert wird und stereoskopische oder dreidi mensionale Bilder aufnimmt. Dabei kann das System von einem oder auch mehreren Ärzten aus der Ferne verwendet werden, um jeden Aspekt eines oph thalmologischen Geräts in Echtzeit über das Netzwerk dynamisch zu steuern und verbal mit dem Patienten zu interagieren. Die aufgenommenen dreidimen sionalen Bilder der Augen des Patienten werden in Echtzeit an den Arzt über tragen, der auf diese Weise eine Augenuntersuchung an mindestens einem Teil eines Auges durchführen kann. Da die Steuerung der ophthalmologischen Vor richtung über ein Netzwerk in Echtzeit erfolgt, kann der Arzt die Bilder variieren und verfeinern, um die Untersuchung zu optimieren. Unter Verwendung des vorliegenden Systems können umfassende Augenuntersuchungen aus der Ferne so detailliert und klar durchgeführt werden, als ob der Arzt am selben Ort wie der Patient anwesend wäre.
Aus verschiedenen Literaturquellen des Standes der Technik kann sowohl die Bedeutung als auch der Wunsch zur Nutzung solcher Geräteparameter ent nommen werden, um einen Vorteil oder Mehrwert für den Nutzer erzeugen zu können.
So sind Lösungen bekannt, die die Nutzung verschiedenster Beleuchtungspara meter beschreiben, um diese dem Nutzer als Hilfe für die Bedienung ophthal- mologischer Geräte zur Verfügung zu stellen.
So wird beispielsweise mit einem Spaltlampenmikroskop das Auge mit einer Spaltblende beleuchtet, um eine Vergrößerungsbeobachtung der gesamten vor deren Segmente des Auges, die Hornhaut, die Sklera, die Iris, die Augenlinse, die Bindehaut, die Augenkammer, den Eckwinkel, den Glaskörper und die Netzhaut durchzuführen. Darüber hinaus existieren verschiedene Beobach tungstechniken, die Spaltlampenmikroskope verwenden. Diese beinhalten so wohl unterschiedliche Beleuchtungs- als auch Bildaufnahmeverfahren. Die Be leuchtung kann beispielsweise diffus, direkt und tangential oder auch als Hinter grundbeleuchtung erfolgen. Bei den Bildaufnahmeverfahren ist das Fotografie ren mit Fluoreszenzfärbung oder das Fotografieren unter Verwendung eines Gonioskops oder einer Befestigungslinse weit verbreitet. Es ist zu beachten, dass bei Untersuchungen unter Verwendung eines Spaltlampenmikroskops Be obachtungsziele und Beobachtungstechniken willkürlich kombiniert und ange wendet werden.
Für Untersuchungen mit einem Spaltlampenmikroskops ist es notwendiger weise erforderlich, in Abhängigkeit der Auswahl von Beobachtungsziel und/oder Beobachtungstechnik die Einstellungen des optischen Systems, zum Beispiel: Bestrahlungswinkel, Menge des Beleuchtungslichts, Beobachtungsvergröße rung, Spaltbreite, Filter, aber auch des Bildaufnahmesystems, wie Lichtempfind lichkeit, Verschlusszeit, Blendenwert usw. entsprechend anzupassen. Nur dann sind optimale Bildaufnahmen und Untersuchungen, bei einer geringen Belas tung von Arzt und Patient möglich.
Allerdings ist es schwierig, die Einstellung des optischen Systems und des Bild aufnahmesystems gemäß den verschiedenen Kombinationen von Beobach tungszielen und/oder Beobachtungstechniken angemessen durchzuführen bzw. zu verändern. Insbesondere treten solche Probleme auf, wenn der Arzt für Un tersuchungen mit einem Spaltlampenmikroskop unerfahren ist.
Hierzu wird in der US 2014/0139807 A1 ein Spaltlampenmikroskop beschrie ben, mit dem die Einstellung des optischen Systems auf einfache Weise den unterschiedlichen Bedingungen angepasst werden können.
Dazu verfügt das Spaltlampenmikroskop über einer Speichereinheit, die konfi guriert ist, um Korrespondenzinformationen zu speichern, die mit jeder von mehreren Stellen eines Auges Standardeinstellungsbedingungen von Beleuch- tungs- und/oder Beobachtungssystem verknüpfen. Standardeinstellungsbedin gungen sind beispielsweise: der Wert der Beobachtungsvergrößerung, die Spaltbreite, die Lichtmenge, der Bestrahlungswinkels, das Vorhandensein oder Fehlen einer Bestrahlung des Hintergrundbeleuchtungslichts, sowie das Vor handensein oder Fehlen eines Diffusionselements, einer Blende bzw. eines Fil ters im Lichtweg.
Nach Festlegung der zu untersuchenden Stelle des Auges werden aus den Kor respondenzinformationen die Standardeinstellungsbedingungen für diese Stelle gesucht, mit den zuvor erfassten aktuellen Einstellzuständen verglichen und die Einstellungszuständen festgestellt, die sich von den gesuchten Standardeinstel lungsbedingungen unterscheiden. Die sich unterscheidenden Einstellzustände werden dann auf einer Anzeigeeinheit ausgegeben, um diese entsprechend korrigieren zu können. Allerdings scheint es bei der beschriebenen Lösung eher um die Nutzung der Daten in Form der Standardeinstellungsbedingungen zu gehen, denn die Gewinnung der Daten ist nur sehr vage angedeutet.
Nach dem bekannten Stand der Technik werden derartiger Daten mit Hilfe ver schiedener Sensoren gewonnen. Dabei kommen für die Erfassung von rotatori schen oder translatorische Bewegungen besonders oft axial gekoppelte Potenti ometer zum Einsatz. Andere mögliche Sensoren basieren auf der Detektion der Änderung von Eigenschaften von Schwingkreisen, Kapazitäten, Hall-Effekt oder ähnlichem.
Eine besondere Herausforderung stellen die notwendigen Dynamik- und Wer tebereiche für solche Sensors dar. So ist es beispielsweise bei einem Spaltlam penmikroskop erforderlich die Spaltbreite mit einer Genauigkeit von kleiner 25pm bestimmt werden, wenn Spaltbreiten zwischen 100pm und 20mm einge stellt werden sollen. Um das Vorhandensein oder Fehlen von Diffusionselementen, Blenden bzw. Filtern im Lichtweg zu detektieren, ist deren mechanische Lageveränderung zu bestimmen, was allerdings bei den beengten Bauräumen oft sehr schwierig ist.
Aus platztechnischen Gründen kann es mitunter auch erforderlich sein, dass Sensoren nicht direkt an dem den Leuchtfeldparameter beeinflussenden Bau teil, sondern entlang der Stellkette irgendwo zwischen Aktor (z.B. Drehknopf, Schiebeelement, ...) und Bauteil angeordnet werden. Dies führt zu systemati schen und zufälligen Abweichungen, Hysterese und anderen Fehlern, welche nur teilweise durch Kalibriervorgänge ausgeglichen werden können.
Nachteilig wirkt sich bei den bekannten Systemen aus, dass für die Bestim mung der sehr verschiedenen Parameter des Beleuchtungsfeldes auch ver schiedene Sensoren inklusive Signal- und Versorgungsleitungen und Auswer teelektronik erforderlich sind.
Neben der Lösung von Bauraumproblemen muss auch sichergestellt werden, dass sich die verschiedenen Geber und/oder Sensoren nicht gegenseitig beein flussen bzw. die Änderung eines der Geber wirklich nur von dem zugeordneten Sensor detektiert wird.
Letzteres wird besonders dann problematisch, wenn beispielsweise bei einem Spaltlampenmikroskop manche Baugruppen mit mehreren einzustellenden Pa rametern und damit auch mehreren Gebern, Sensoren, Anschlussleitungen u. ä. relativ zu dem Gehäuse bewegt werden müssen.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde die Nachteile der aus dem Stand der Technik bekannten Lösungen zu beheben und eine Lösung zur Einstellung und Kontrolle einer Vielzahl von Parametern des Beleuchtungs und/oder Beobachtungsfeldes ophthalmologischer Geräte zu entwickeln, die mit möglichst wenigen Sensoren auskommt und dabei deren Störanfälligkeit und gegenseitige Beeinflussung minimiert. Diese Aufgabe wird mit dem Verfahren zur Einstellung und Kontrolle von Para metern des Beleuchtungsfeldes ophthalmologischer Geräte, bei dem die ge wünschten Beleuchtungsparameter eingestellt, eine Beleuchtungsstrahlung mit den gewünschten Beleuchtungsparametern erzeugt, in eine Lichtverteilung in der Fokusebene umgesetzt, ein Teil der Beleuchtungsstrahlung ausgekoppelt, zur Analyse auf ein Sensorelement geleitet und aus den Sensordaten die realen Beleuchtungsparameter der Beleuchtungsstrahlung bestimmt werden, dadurch gelöst, dass als Sensorelement zur Analyse des auskoppelten Teils der Be leuchtungsstrahlung ein örtlich auflösender Bildsensor Verwendung findet.
Mögliche örtlich auflösende Bildsensoren können dabei beispielsweise auf CMOS- bzw. CCD-Technologie basieren, es sind aber zukünftig auch andere Technologien denkbar.
Einer ersten bevorzugten Ausgestaltung entsprechend spiegelt der ausgekop pelte Teil der Strahlung die reale Lichtverteilung wider und verändert diese möglichst nicht. Der Bildsensor der Digitalkamera nimmt Bilddaten kontinuierlich oder sequenziell auf, wobei die Dynamik des Bildsensors ausgenutzt wird.
Einer zweiten bevorzugten Ausgestaltung entsprechend werden die vom Bildsensor aufgenommenen Bilddaten in einem ersten Schritt auf ihre Validität geprüft werden.
Für die Bestimmung der Parameter aus den aufgenommenen Bilddaten werden Kalibrierwerten verwendet. Im Weiteren werden die ermittelten, realen Beleuch tungsparameter als numerische und/oder bildliche Darstellung dem Nutzer oder einer ihm zur Verfügung stehenden Software zur Verfügung gestellt und auf ei nem Display oder in einen Beobachtungsstrahlengang dargestellt.
Die vorgeschlagene Lösung ist zwar insbesondere zur Einstellung und Kontrolle von Parametern des Beleuchtungsfeldes ophthalmologischer Geräte vorgesehen, kann allerdings auch auf anderen technischen Gebieten, wie bei spielsweise der Mikroskopie Anwendung finden.
Die Erfindung wird nachfolgend anhand von Ausführungsbeispielen näher be schrieben. Dazu zeigen:
Figur 1 : eine schematische Darstellung des Ablaufes des erfindungsgemäßen Verfahrens in Form eines Programmablaufplanes und
Figur 2: eine schematische Darstellung der erfinderischen
Anordnung am Beispiel einer Spaltlampe.
Bei dem vorgeschlagenen Verfahren zur Einstellung und Kontrolle von Parame tern des Beleuchtungsfeldes ophthalmologischer Geräte werden die gewünsch ten Beleuchtungsparameter eingestellt, eine Beleuchtungsstrahlung mit den ge wünschten Beleuchtungsparametern erzeugt, in eine Lichtverteilung in der Fo kusebene umgesetzt, ein Teil der Beleuchtungsstrahlung ausgekoppelt, zur Analyse auf ein Sensorelement geleitet und aus den Sensordaten die realen Beleuchtungsparameter der Beleuchtungsstrahlung bestimmt. Erfindungsge mäß findet als Sensorelement zur Analyse des auskoppelten Teils der Beleuch tungsstrahlung ein örtlich auflösender Bildsensor Verwendung. Die geometri sche Auflösung des Sensors kann dabei an die von der Anwendung geforderte Genauigkeit angepasst sein. Dadurch ist für eine geringere Sensorauflösung auch die Nutzung sehr preiswerter Sensoren, vergleichbar z.B. mit denen opti scher Mäuse (Computereingabegerät) möglich.
Besonders bevorzugt wird der örtlich auflösende Bildsensor einer Kamera ver wendet. Die Beleuchtungsparameter werden dabei vom System oder dem Nutzer in Form von Informationen vorgegeben und so eingestellt, dass in einer/der Fo kusebene eine gewünschte Lichtverteilung erzeugt wird.
Gemäß der vorliegenden Lösung werden für die Erzeugung einer gewünschten Lichtverteilung beispielsweise folgende Beleuchtungsparameter verwendet: Helligkeit, Farbe, Lichtfeldform, Polarisation und ähnliche.
Dabei kann die Helligkeit einer Lichtverteilung durch Veränderung von Strom oder Spannung an der/den Lichtquelle(n) und die Lichtfarbe oder Farbtempera tur mit Hilfe von Filtern oder durch die Kombination verschiedenfarbiger Licht quellen und deren gezielter Verstärkung bzw. Abschwächung einstellen und ge gebenenfalls korrigieren.
Während sich die Feldform der Lichtverteilung durch Blenden, DMD, ELCoS, oder Ähnlichem verändern lässt, sind für die Veränderung deren Polarisation Pola risatoren erforderlich.
Erfindungswesentlich ist, dass der ausgekoppelte Teil der Strahlung die reale Lichtverteilung tatsächlich wiederspiegelt und diese durch die Auskopplung möglichst nicht verändert.
Sollte eine Veränderung des ausgekoppelten Strahles stattfinden ist dies bei der Bestimmung der realen Beleuchtungsparameter der Beleuchtungsstrahlung zwingend zu berücksichtigen. Dazu muss der Einfluss diese Veränderung aller dings bekannt sein. Diese kann man z. B. während des Fertigungsprozesses in Form einer Kalibrierung festgestellt, die bestimmten Parameter im Modul abge speichert und damit für die weitere Verwendung bereitgehalten werden.
Einer vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens entspre chend, werden vom örtlich auflösender Bildsensor kontinuierlich oder sequenzi ell Bilddaten aufgenommen. Besonders vorteilhaft kann hierbei die Dynamik des Bildsensors ausgenutzt und als Lichtleistungsdetektor verwendet wird.
Dazu wird besonders darauf geachtet, dass die einzelnen Bildpunkte nicht über steuert sind bzw. die Dynamik der verwendeten Kamera ausgenutzt wird. Dazu werden die Bildpunkte mit der größten Intensität ausgewählt und über einen Al gorithmus (z.B. binäre Suche) Kameraparameter, z.B. Belichtungszeit oder Verstärkung, so eingestellt, dass diese Bildpunkte einen Wert knapp unter halb des oberen Dynamikbereichs annehmen. Dadurch sollte es im gesamten Bild keine über- oder unter steuerten Bildpunkte mehr geben und alle Daten können für weitere Analysen genutzt werden. Diese Kameraeinstellungen kön nen dabei im Weiteren auch als Parameter genutzt werden.
Die vom örtlich auflösenden Bildsensor aufgenommenen Bilddaten werden ana lysiert und daraus mittels angepasster und/oder optimierter Algorithmen die Pa rameter bestimmt. In einem ersten Schritt können die aufgenommenen Bildda ten auf ihre Validität geprüft werden.
Dazu werden die Bilddaten mit einem Algorithmus untersucht, ob es ein oder mehrere Leuchtfelder in dem Kamerabilder gibt. Erwartet wird nur ein einzelnes Leuchtfeld. Falls mehrere gefunden werden, ist es möglich, dass das System nicht optimal eingestellt wurde. Dann sind auch die folgenden Algorithmus- Schritte nicht notwendiger Weise valide. Darauf ist der Nutzer im Idealfall hinzu weisen.
Aus den vom örtlich auflösenden Bildsensor aufgenommenen Bilddaten werden im Anschluss die Parameter mittels angepasster und/oder optimierter Algorith men bestimmt.
Für die Bestimmung der Parameter werden Kalibrierwerten herangezogen, wel che einmalig z.B. die Größen-, Winkel- und Farbdarstellung zwischen dem Bild feld und dem analysierten Ergebnis des Bildsensors abgleicht. Für die Bestimmung von Breite, Länge und Ausrichtung des Spaltes werden mit Hilfe eines Algorithmus aus den vom Bildsensor aufgenommenen Bilddaten das Leuchtfeld und dessen Kanten detektiert. Hierbei entspricht der Abstand zwi schen den zwei parallelen Kanten der Spaltbreite und der dazu senkrechte Ab stand der Spalthöhe. Die Mittellinie zwischen den beiden detektierten Kanten stellt den Bezug zur Drehwinkelauswertung der Spaltlage dar.
Aus der Intensität der verschiedenfarbigen Teilbilder der vom Bildsensor aufge nommenen Bilddaten kann auf die Farbe des Leuchtfelds geschlossen werden.
Da in ophthalmologischen Geräten meistens nur eine kleine Auswahl an Filtern zum Einsatz kommt, ist die Zuordnung der sensorisch detektierten Lichtvertei lung zu dem im Einsatz befindlichen Filter nicht weiter problematisch. Die ent sprechenden filterabhängigen Histogramme der Lichtverteilung können im Rah men des Justage-/Kalibrierprozesses in dem Sensor hinterlegt werden.
Nachdem mittels Bildverarbeitungsalgorithmen festgestellt wurde, ob ein oder mehrere der gewünschten Parameter richtig eingestellt sind, werden die ermit telten realen Beleuchtungsparameter der Beleuchtungsstrahlung zur Dokumen tation und/oder Reproduktion gespeichert.
Insbesondere können die aus den aufgenommenen Bildern bestimmten Para meter und deren Größe als Meta-Informationen zu dem aufgenommenen Bild abgespeichert oder als Eingangsgröße für einen Regelkreis des Beleuchtungs moduls verwendet werden.
Einerweiteren vorteilhaften Ausgestaltung des erfindungsgemäßen Verfahrens entsprechend werden die realen Beleuchtungsparameter als numerische und/ oder bildliche Darstellung dem Nutzer zur Verfügung gestellt. Dies erfolgt bei spielsweise auf einem Display oder direkt in den Beobachtungsstrahlengang. Hierzu zeigt die Figur 1 einen möglichen Ablauf des erfindungsgemäßen Ver fahrens in Form eines Programmablaufplanes.
Nach dem Einstellen der gewünschten Beleuchtungsparameter und dem Erzeu gen einer Beleuchtungsstrahlung mit den entsprechenden Beleuchtungspara metern wird ein Teil der erzeugten Lichtverteilung ausgekoppelt, analysiert und daraus die realen Beleuchtungsparameter der Beleuchtungsstrahlung bestimmt.
Hierzu wird vom örtlich auflösenden Bildsensor ein Bild aufgenommen, auf Vali dität geprüft und bei fehlender Validität wiederholt, wobei die Bildaufnahmepara meter bei Bedarf angepasst werden können. Aus den validen Bilddaten wird das Leuchtfeld detektiert, ebenfalls auf Validität geprüften und bei Nichtvorlie gen wiederholt, wobei der Nutzer eine Rückmeldung darüber erhalten kann.
Aus den validen Leuchtfeldern werden in einem ersten Schritt die Kanten der Spaltabbildung detektiert, deren Abmessungen bestimmt und vorzugsweise für den Nutzer zur Anzeige gebracht. Hierzu können zusätzlich Kalibrierdaten ver wendet werden.
In einem zweiten Schritt wird der Drehwinkel der Spaltabbildung bestimmt und vorzugsweise ebenfalls dem Nutzer zur Anzeige gebracht. Dabei stellt die Mit tellinie zwischen den beiden detektierten langen Kanten den Bezug zur Dreh winkelauswertung dar. Auch hierzu können zusätzlich Kalibrierdaten verwendet werden.
In einem dritten Schritt wird die Intensität bestimmt und aus der Intensität ver schiedenfarbiger Teilbilder auf die Farbe des Leuchtfelds geschlossen.
Gleichzeitig kann, nach einer entsprechenden Kalibrierung, aus der gemesse nen Intensität für eine gegebene Belichtungszeit der Kamera auf die Intensität der Lichtquelle geschlossen werden. Die vorgeschlagene Anordnung zur Einstellung und Kontrolle von Parametern des Beleuchtungsfeldes ophthalmologischer Geräte besteht aus einer Betäti gungseinheit zum Einstellen der gewünschten Beleuchtungsparameter, einer Beleuchtungseinheit zum Erzeugen einer Beleuchtungsstrahlung mit den ge wünschten Beleuchtungsparametern, einem Auskoppelelement zur Auskopp lung eines Teils der Beleuchtungsstrahlung, einem Sensorelement zur Analyse des auskoppelten Teils der Beleuchtungsstrahlung und einer Auswerteeinheit zur Auswertung der Sensordaten und zur Bestimmung der realen Beleuch tungsparameter der Beleuchtungsstrahlung. Erfindungsgemäß ist das Sensorel ement zur Analyse des auskoppelten Teils der Beleuchtungsstrahlung ein ört lich auflösender Bildsensor, der sowohl Intensitäten als auch Informationen ortsaufgelöst aufzeichnen kann.
Einer ersten vorteilhaften Ausgestaltung der erfindungsgemäßen Anordnung entsprechend ist das Sensorelement der örtlich auflösende Bildsensor einer Ka mera.
Um Farbinformationen auswerten zu können muss der Bildsensor über spektral unterschiedlich reagierende verfügen. Dazu ist beispielsweise auch der in vie len Kameras vorhandene BAYER-Matrix-Filter geeignet.
Einer vorteilhaften Ausgestaltung der erfindungsgemäßen Anordnung entspre chend, besteht die Beleuchtungseinheit aus mehreren spektral unterschiedli chen und separat ansteuerbaren Leuchtquellen. Zur Erhöhung des Dynamikbe reiches verfügt die Beleuchtungseinheit zudem über eine variable Blende.
Wie bereits beschrieben, werden für die Erzeugung einer gewünschten Licht verteilung beispielsweise folgende Beleuchtungsparameter verwendet: Hellig keit, Farbe, Lichtfeldform, Polarisation und ähnliche. Dabei kann die Helligkeit einer Lichtverteilung durch Veränderung von Strom oder Spannung an der/den Lichtquelle(n) und die Lichtfarbe oder Farbtemperatur mit Hilfe von Filtern oder durch die Kombination verschiedenfarbiger Lichtquellen und deren gezielter Verstärkung bzw. Abschwächung einstellen und gegebenenfalls korrigieren. Dabei lässt sich die Feldform der Lichtverteilung durch Blenden, DMD, ELCoS, oder Ähnlichem verändern.
Um die Parameter der realen Lichtverteilung bestimmen zu können, wird ein Teil der Strahlung, der die reale Lichtverteilung tatsächlich wiederspiegelt, aus gekoppelt. Der dafür vorgesehene Strahlteiler leitet diesen Teil der Strahlung zur Analyse auf den als Sensorelement dienenden örtlich auflösenden Bildsensor weiter.
Das Auskoppelelement zur Auskopplung eines Teils der Beleuchtungsstrahlung kann aber auch ein bereits existierendes Element in Form eines Spiegels oder Prismas sein, wobei eine optisch aktive Fläche statt als reflektierende optische Schicht, als teildurchlässige Schicht ausgebildet ist.
Wie bereits beschrieben, ist der örtlich auflösende Bildsensor ausgebildet konti nuierlich oder sequenziell Bilddaten aufzunehmen und an die Auswerteeinheit zu deren Auswertung und zur Bestimmung der realen Beleuchtungsparameter der Beleuchtungsstrahlung zu übermitteln.
Zur Analyse der vom Bildsensor aufgenommenen Bilder und zur Bestimmung der realen Beleuchtungsparameter der Beleuchtungsstrahlung verfügt die Aus werteeinheit über einen Mikroprozessor.
Der Mikroprozessor analysiert, durch den Einsatz angepasster/optimierter Algo rithmen die aufgenommenen Bilddaten und bestimmt die Parameter und deren Größe. Dazu werden vorzugsweise Kalibrierwerte herangezogen, welche ein malig z.B. die Größen-, Winkel- und Farbdarstellung zwischen den eingestell ten, gewünschten Beleuchtungsparametern und dem vom Bildsensor aufge nommenen, die reale Lichtverteilung in der Fokusebene charakterisierenden Bilddaten abgleicht. Die erfindungsgemäße Anordnung kann über eine Speichereinheit zur Doku mentation und/oder Reproduktion der realen Beleuchtungsparameter der Be leuchtungsstrahlung verfügen. Die ermittelten realen Beleuchtungsparameter der Beleuchtungsstrahlung können dabei als Eingangsgrößen eines Regelkrei ses für die Beleuchtungseinheit oder aber als Meta-Informationen zu den aufge nommenen Bilddaten abgespeichert werden.
Insbesondere kann diese dem Nutzer zur Kenntnis gebracht werden. Dazu kann die Anordnung über ein Element zur numerischen und/oder bildlichen Dar stellung der realen Beleuchtungsparameter verfügen.
Die numerische und/oder bildliche Darstellung kann dabei auf einem Display oder auch direkt im Beobachtungsstrahlengang erfolgen, wofür die Anordnung über ein Element zur Einkopplung in einen Beobachtungsstrahlengang verfügt.
Hierzu zeigt die Figur 2 eine schematische Darstellung der erfinderischen An ordnung am Beispiel einer Spaltlampe. An der Betätigungseinheit 1 werden die beispielhaft gewünschten Beleuchtungsparameter 2 eingestellt, um mit Hilfe der Beleuchtungseinheit 3 und der (vereinfacht dargestellten) Spalterzeugungsein heit 4 die entsprechende Beleuchtungsstrahlungsverteilung in der Fokusebene 5 zu erzeugen.
Vom Strahlteiler 6 wird ein Teil der Beleuchtungsstrahlung ausgekoppelt und zur Analyse der Beleuchtungsstrahlung auf den örtlich auflösenden Bildsensor 7 abgebildet. Der Mikroprozessor 8 wertet die vom örtlich auflösenden Bildsen sor 7 übermittelten Sensordaten aus, verrechnet sie mit eventuell vorhandenen Kalibrierdaten, bestimmt dadurch die realen Beleuchtungsparameter der Be leuchtungsstrahlung und stellt diese auf einem Display 9 dar.
Einer weiteren vorteilhaften Ausgestaltung der erfindungsgemäßen Anordnung entsprechend verfügt die Anordnung über ein zusätzliches Sensorelement zur polarisationsabhängigen Analyse des auskoppelten Teils der Beleuchtungsstrahlung. Nur so ist es möglich polarisationsabhängige Eigen schaften detektieren zu können.
Hierzu könnte beispielsweise ein Stokes-Aufbau verwendet werden, bei dem mindestens 4 verschiedene Polarisationszustände (parallel oder seriell) er zeugt, gemessen und daraus dann der Polarisationszustand der Strahlung zu rückgerechnet wird.
Weitere Ausgestaltungen betreffen, die den örtlich auflösenden Bildsensor bein haltende Kamera.
Eine vorteilhafte Ausgestaltung sieht vor, dass eine vorhandene, das eigentli che Bildfeld beobachtende Kamera über spezielle Algorithmen zur Analyse und Auswertung der Beleuchtungsinformationen aus dem Gesamtbild verfügt.
Weiterhin wäre es vorteilhaft, wenn eine vorhandene, zur Aufnahme von Bildin formation genutzte Kamera über spezielle Algorithmen zur Analyse und Aus wertung der Beleuchtungsinformationen aus dem Gesamtbild verfügt.
Mit der erfindungsgemäßen Lösung werden ein Verfahren und eine Anordnung zur Einstellung und Kontrolle von Parametern des Beleuchtungsfeldes ophthal- mologischer Geräte zur Verfügung gestellt, mit denen die Nachteile der aus dem Stand der Technik bekannten Lösungen behoben werden. Die vorgeschla gene Lösung ermöglicht eine Vielzahl von Parametern des Beleuchtungs und/oder Beobachtungsfeldes ophthalmologischer Geräte einzustellen, zu kon trollieren und dabei die Störanfälligkeit und gegenseitige Beeinflussung der Sensoren zu minimieren.
Als besonders vorteilhaft wirkt sich aus, dass die Lösung mit nur einem Sensor mehrere Parameter gleichzeitig aufnehmen und analysieren kann. Die Verwen dung des Bildsensors einer Kamera bringt weiterhin den Vorteil mit sich, dass sich der gesamte Aufbau erheblich miniaturisieren lässt.

Claims

Patentansprüche
1. Verfahren zur Einstellung und Kontrolle von Parametern des Beleuchtungs feldes ophthalmologischer Geräte, bei dem die gewünschten Beleuchtungs parameter eingestellt, eine Beleuchtungsstrahlung mit den gewünschten Beleuchtungsparametern erzeugt, in eine Lichtverteilung in der Fokusebene umgesetzt, ein Teil der Beleuchtungsstrahlung ausgekoppelt, zur Analyse auf ein Sensorelement geleitet und aus den Sensordaten die realen Be leuchtungsparameter der Beleuchtungsstrahlung bestimmt werden, dadurch gekennzeichnet, dass als Sensorelement zur Analyse des auskop pelten Teils der Beleuchtungsstrahlung ein örtlich auflösender Bildsensor Verwendung findet.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass der örtlich auf lösende Bildsensor einer Kamera Verwendung findet.
3. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass für die Erzeu gung einer gewünschten Lichtverteilung beispielsweise folgende Beleuch tungsparameter verwendet werden können: Helligkeit, Farbe, Lichtfeldform, Polarisation und ähnliche.
4. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die gewünsch ten Beleuchtungsparameter vom System oder dem Nutzer vorgegeben wer den.
5. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass der ausgekop pelte Teil der Strahlung die reale Lichtverteilung wiederspiegelt und diese möglichst nicht verändert.
6. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass der Bildsensor der Digitalkamera Bilddaten kontinuierlich oder sequenziell aufnimmt.
7. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Dynamik des Bildsensors ausgenutzt wird.
8. Verfahren nach Anspruch 1 und 6, dadurch gekennzeichnet, dass die Dyna mik des Bildsensors als Lichtleistungsdetektor genutzt wird.
9. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die vom Bild sensor aufgenommenen Bild analysiert und mittels angepasster und/oder optimierter Algorithmen die Parameter bestimmt werden.
10. Verfahren nach Anspruch 1 und 9, dadurch gekennzeichnet, dass die vom Bildsensor aufgenommenen Bilddaten in einem ersten Schritt auf ihre Vali dität geprüft werden.
11. Verfahren nach Anspruch 1 und 9, dadurch gekennzeichnet, dass zur Be stimmung der Parameter Kalibrierwerte verwendet werden.
12. Verfahren nach Anspruch 1 und 9, dadurch gekennzeichnet, dass in den vom Bildsensor aufgenommenen Bilddaten ein Leuchtfeld und dessen Kan ten detektieren und daraus die Breite, Länge und Ausrichtung des Spaltes bestimmen wird.
13. Verfahren nach Anspruch 1 und 9, dadurch gekennzeichnet, dass in den vom Bildsensor aufgenommenen Bilddaten aus der Intensität der verschie denfarbigen Teilbilder auf die Farbe des Leuchtfelds geschlossen wird.
14. Verfahren nach Anspruch 1 und 9, dadurch gekennzeichnet, dass in den vom Bildsensor aufgenommenen Bilddaten mittels Bildverarbeitungsalgo rithmen detektieren wird, ob ein oder mehrere der gewünschten Parameter richtig eingestellt sind.
15. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die realen Be leuchtungsparameter der Beleuchtungsstrahlung zur Dokumentation und/ oder Reproduktion gespeichert werden.
16. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die aus den aufgenommenen Bildern bestimmten Parameter und deren Größe als Meta- Informationen abgespeichert oder als Eingangsgröße für einen Regelkreis des Beleuchtungsmoduls verwendet werden.
17. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die realen Be leuchtungsparameter als numerische und/oder bildliche Darstellung dem Nutzer zur Verfügung gestellt werden.
18. Verfahren nach Anspruch 1 und 17, dadurch gekennzeichnet, dass die nu merischen und/oder bildlichen Darstellungen der realen Beleuchtungspara meter auf einem Display dargestellt oder in einen Beobachtungsstrahlen gang eingekoppelt werden.
19. Anordnung zur Einstellung und Kontrolle von Parametern des Beleuch tungsfeldes ophthalmologischer Geräte, bestehend aus einer Betätigungs einheit zum Einstellen der gewünschten Beleuchtungsparameter, einer Be leuchtungseinheit zum Erzeugen einer Beleuchtungsstrahlung mit den ge wünschten Beleuchtungsparametern, einem Auskoppelelement zur Aus kopplung eines Teils der Beleuchtungsstrahlung, einem Sensorelement zur Analyse des auskoppelten Teils der Beleuchtungsstrahlung und einer Aus werteeinheit zur Auswertung der Sensordaten und Bestimmung der realen Beleuchtungsparameter der Beleuchtungsstrahlung, dadurch gekennzeichnet, dass das Sensorelement zur Analyse des auskoppelten Teils der Beleuchtungsstrahlung ein örtlich auflösender Bildsensor ist.
20. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass das Senso relement der örtlich auflösende Bildsensor einer Kamera ist.
21. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass die Beleuch tungseinheit zur Erhöhung dessen Dynamikbereiches über eine variable Blende verfügt.
22. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass die Beleuch tungseinheit aus mehreren spektral unterschiedlichen und separat ansteu erbaren Leuchtquellen besteht.
23. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass das Auskop pelelement zur Auskopplung eines Teils der Beleuchtungsstrahlung ein Strahlteiler ist.
24. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass das Auskop pelelement zur Auskopplung eines Teils der Beleuchtungsstrahlung ein be reits existierendes Element in Form eines Spiegels oder Prismas ist, wobei eine optisch aktive Fläche statt als reflektierende optische Schicht, als teil durchlässige Schicht ausgebildet ist.
25. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass die Auswer teeinheit zur Analyse der vom Bildsensor aufgenommenen Bilder und zur Bestimmung der realen Beleuchtungsparameter der Beleuchtungsstrahlung über einen Mikroprozessor verfügt.
26. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass eine Spei chereinheit zur Dokumentation und/oder Reproduktion der realen Beleuch tungsparameter der Beleuchtungsstrahlung vorhanden ist.
27. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass ein Element zur numerischen und/oder bildlichen Darstellung der realen Beleuchtungs parameter vorhanden ist.
28. Anordnung nach Anspruch 19 und 27, dadurch gekennzeichnet, dass ein Element zur Einkopplung der numerischen und/oder bildlichen Darstellun gen der realen Beleuchtungsparameter in einen Beobachtungsstrahlengang vorhanden ist.
29. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass zusätzlich ein Sensorelement zur polarisationsabhängigen Analyse des auskoppelten Teils der Beleuchtungsstrahlung vorhanden ist.
30. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass eine vorhan dene, das eigentliche Bildfeld beobachtende Kamera über spezielle Algo rithmen zur Analyse und Auswertung der Beleuchtungsinformationen aus dem Gesamtbild verfügt.
31. Anordnung nach Anspruch 19, dadurch gekennzeichnet, dass eine vorhan dene, zur Aufnahme von Bildinformation genutzte Kamera über spezielle Al gorithmen zur Analyse und Auswertung der Beleuchtungsinformationen aus dem Gesamtbild verfügt.
PCT/EP2021/070317 2020-07-24 2021-07-21 Verfahren und vorrichtung zur einstellung und kontrolle von parametern des beleuchtungsfeldes ophthalmologischer geräte WO2022018108A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2023503457A JP2023534526A (ja) 2020-07-24 2021-07-21 眼科デバイスの照明エリアのパラメータを調整および制御するための方法および装置
CN202180059702.5A CN116171126A (zh) 2020-07-24 2021-07-21 用于设定和控制眼科设备的照明场的参数的方法和设备
US18/006,502 US20230284889A1 (en) 2020-07-24 2021-07-21 Method and apparatus for adjusting and controlling parameters of the illumination area of ophthalmological devices
EP21754929.4A EP4185182A1 (de) 2020-07-24 2021-07-21 Verfahren und vorrichtung zur einstellung und kontrolle von parametern des beleuchtungsfeldes ophthalmologischer geräte

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020209379.2A DE102020209379A1 (de) 2020-07-24 2020-07-24 Verfahren und Vorrichtung zur Einstellung und Kontrolle von Parametern des Beleuchtungsfeldes ophthalmologischer Geräte
DE102020209379.2 2020-07-24

Publications (1)

Publication Number Publication Date
WO2022018108A1 true WO2022018108A1 (de) 2022-01-27

Family

ID=77338637

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/070317 WO2022018108A1 (de) 2020-07-24 2021-07-21 Verfahren und vorrichtung zur einstellung und kontrolle von parametern des beleuchtungsfeldes ophthalmologischer geräte

Country Status (6)

Country Link
US (1) US20230284889A1 (de)
EP (1) EP4185182A1 (de)
JP (1) JP2023534526A (de)
CN (1) CN116171126A (de)
DE (1) DE102020209379A1 (de)
WO (1) WO2022018108A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11587528B2 (en) * 2021-02-12 2023-02-21 Microsoft Technology Licensing, Llc Optimized facial illumination from adaptive screen content

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030053031A1 (en) * 2001-08-31 2003-03-20 Adaptive Optics Associates, Inc. Ophthalmic instrument having hartmann wavefront sensor with extended source
US20060268231A1 (en) * 2003-07-03 2006-11-30 Medibell Medicall Vision Technologies, Ltd. Illumination method and system for obtaining color images by transcleral ophthalmic illumination
US20110176110A1 (en) * 2008-09-30 2011-07-21 Carl Zeiss Meditec Ag Arrangements and method for measuring an eye movement, particularly a movement of the fundus of the eye
WO2013081619A1 (en) 2011-12-01 2013-06-06 University Of Miami System for ophthalmic imaging
US8488895B2 (en) * 2006-05-31 2013-07-16 Indiana University Research And Technology Corp. Laser scanning digital camera with pupil periphery illumination and potential for multiply scattered light imaging
US20130301004A1 (en) * 2008-04-22 2013-11-14 Annidis Health Systems Corp. Retinal fundus surveillance method and apparatus
US20140139807A1 (en) 2011-06-14 2014-05-22 Kabushiki Kaisha Topcon Slit lamp microscope
WO2015003274A1 (en) * 2013-07-12 2015-01-15 Annidis Health Systems Corp. Retinal fundus surveillance method and apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030053031A1 (en) * 2001-08-31 2003-03-20 Adaptive Optics Associates, Inc. Ophthalmic instrument having hartmann wavefront sensor with extended source
US20060268231A1 (en) * 2003-07-03 2006-11-30 Medibell Medicall Vision Technologies, Ltd. Illumination method and system for obtaining color images by transcleral ophthalmic illumination
US8488895B2 (en) * 2006-05-31 2013-07-16 Indiana University Research And Technology Corp. Laser scanning digital camera with pupil periphery illumination and potential for multiply scattered light imaging
US20130301004A1 (en) * 2008-04-22 2013-11-14 Annidis Health Systems Corp. Retinal fundus surveillance method and apparatus
US20110176110A1 (en) * 2008-09-30 2011-07-21 Carl Zeiss Meditec Ag Arrangements and method for measuring an eye movement, particularly a movement of the fundus of the eye
US20140139807A1 (en) 2011-06-14 2014-05-22 Kabushiki Kaisha Topcon Slit lamp microscope
WO2013081619A1 (en) 2011-12-01 2013-06-06 University Of Miami System for ophthalmic imaging
WO2015003274A1 (en) * 2013-07-12 2015-01-15 Annidis Health Systems Corp. Retinal fundus surveillance method and apparatus

Also Published As

Publication number Publication date
DE102020209379A1 (de) 2022-01-27
EP4185182A1 (de) 2023-05-31
US20230284889A1 (en) 2023-09-14
CN116171126A (zh) 2023-05-26
JP2023534526A (ja) 2023-08-09

Similar Documents

Publication Publication Date Title
EP2335557B1 (de) Verfahren zum Prüfen eines optischen Untersuchungssystems
EP1488377B1 (de) Verfahren zur selbstüberwachung eines mikroskopsystems, mikroskopsystem und software zur selbstüberwachung
EP0167877A2 (de) Gerät zur Darstellungflächenhafter Bereiche des menschlichen Auges
WO1998023202A1 (de) Vorrichtung und verfahren zur untersuchung von biologischen gefässen
EP3807838A2 (de) Materialprüfung von optischen prüflingen
WO2002053020A2 (de) Vorrichtung und verfahren zur bildgebung, stimulierung, messung und therapie insbesondere am auge
DE102010047050A1 (de) Verfahren zur Charakterisierung einer Struktur auf einer Maske und Vorrichtung zur Durchführung des Verfahrens
DE102020106535A1 (de) Verfahren zum Anpassen einer Bildmaske
DE60113469T2 (de) Ophtalmisches Gerät zum messen und ermitteln von refractiver Stärkeverteilung
WO2022018108A1 (de) Verfahren und vorrichtung zur einstellung und kontrolle von parametern des beleuchtungsfeldes ophthalmologischer geräte
DE102005003440B4 (de) Fokussiervorrichtung für ophthalmologische Geräte, insbesondere Funduskameras und Verfahren zu dessen Verwendung
DE19501415A1 (de) Sehtestgerät
EP1220004A2 (de) Einrichtung zur Helligkeitssteuerung von überlagerten Zusatzinformationen in einer optischen Betrachtungseinrichtung
DE102009010446B4 (de) Verfahren und Vorrichtung zur Quantifizierung des Blutflusses in einem Gewebebereich
WO2002028110A1 (de) Verfahren zum überprüfen der funktionstüchtigkeit einer optischen detektionsvorrichtung sowie optische detektionsvorrichtung
EP1416843B1 (de) Vorrichtung zur kontaktlosen gewinnung von bildern der kornea
EP1262810A2 (de) Verfahren zur Entfernungsmessung ausgedehnter Objekte in Verbindung mit einer optischen Betrachtungseinrichtung und Mikroskop zur Durchführung desselben
WO2022122725A1 (de) Verfahren zum kalibrieren einer medizinischen bildgebungsvorrichtung sowie medizinische bildgebungsvorrichtung
DE102007031923A1 (de) Exzentrische Fotorefraktion mit scannendem Lichtstrahl
WO2009098092A1 (de) Verfahren und vorrichtung zur bestimmung der beleuchtungsstrahlendosis bei der operationsfeldbeleuchtung
DE10009532A1 (de) Vorrichtung und Verfahren zur Qualitätssicherung bei Augenoperationen
DE102010014114B4 (de) Ophthalmologisches Gerät mit Abbildungsmodi für Justier- und Messaufgaben
WO2014125063A1 (de) Anordnung und verfahren zur automatischen belichtung von fundusaufnahmen
DE102008000879A1 (de) Mikroskop umfassend wenigstens zwei Komponenten
WO2009018956A1 (de) Vorrichtung und verfahren zur automatischen fokussierung einer non-mydriatischen funduskamera

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21754929

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023503457

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2021754929

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021754929

Country of ref document: EP

Effective date: 20230224