DE102005025221A1 - Verfahren und Vorrichtung für bildbasierte Augenverfolgung zur retinalen Diagnostik oder für eine Chirurgievorrichtung - Google Patents

Verfahren und Vorrichtung für bildbasierte Augenverfolgung zur retinalen Diagnostik oder für eine Chirurgievorrichtung Download PDF

Info

Publication number
DE102005025221A1
DE102005025221A1 DE102005025221A DE102005025221A DE102005025221A1 DE 102005025221 A1 DE102005025221 A1 DE 102005025221A1 DE 102005025221 A DE102005025221 A DE 102005025221A DE 102005025221 A DE102005025221 A DE 102005025221A DE 102005025221 A1 DE102005025221 A1 DE 102005025221A1
Authority
DE
Germany
Prior art keywords
image
sequence
images
quality
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102005025221A
Other languages
English (en)
Other versions
DE102005025221B4 (de
Inventor
Winfried Teiwes
Horia Grecu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Od-Os 14513 Teltow De GmbH
Original Assignee
SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34925217&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE102005025221(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH filed Critical SensoMotoric Instruments Gesellschaft fuer Innovative Sensorik mbH
Publication of DE102005025221A1 publication Critical patent/DE102005025221A1/de
Application granted granted Critical
Publication of DE102005025221B4 publication Critical patent/DE102005025221B4/de
Revoked legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/008Methods or devices for eye surgery using laser
    • A61F2009/00844Feedback systems
    • A61F2009/00846Eyetracking
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/008Methods or devices for eye surgery using laser
    • A61F2009/00861Methods or devices for eye surgery using laser adapted for treatment at a particular location
    • A61F2009/00872Cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/008Methods or devices for eye surgery using laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Augenverfolgungsverfahren zum Bestimmen der Position eines Auges oder eines Teils eines Auges in einem Bild einer Bildsequenz durch Durchführen eines Vergleichs zwischen dem Bild und einem Referenzbild, wobei das Verfahren einschließt: Ausrichten eines Satzes von Bildern; Berechnen eines qualitätsverbesserten Referenzbildes, basierend auf einer Kombination des Satzes von ausgerichteten Bildern; und Bestimmen der Position in dem Bild der Bildsequenz durch Vergleich des Bildes der Bildsequenz und des qualitätsverbesserten Referenzbildes, um eine Bewegungsabschätzung zwischen dem Referenzbild und dem Bild der Bildsequenz zu erhalten.

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung, die Verwendung findet bei der bildbasierten Verfolgung einer Augenbewegung oder einer Position in einer Vorrichtung für retinale Diagnose/Chirurgie.
  • Hintergrund der Erfindung
  • Bildbasierte Verfolgung einer Augenbewegung oder einer Augenposition wird bekanntermaßen für verschiedene Anwendungen durchgeführt, etwa für die Chirurgie und die Diagnose, ein Beispiel ist dabei eine Vorrichtung für retinale Diagnose/Chirurgie. Herkömmliche Augenverfolgungstechniken leiden jedoch unter verschiedenen Problemen. Ein Problem besteht darin, daß die Bildqualität des Systems, d. h. das Signal-Rausch-Verhältnis (SNR). Ist das SNR niedrig, so sind die Bildverarbeitungstechniken, die für die Augenverfolgung verwendet werden, nicht so akkurat, wie sie sein könnten. Ferner gibt es Probleme, die aus dem spezifischen instrumentellen Aufbau resultieren.
  • Ein solches Beispiel ist das retinale Videoverfolgen für einen optischen Kohärenztomographen (OCT) zur Messung der Dicke und Struktur der Retinaschichten, aber andere spezifische Felder wie etwa Vorrichtungen für die Chirurgie, die Diagnose oder das Überwachen des Auges können hier auch erwähnt werden.
  • Im Falle eines OCT-Systems interferiert der Meßstrahl des OCT mit dem Bild des Augenhintergrunds (Fundus) aufgrund der Tatsache, daß das Illuminationsspektrum des Strahls nahe dem abbildenden Spektrum (nahes Infrarot) ist. Die Effekte des OCT-Strahls können als die folgenden zwei Komponenten aufweisend beschrieben werden:
    • – Sättigung des Bildes auf kleinen Bereichen, an denen der Strahl der Retinaoberfläche trifft
    • – Niederfrequente Illuminationsveränderungen, die durch Lichtdiffusion des Strahls auf der Retinaoberfläche und Lichtreflektion des Strahls von der Retinaoberfläche verursacht werden.
  • Ferner wird das Bild verschlechtert durch ein Aufnahmerauschen und durch Illuminationsstörungen, die durch Veränderungen der Pupillengröße und der Ausrichtung während der Prozedur verursacht werden. Die Erfindung kann angewendet werden auf jede Vorrichtung, in der entweder ein Meß-Scanstrahl oder ein chirurgischer Laserstrahl das für das Verfolgen oder die Ausrichtung verwendete Retinabild beeinflußt.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung bereitzustellen, die in der Lage ist, die Leistungsfähigkeit eines herkömmlichen Augenverfolgungssystems zu erhöhen.
  • Zusammenfassung der Erfindung
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein Augenverfolgungsverfahren bereitgestellt zum Bestimmen der Position eines Auges oder eines Augenmerkmals wie etwa der Retina in einem Bild einer Bildsequenz, und zwar durch Durchführen eines Vergleichs zwischen dem Bild und einem Referenzbild, wobei das Verfahren einschließt:
    Ausrichten eines Satzes von Bildern;
    Berechnen eines qualitätsverbesserten Referenzbildes basierend auf einer Kombination des Sätzen von ausgerichteten Bildern; und
    Bestimmen der Position in dem Bild der Bildsequenz durch Vergleichen des Bildes der Bildsequenz und des qualitätsverbesserten Referenzbildes, um eine Bewegungsabschätzung zwischen dem Referenzbild und dem Bild der Sequenz zu erhalten.
  • Durch Verwendung eines qualitätsverbesserten (oder verbesserten) Referenzbildes wird es möglich, die Gesamtgenauigkeit des Augenverfolgungsverfahrens zu verbessern und dadurch dessen Leistungsfähigkeit zu verbessern.
  • Im Falle eines OCT-Systems wird es damit möglich, trotz der Verwendung von gestörter (Echtzeit-) Bilder ein Verfolgen zu ermöglichen, ohne daß irgendwelche Hardwareänderungen oder Änderungen an der Optik erforderlich sind, um den Einfluß des Scan-Strahls zu verringern, und zwar aufgrund der Verwendung eines qualitätsverbesserten Referenzbildes für den Vergleich mit den Echtzeitbildern.
  • Ein Satz von im Voraus aufgenommenen Bildern kann auf dieselbe Retinaposition ausgerichtet werden und dann durch Mittelbildung des ausgerichteten Satzes von Bildern kombiniert werden, um das qualitätsverbesserte Referenzbild zu erzeugen. Dieses qualitätsverbesserte Referenzbild kann dann verwendet werden, um Positionsbestimmung und Augenverfolgung in Verbindung mit einer Diagnose- und/oder Chirurgie-Vorrichtung durchzuführen. Die Diagnose- und/oder Chirurgievorrichtung kann in einem Ausführungsbeispiel eines der folgenden sein:
    eine OCT-Vorrichtung;
    eine refraktive Chirurgie-Vorrichtung.
  • Gemäß einem Ausführungsbeispiel wird eine OCT-Spot-Spurwiederherstellung durchgeführt, um eine gesättigte OCT-Spot-Spur aus einem Bild in der Sequenz zu eliminieren, indem das gesättigte Gebiet durch Interpolation oder eine Durchschnittsintensität in einem entsprechendem Gebiet von ungesättigten Bildern ersetzt wird, was unter Verwendung eines oder mehrerer geeigneter Filter Illuminationsvariationen kompensiert. Dies reduziert den störenden Effekt des OCT-Spots.
  • Gemäß einem Ausführungsbeispiel umfaßt eine Bewegungsabschätzung:
    Durchführen einer globalen Bewegungsabschätzung zwischen dem Referenzbild und dem Bild der Sequenz; und
    Durchführen einer Bewegungsabschätzung basierend auf Landmarks des Referenzbildes und des Bildes der Bildsequenz. Dieser zweischrittige Mechanismus erzielt eine bessere Genauigkeit und ist weniger anfällig für Störeffekte.
  • In einem Ausführungsbeispiel wird die globale Bewegungsabschätzung durch eine Bewegungsabschätzung basierend auf Teilen oder Landmarks verbessert. Diese können vom Benutzer ausgewählt werden oder automatisch ausgewählt werden.
  • In einem Ausführungsbeispiel wird das qualitätsverbesserte Referenzbild für einen der folgenden Schritte verwendet:
    OCT-Spot Wiederherstellung;
    Ableiten eines spektral angepaßten Filters zum Auswählen einer oder mehrerer Retina-Spektrumkomponenten mit dem höchsten Signal-Rausch-Verhältnis.
  • In einem Ausführungsbeispiel umfaßt das Verfahren ferner:
    Ausrichten von während unterschiedlicher Zeitperioden aufgenommener Bildsequenzen durch Ausrichten eines qualitätsverbesserten Referenzbildes, das einer der Sequenzen entspricht, mit einem Referenzbild oder qualitätsverbesserten Referenzbild, das der zweiten Sequenz entspricht. Dies ermöglicht eine Ausrichtung unterschiedlicher Sessions, was für eine Langzeitdiagnose nötig ist.
  • Gemäß einem Ausführungsbeispiel wird ein Verfahren bereitgestellt zum Verbessern der Videoanzeige des Bildes eines Auges oder eines Teils eines Auges, wobei das Verfahren aufweist:
    Ausrichten einer Sequenz von Bildern, die einem momentanen Bild des Videostreams vorhergehen, bezüglich des momentanen Bilds;
    Kombinieren des resultierenden ausgerichteten Satzes von Bildern in ein qualitätsverbessertes Bild, das als Basis für ein qualitätsverbessertes momentanes Bild des Videostreams verwendet wird. Dadurch wird die Qualität des Videostreams verbessert.
  • Gemäß einem Ausführungsbeispiel umfaßt das Verfahren das Ausrichten der Bilder der vorhergehenden Sequenz basierend auf Augenverfolgungsinformationen, und für die Augenverfolgung kann das qualitätsverbesserte Referenzbild verwendet werden.
  • Gemäß einem Ausführungsbeispiel wird ein Verfahren zum Betrieb einer diagnostischen oder chirurgischen Vorrichtung basierend auf Augenverfolgung geschaffen, wobei das Verfahren aufweist:
    Bestimmen, ob eine Anomalie während der Augenverfolgung detektiert wird;
    falls eine Anomalie detektiert wird während der Augenverfolgung, Versetzen der diagnostischen oder chirurgischen Vorrichtung in einen HOLD-Modus. Dies ermöglicht es dem System, die negativen Einflüsse von Anomalien in der Augenbewegung wie etwa ruckartiges Anhalten (Sakkade oder Links).
  • Gemäß einem Ausführungsbeispiel ist eine Anomalie eines der folgenden:
    eine Veränderung in der Bildqualität jenseits eines bestimmten Schwellwerts;
    eine schnelle Bewegung des Auges, dessen Geschwindigkeit jenseits eines bestimmten Schwellwerts liegt;
    eine Verwischung (blurring) des für die Augenverfolgung verwendeten Bildes;
    eine Verwischung des für die Augenverfolgung verwendeten Bildes in Verbindung mit einer schnellen Bewegung;
    eine kumulierte Differenz zwischen aufeinanderfolgenden Verfolgungsbildern, die jenseits eines bestimmten Schwellwerts liegt.
  • In einem Ausführungsbeispiel kann das Verfahren ferner aufweisen:
    Bestimmen derjenigen Orte, an denen der Betrieb der chirurgischen oder diagnostischen Vorrichtung nicht zu einem korrekten Resultat führte;
    erneutes Durchführen des Betriebs der chirurgischen oder diagnostischen Vorrichtung für diese ermittelten Orte.
  • Weitere Ausführungsbeispiele umfassen Systeme und Vorrichtungen, welche Verfahren gemäß den Ausführungsbeispielen der Erfindung implementieren.
  • Beschreibung der Zeichnungen
  • 1 illustriert schematisch einen Aufbau zum Implementieren eines Ausführungsbeispiels der Erfindung.
  • 2 illustriert schematisch ein Verfahren gemäß einem Ausführungsbeispiel der Erfindung.
  • 3 illustriert schematisch ein Verfahren gemäß einem weiteren Ausführungsbeispiel der Erfindung.
  • 4 illustriert schematisch ein Bewegungsabschätzungsverfahren gemäß einem weiteren Ausführungsbeispiel der Erfindung.
  • 5 illustriert schematisch ein Verfahren gemäß einem weiteren Ausführungsbeispiel der Erfindung.
  • Detaillierte Beschreibung
  • Ein erstes Ausführungsbeispiel der Erfindung wird nun in Verbindung mit 1 beschrieben. Eine Kamera (z. B. CCT-Kamera) 110 nimmt Videobilder eines Auges auf, und die Bilder werden an einen Computer eingegeben. Solch eine Anordnung entspricht einem herkömmlichen Augenverfolgungssystem und kann auch für die folgende Erfindung Anwendung finden. In dem herkömmlichen Augenverfolgungssystem „verfolgt" der Computer 120 basierend auf den aufgenommenen Bildern die Augenbewegung, z. B. durch Vergleich der Position einiger „Landmarks" in dem momentanen Bild mit der Position in dem vorhergehenden Bild, um damit die Bewegung des Auges „zu verfolgen". Basierend auf der verfolgten tatsächlichen Position kann ein Feedbacksignal bestimmt werden, das dann verwendet wird, um eine Positionskompensation bei einer chirurgischen oder diagnostischen Vorrichtung (nicht in 1 gezeigt) durchzuführen.
  • Um die Bewegung des Auges zu verfolgen oder die Position eines Auges zu bestimmen wird ein momentanes Bild des Auges mit einem Referenzbild verglichen. Gemäß dem Ausführungsbeispiel wird dieses Referenzbild dadurch erhalten, daß eine Mehrzahl von Bildern in ein qualitätsverbessertes Referenzbild kombiniert wird. Dies wird nun in Verbindung mit 2 etwas detaillierter erläutert.
  • In Operation 200 wird eine Mehrzahl von „anfänglichen Bildern" aufgenommen, z. B. durch Aufnahme einer Bildsequenz bevor die tatsächliche Verfolgung startet. So nimmt beispielsweise die Kamera für 0,5 Sekunden vor der tatsächlichen Verfolgung eine Bildsequenz auf, dies ergibt dann den Satz von „anfänglichen Bildern" basierend auf denen das qualitätsverbesserte Referenzbild erhalten wird.
  • In Operation 200 werden dann die anfänglichen Bilder hinsichtlich ihrer Position ausgerichtet. Dies kann unter Verwendung eines Standard-Bewegungsabschätzungsverfahrens für jedes der anfänglichen Bilder durchgeführt werden, die dann basierend auf dem Ergebnis ausgerichtet werden.
  • In der Operation 220 werden dann die ausgerichteten anfänglichen Bilder in ein qualitätsverbessertes Referenzbild kombiniert, beispielsweise durch Mittelwertbildung der anfänglichen Bilder in ein einzelnes Bild, welches dann ein qualitätsverbessertes Signal-Rausch-Verhältnis aufweist.
  • In Operation 230 wird das qualitätsverbesserte Referenzbild dann verwendet, um zu verfolgen oder die Position zu messen, z. B. durch Vergleich der Position eines momentanen Bildes mit dem qualitätsverbesserten Referenzbild.
  • Gemäß einem Ausführungsbeispiel besteht die Augenverfolgung aus zwei Hauptelementen, welche die folgenden sind:
    • A. Ausrichtung eines Bildsatzes
    • B. Ausrichtung einer Bildsequenz
  • Die Ausrichtung eines Bildsatzes nimmt einen Satz von (beispielsweise) Retina-Bildern als Eingabe und erzeugt ein qualitätsverbessertes (Retina-) Bild als Ausgabe durch Kombination der Information in dem Bildsatz. Die Bildsatzausrichtung wird in einem Ausführungsbeispiel ausgeführt, bevor das tatsächliche Verfolgen ausgeführt wird, und sie trägt keine Echtzeit-Beschränkungen, so daß das Verfahren auf eine Art und Weise ausgeführt werden kann, die darauf ausgerichtet ist, die Qualität des Ergebnisses zu maximieren.
  • Die Ausrichtung der Bildsequenz verwendet das qualitätsverbesserte Retina-Bild, das vorher produziert wurde, um eine Sequenz von neuen Retina-Bildern mit dem erwähnten qualitätsverbesserten Retina-Bild zu vergleichen, um eine Augenposition/Augenbewegung zu ermitteln, um eine Augenverfolgung durchzuführen. Dies Bildsequenzausrichtung trägt Echtzeit-Anforderungen (aufgrund des kontinuierlichen Inputs von momentanen Echtzeit-Bildern) und gemäß einem Ausführungsbeispiel ist sie darauf ausgerichtet, einen optimalen Kompromiß zwischen der Bewegungsabschätzungsqualität und dem notwendigen Rechenaufwand zu erzielen.
  • Nachfolgend wird ein anderes Ausführungsbeispiel etwas genauer im Detail beschrieben, das sich auf eine Anwendung auf dem Gebiet der optischen Kohärenztomographie (OCT) bezieht. Ein OCT-System arbeitet ähnlich einer Ultraschall-Bildvorrichtung, ausgenommen daß anstelle von Ultraschall Infrarot (IR)-Licht verwendet wird, das als OCT-Strahl emittiert wird, von der Retina reflektiert wird und dann basierend auf dem reflektierten Licht und Bildverarbeitungsverfahren ein diagnostisches Bild erhalten wird. Solche Systeme sind dem Fachmann wohl bekannt und werden daher nicht weiter hier beschrieben. Sowohl in der Satzausrichtung als auch in der Sequenzausrichtung ist ein Hauptproblem bei einem OCT-System das der unerwünschten Effekte des OCT-Strahls. Ein Vorverarbeitungsverfahren, das diese Effekte kompensiert, wird nachfolgend beschrieben. Gemäß einem Ausführungsbeispiel umfaßt dieses Verfahren die Aufnahme des Bildsatzes, das zum Erhalten des qualitätsverbesserten Referenzbildes verwendet wurde, ferner umfaßt es eine Illuminationsnormalisierung und eine OCT-Spot-Spurwiederherstellung.
  • Zunächst wird das Vorverarbeitungsverfahren beschrieben. Danach wird die Bildsatz-/Sequenzausrichtung beschrieben.
  • Das Vorverarbeitungsverfahren besteht in einem Ausführungsbeispiel aus den folgenden Unterschritten:
    • 1. Auswählen eines kleinen Satzes (oder Untersatzes) von Bildern zu Beginn der Prozedur
    • 2. Vorverarbeiten jedes Bildes, um die Illuminationsstöreffekte zu reduzieren
    • 3. Vorverarbeiten jedes Bildes, um die OCT-Spot-Spur (saturierte Pixel) wiederherzustellen
    • 4. Ausrichten des Bildsatzes bezogen aufeinander und temporäre Mittelbildung, um den Effekt des Aufnahmerauschens sowie anderer Reststörungen zu reduzieren.
  • Der Untersatz von Bildern wird vor dem Beginn des Scanmodus aufgenommen, und zwar im Scan-Ausrichtungsmodus. In einem Ausführungsbeispiel werden etwas 0,5 Sekunden eines Live-Videostreams aufgenommen, die in den Speicher gepuffert und nachfolgend verarbeitet werden. Falls Bilder während dieser Periode unter schlechter Qualität leiden (sehr niedriger Kontrast oder große saturierte Gebiete), so werden sie verworfen.
  • Dann schreitet die Vorverarbeitung fort mit einer Illuminationsnormalisierung. Die Illuminationsnormalisierung wird in einem Ausführungsbeispiel als Kombination eines homomorphen und eines Hochpaß-Filters durchgeführt. Das bedeutet, die Signalpixel werden durch einen multiplikativen oder/und additiven Einfluß der Illuminationsstärke verändert. Falls Licht von der Retina reflektiert wird, so ist dieser Effekt multiplikativ (d. h. der Kontrast vergrößert sich). Falls Licht durch die Retina von punktuellen Quellen gestreut wird, so ist der Effekt additiv (d. h. die Helligkeit vergrößert sich).
  • In Wirklichkeit treten beide Effekte auf. Im Gebiet der Pupille ist der Effekt hauptsächlich multiplikativ, während nahe an der Strahlspur der Effekt eher additiv ist. Ein Versuch der Illuminationsnormalisierung, um diese Effekte zu reduzieren, kann in einem Ausführungsbeispiel wie folgt durchgeführt werden:
    • 1. Durchführen einer Tiefpaßfilterung mit einem großen Kern (z. B. 10 – 20 Pixel). Das Ergebnis repräsentiert die Illuminationsvariation Ilum. Standardmethoden, die dem Fachmann bekannt sind, können angewendet werden, um die Tiefpaßfilterung durchzuführen.
    • 2. Korrigieren jedes Pixels gemäß der Beziehung: Im(x,y) = alpha·(Im(x,y)/Ilum(x,y)) + (1 – alpha)·(Im(x,y) – Ilum(x,y))Der Parameter alpha steuert das Gewicht der multiplikativen/additiven Korrektur und variiert mit der Position in dem Bild. Genauer gesagt hängt der Wert alpha von der Intensität von Pixeln in Im(x,y) gemäß einer vordefinierten Funktion ab. Typischerweise wird er für dunkle Pixel näher an 1 gewählt, während er für Pixel, die nahe der Sättigung liegen, näher an 0 gewählt wird. Sowohl additive als auch multiplikative Bildkorrekturverfahren sind im Stand der Technik bekannt. Die Kombination der beiden Modelle ist also für den Fachmann nicht schwierig. Details können in jedem Bildverarbeitungshandbuch gefunden werden, beispielsweise in: Anil K. Jain, Fundamentals of Digital Image Processsing, Prentice Hall 1988. (Beachte: Der Einfachheit halber sind bei den gegebenen Gleichungen bestimmte feste Offset-/Skalierungsfaktoren weggelassen, die verwendet werden, um die multiplikativen/additiven Bilder vergleichbar zu machen).
  • Es sollte festgehalten werden, daß die obige Tiefpaßfilterung eine Ringbildung in der Umgebung des OCT-Strahlspots erzeugt, da die Illumination in diesen Gebieten sehr abrupt variiert.
  • Die Behandlung von saturierten Pixeln erfordert daher einen unterschiedlichen Kompensation- (oder „Korrektur"-)Ansatz. In einem Ausführungsbeispiel können die Saturationseffekte mit einem Verfahren behandelt werden, das die folgenden Schritte aufweist:
    • 1. Die OCT-Spotspur wird zunächst identifiziert durch Anwenden eines Bildschwellwertes, um die sehr hellen Pixel zu detektieren.
    • 2. Das Binärbild wird „verwaschen" (blurred) mit einem Kern, der identisch demjenigen ist, der bei der Illuminationsnormalisierung verwendet wurde. Alle Pixel, die in diesem Maskenbild nicht Null sind, repräsentieren ungültige Pixel (entsprechen gesättigten Pixeln). Das „Verwaschen" berücksichtigt, daß die Schwellwertbildung einige Pixel an den Kanten der saturierten Gebiete „übersehen" kann, die tatsächlich auch als eine Kompensation bedürfend angesehen werden sollten. Für das „Verwaschen" kann jedes Standard-„Blurring-Verfahren", das Fachleuten auf dem Gebiet der Bildverarbeitung bekannt ist, verwendet werden.
    • 3. Der Gesamtsatz von illuminationsnormalisierten Bildern wird über die Zeit gemittelt, wobei aufgepaßt wird, daß ungültige Pixel ignoriert werden. Die ungültigen Pixel werden auf andere Weise wie nachfolgend beschrieben behandelt.
    • 4. Jedes Bild wird in den ungültigen Pixeln wiederhergestellt als alpha-Mischung (alpha-blending) zwischen Bild und dem Mittelwertbild. Der alpha-Faktor wird repräsentiert durch das Maskenbild, das während des Illuminationsnormalisierungsprozesses berechnet wurde.
  • Nach der Illuminationsnormalisierung ist die Vorverarbeitung gemäß einem Ausführungsbeispiel vollständig, und das Verfahren kann nun mit der Ausrichtung des anfänglichen Satzes oder Untersatzes von Bildern beginnen, die vorverarbeitet wurden.
  • Direkte Bild-zu-Bild-Ausrichtung ist bei Bildern mit niedrigem Signal-Rausch-Verhältnis schwierig. Gemäß einem Ausführungsbeispiel der Erfindung kann daher ein qualitätsverbessertes Referenzbild erhalten werden, das dann für die Augenpositionsbestimmung verwendet wird. Dies verbessert das Signal-Rausch-Verhältnis und erzielt eine bessere Genauigkeit.
  • Im Detail wird gemäß einem Ausführungsbeispiel die Ausrichtung des anfänglichen Satzes zum Erhalten des qualitätsverbesserten Referenzbildes zur Verbesserung des Signal-Rausch-Verhältnisses wie folgt durchgeführt. Zunächst wird ein großer Satz von Messungen, die redundant sind, durchgeführt und es wird fortgeschritten mit der Lösung eines über bestimmten (??) Systems von Gleichungen. Seien n Bilder gegeben, so würde ein salcher Ansatz es erfordern, die Verschiebung zwischen jedem Paar von Bildern (1, 2) (1, 3)..(1, n), (2, 3), (2, 4)..(2, n).. (n – 1, n) zu berechnen. Dies führt zu n(n + 1)/2 Bildpaarvergleichen, um die Verschiebungen der individuellen Bilder zu ermitteln, welche dann ausgerichtet und addiert oder gemittelt werden können. Allerdings handelt es sich dabei, was die erforderliche Zeit zur Berechnung anbetrifft, um eine Art von „brute force"-Methode, die zwar im Prinzip arbeitet, aber die – gemäß weiterer Ausführungsbeispiele – durch effizientere Kalkulationsverfahren ersetzt werden kann.
  • Beispielsweise kann angemerkt werden, daß im Falle von linearen Operatoren (wie etwas der Korrelationsfamilie) die Ordnung von Operationen invertiert werden kann, man kann nämlich zuerst k Bilder addieren und dann die Verschiebung berechnen, anstelle der Berechnung von k Verschiebungen und dann dem Aufaddieren der Ergebnisse. Dieser Ansatz arbeitet so lange die k Bilder nicht bezüglich zueinander sich bewegen.
  • Augenbewegungsforschung führt jedoch zu den folgenden Fakten:
    • – Bewegung während kurzer Fixationen sind gering
    • – Fixationsdauern sind zumindest 100 ms
    • – Sakkaden/Zwinkern während Fixationen sind kleiner als 30 ms
    • – Sakkaden/Zwinkern während Fixationen haben niedrige Frequenz < 3/sec
  • Basierend darauf kann ein Ausführungsbeispiel wie folgt arbeiten:
    • 1. Teile einen anfänglichen Satz von 32 Bildern in 4 Untersätze von 8 Bildern. Jeder Untersatz repräsentiert eine Zeitspanne von 128 ms.
    • 2. Mittle jeden Untersatz, um ein Mittelbild von Untersatz zu erhalten.
    • 3. Messe die Verschiebung eines Bildes bezüglich der 3 Mittelbilder der Untersätze, zu denen es nicht gehört.
    • 4. Nehme den Median der 3 Messungen als tatsächliche Verschiebung
    • 5. Basierend auf den Ergebnissen, verschiebe jedes Bild so, daß der Satz nun ausgerichtet ist, und ermittle dann alle 32 Bilder, um das endgültige qualitätsverbesserte Referenzbild zu erhalten.
  • Die genauen Zahlen in dem vorhergehenden Beispiel sollen als lediglich informative Beispiele verstanden werden, das Verfahren kann auf jede Anzahl von Bildern/Untersätzen etc. angewendet werden.
  • Nachdem das qualitätsverbessere Referenzbild wie vorher beschrieben erhalten wurde, kann dieses Referenzbild verwendet werden, um die Augenposition oder Augenbewegung zu bestimmen oder Augenverfolgung durchzuführen. Ein Beispiel der Verwendung des qualitätsverbesserten Bildes wäre in Verbindung mit einer chirurgischen/diagnostischen Vorrichtung, welche eine Rückkopplung für die Kompensation der Bewegung des Auges benötigt, typischerweise in Echtzeit. Der Betrieb eines solchen Systems ist schematisch durch das Flußdiagramm aus 3 illustriert.
  • In Operation 300 wird ein Echtzeitbild des Auges (oder eines Teils davon oder einiger seiner Teile) erhalten, z. B. durch Verwendung eines schematisch in 1 gezeigten Systems. Das damit erhaltene Bild wird dann in Operation 310 mit dem qualitätsverbesserten Referenzbild verglichen, z. B. unter Verwendung eines Standardverfahrens, um die Bewegung oder die Verschiebung zwischen den Bildern zu bestimmen. Solche Verfahren für die Bewegungsabschätzung sind dem Fachmann wohl bekannt und werden daher hier nicht weiter im Detail beschrieben.
  • In Operation 320 wird dann die tatsächliche Verschiebung bestimmt, und zwar unter Verwendung der Bewegungsabschätzungsmethode, die in Operation 310 angewendet wurde. Dies führt dann zu der tatsächlichen Position (oder der Verschiebung des Referenzbildes) des Bildes, das in Operation 300 aufgenommen wurde. Basierend auf der Verschiebung wird in Operation 330 dann ein Kompensationsrückkopplungswert bestimmt, dieser kann z. B. ein Signal sein, das verwendet wird, um die chirurgische/diagnostische Vorrichtung zu steuern oder deren Komponenten, so daß die Augenbewegung kompensiert wird. In Operation 340 wird dann basierend auf dieser Rückkopplung die tatsächliche Kompensation in der chirurgischen/diagnostischen Vorrichtung durchgeführt. Danach kann die Prozedur durch Erhalten des nächsten Bildes fortgesetzt werden, indem zu Operation 300 zurückgekehrt wird.
  • Bildsequenzausrichtung (oder Positionsmessung) unterscheidet sich von Bildsatzausrichtung durch die Tatsache, daß die Bilddaten in einer temporalen Sequenz anstelle von simultan vorliegen. Das bedeutet, daß die Ausrichtung eines Bildes nur mit der Information durchgeführt werden kann, die bis zum Zeitpunkt der Messung vorliegt. Sequenzausrichtung ist die Basis jedes Echtzeit-Videotrackings.
  • Das Sequenzausrichtungsverfahren des vorliegenden Ausführungsbeispiels verwendet das wie vorher beschriebene qualitätsverbesserte Referenzbild. Gemäß einem besonderen Ausführungsbeispiel wird das qualitätsverbesserte Referenzbild bei der Sequenzausrichtung oder der Echtzeit-Positionsbestimmung für einen der folgenden Zwecke verwendet:
    • 1. Für OCT-Spot-Wiederherstellung. Ähnlich dem OCT-Spot-Wiederherstellungsverfahren, das vorher in Verbindung mit der Ausrichtung des anfänglichen Satzes von Bildern beschrieben wurde, kann die OCT-Wiederherstellung auch für die Echtzeitbilder, die während eines OCT-Scans erhalten werden, durchgeführt werden. Die saturierten Pixel werden dann durch Pixelwerte ersetzt, die auf den Werten des qualitätsverbesserten Referenzbildes für diese Pixel basieren.
    • 2. Zum Erhalten eines spektral angepaßten Filters, das die retinalen Spektrumkomponenten mit dem höchsten Signal-Rauschverhältnis auswählt. Basierend auf dem qualitätsverbesserten Referenzbild kann eine Analyse durchgeführt werden, welche Spektralkomponenten das höchste Signal-Rauschverhältnis aufweisen. Diese Spektralkomponenten können dann auch für die tatsächliche Sequenzausrichtung während der Echtzeit Datenaquisition verwendet werden.
    • 3. Für die Detektion nützlicher Landmarks wie etwa Retina-Adern, optische Nerven, Makularen Exsudaten. Die damit detektierten Charakteristika (Landmarks), die in dem qualitätsverbesserten Bild entweder manuell oder automatisch detektiert wurden, können dann während der Sequenzausrichtung für die Positionsbestimmung verwendet werden.
    • 4. Zum Durchführen von Abgleich-Techniken (matching techniques) (wie beispielsweise Fadenkorrelation, Kreuzkorrelation, Entropiemaximierung etc.) zwischen Referenzbild und dem gemessenen Bild. Diese Verfahren ergeben dann tatsächlich die Verschiebung, welche dann verwendet werden kann, um ein Kompensationsfeedback an die diagnostische oder chirurgische Vorrichtung zu erzeugen. Die Matching-Techniken können global auf der Ebene des gesamten Bildes oder lokal auf der Ebene von Landmarks wie in Schritt 3 detektiert sein.
  • In allen genannten Punkten vergrößert die höhere Qualität des qualitätsverbesserten Referenzbildes die Leistungsfähigkeit gegenüber der Verwendung irgendeines beliebigen Bildes der Sequenz.
  • Ein spezifisches Ausführungsbeispiel zum Bestimmen der Position des Auges wird nun nachfolgend beschrieben. Grundsätzlich umfaßt das Verfahren zwei Hauptelemente, ein erstes besteht in der Bewegungsabschätzung auf einer globalen Ebene, und das Ergebnis dieser globalen Bewegungsabschätzung wird verfeinert unter Verwendung einer lokalen Bewegungsabschätzung, indem eine oder mehrere Charakteristika (Landmarks), die in dem Referenzbild detektiert wurden, verwendet wurden. Dies ist schematisch in 4 illustriert, wo Operation 400 eine globale Bewegungsabschätzung basierend auf dem gesamten tatsächlichen Bild und dem gesamten Referenzbild zeigt. Die resultierende Abschätzung leidet unter Ungenauigkeiten, die resultieren können aus mehrfachen Bewegungen oder aus Okklusionen/Sättigungseffekten aufgrund des OCT-Strahls. Diese Abschätzung wird dann in Operation 410 durch die lokale Bewegungsabschätzung verfeinert, welche auf einer oder mehreren Landmarks basieren kann, die in dem qualitätsverbesserten Referenzbild ausgewählt wurden.
  • Dies kann etwas genauer im Detail wie folgt beschrieben werden.
    • 1. Eine Abschätzung auf globaler Ebene wird durchgeführt unter Verwendung der gesamten verfügbaren Information. Diese Abschätzung wird durch angepaßte Phasenkorrelation (matched phase correlation) durchgeführt. Angepaßte Phasenkorrelation ist ein Verfahren zur Bewegungsabschätzung und dem Fachmann wohl bekannt. Es erzeugt einen Satz von Peaks an Positionen, die möglichen Verschiebungen und dem Referenzbild entsprechen. Die globale Abschätzung liefert einen kleinen Satz von möglichen Orten der Retina (1 bis 5 Orten), die jeweiligen möglichen Augenbewegungen entsprechen. Der globale Schritt liefert Robustheit gegen Illuminationsveränderungen, Rauschen etc.
    • 2. Dann wird eine Abschätzung auf lokaler Ebene durchgeführt, und zwar unter Verwendung eines Satzes von Landmarks, die in dem Referenzbild detektiert wurden. Dies hilft zu entscheiden, welche der Ortskandidaten, die in Schritt 1 geliefert wurden, der korrekte ist. Die lokale Abschätzung liefert die Flexibilität zur Anpassung an Objektokklusionen und Mehrfachbewegungen, die der globale Schritt nicht auflösen kann.
  • Nachfolgend wird ein weiteres Ausführungsbeispiel der vorliegenden Erfindung beschrieben, das sich auf eine OCT-Vorrichtung bezieht, welche ein OCT-Bild der Retina liefert. Diese Vorrichtung verwendet einen Retina-Tracker, welcher Echtzeit- Informationen über die x/y-Verschiebungen der Retina relativ zum Referenzbild liefert. Das OCT-Scansystem paßt das Scanmuster so an, daß die Veränderungen in der Retinaposition berücksichtigt werden, so daß der Scanpfad der beabsichtigten Trajektorie folgt.
  • Die standardmäßigen videobasierten Augenverfolger (<= 60 Hz) sind jedoch zu langsam, um korrekt die schnellen Bewegungen der Retina zu kompensieren, die typisch für Sakkaden (ruckartiges Anhalten) sind. Auch kann eine retinale Verfolgung zeitweise unverfügbar sein, beispielsweise wegen Zwinkern, großen Pupillenokklusionen etc. Um diese Effekte zu berücksichtigen und zu kompensieren, werden in diesem Ausführungsbeispiel die nachfolgenden zwei Methoden durchgeführt.
    • I. Die diagnostische/chirurgische Vorrichtung, und in einem besonderen Ausführungsbeispiel der OCT-Scan Beam werden auf HALT gesetzt, wenn eine Anomalie in der für die Verfolgung verwendeten Bildsequenz detektiert wird. Das retinale Verfolgungssystem detektiert Anomalien bei der Verfolgung wie etwa ruckartiges Anhalten, Zwinkern, etc. (siehe Operation 500 in 5). Dies kann unter Anwendung bestimmter geeigneter Kriteria durchgeführt werden. So kann ein plötzlicher Verlust in der Bildqualität (ein Verringern eines Qualitätsfaktors oder einen bestimmten Schwellwert) ein Zwinkern repräsentieren. Weiter kann ein Verwaschen des Bildes in Verbindung mit einer schnellen Bewegung als repräsentativ für ein ruckartiges Anhalten angesehen werden. Unter Verwendung dieser Art von Kriterien kann bestimmt werden, ob eine Anomalie aufgetreten ist, welche die Leitungsfähigkeit der Verfolgung und/oder die Leistungsfähigkeit des chirurgischen/diagnostischen Geräts beeinflussen könnte. In unserem spezifischen Ausführungsbeispiel ist die Vorrichtung eine OCT-Vorrichtung, und falls eine Anomalie detektiert wird, so liefert in Operation 510 das retinale Verfolgungssystem ein HALT-Signal an das OCT-Scansystem. Wenn das HALT-Signal aktiv ist (solange Operation 520 in 5 nicht zu einer positiven Antwort führt), stoppt das OCT-Scansystem das Scanmusterprogramm. Wenn in Operation 520 bestimmt wird, daß die Anomalie nicht mehr vorhanden ist, dann wird das HALT-Signal inaktiv und der Scan wird fortgeführt. Auf diese Weise können Übergangsabschnitte vermieden werden, solange sie durch das retinale Verfolgungssystem detektiert werden.
    • II. Eine weitere Operation kann zusätzlich oder alternativ ausgeführt werden. Im vorliegenden Ausführungsbeispiel wird sie zusätzlich ausgeführt, und zwar bevor das System alle unter I. beschriebenen Teile ausführt. Zusätzlich können basierend auf weiteren Daten, die durch das retinale Verfolgungssystem und möglicherweise durch die OCT-Scan-Daten erhalten wurden, beispielsweise die zukünftige Trajektorie der Retina, bestimmte Scanabschnitte retrospektiv als ungültig angesehen werden. Die Invalidation wird dabei hauptsächlich in zwei Situationen auftreten: a) die Erkennung eines ruckartigen Anhaltens (Sakkade) erlaubt die Eliminierung der Samples von dem Start der Sakkade, die durch das erste Verfahren nicht eliminiert werden konnten. Die Sakkaden werden detektiert mittels retinaler Geschwindigkeit als eine Sequenz von 3 bis 5 Hochgeschwindigkeitssamples. Durch Fitten einer vordefinierten parametrisierten Funktion (wie etwa Sigmoid oder Polynominal) an die Datensamples kann ein präziserer Start/präziseres Ende der Sakkade erhalten werden. b) eine Detektion zufälliger Verfolgungsfehler, die als Unterbrechung der Trajektorie der Retina erscheinen. Diese Ausreißer-Messungen werden detektiert durch statistische Filterung. Im Pinzip bedeutet dies die Auswertung der Wahrscheinlichkeit, daß ein bestimmter Positionswert in einem gegebenen Trajektorienkontext auftaucht. Die Wahrscheinlichkeiten werden off-line berechnet basierend auf einem großen Datensatz von üblicher Augendynamik. Die Messungen mit niedriger Wahrscheinlichkeit von üblicher Augendynamik. Die Messungen mit niedriger Wahrscheinlichkeit werden verworfen.
  • Das OCT-Scansystem programmiert dann erneut die erneute Aufnahme der ungülten Teile in einem zweiten Lauf. Ein dritter Lauf und weitere Läufe können durchgeführt werden, bis das gewünschte Resultat erzielt ist. Dieses Verfahren kann eine größere Robustheit liefern, da die Entscheidung, ob das Scannen inadäquat war, auf mehr Daten basiert.
  • Nachfolgend wird ein weiteres Ausführungsbeispiel der vorliegenden Erfindung beschrieben, wobei die Erfindung in einer OCT-Vorrichtung für retinale Bildgebung verwendet wird. Die Diagnose einer retinalen Erkrankung erfordert üblicherweise die Überwachung von Veränderungen in der Retina über einen bestimmten Zeitraum. Dies impliziert, daß mehrere OCT-Scans durchgeführt werden müssen, und zwar unterschiedlichen Intervallen bei dem gleichen Patienten am gleichen Ort der Retina.
  • Um signifikante Veränderungen zuverlässig überwachen zu können, ist es von hoher Wichtigkeit, sicherstellen zu können, daß unterschiedliche Scansessions an dem gleichen Ort der Retina durchgeführt werden. Die momentanen Inter-Sessions-Ausrichtungsverfahren sind sehr ungenau, da die niedrige Qualität des Infrarot-Augenhintergrund-Videos es dem Arzt nicht erlaubt, präzise Anpassungen der Scanplatzierung durchzuführen. Die Fähigkeit zum rot-freien Schnappschuß (redfree image snapshot capability) kann nicht vor der Diagnose – lediglich nach der Diagnose – verwendet werden, da das helle grüne Licht die Pupille einengt. Es ist jedoch wünschenswert, das OCT-System vor dem Scan ordentlich auszurichten, und für diesen Zweck kann das rot-freie Bild wegen dessen Effekten auf die Pupille, die die nachfolgende diagnostische Messung stören würden, nicht verwendet werden. Das qualitätsverbesserte Referenzbild jedoch liefert ausreichend visuelle Qualität, um entweder manuell oder automatisch verwendet zu werden, um die Ausrichtung des Scans bezüglich eines anderen chirurgischen Eingriffs durchzuführen.
  • Gemäß einem Ausführungsbeispiel ist das System in der Lage, die folgenden automatischen Ausrichtungen auszuführen:
    • 1. Qualitätsverbessertes ER-zu-Qualitätsverbessertes ER
    • 2. Qualitätsverbessertes ER-zu-rotfrei
  • Die gleichen Typen von Ausrichtungen können manuell von dem Arzt ausgeführt werden, dem ein Softwaretool zur Verfügung gestellt wird, das freie Anpassungen eines qualitätsverbesserten ER-Bildes erlaubt, um unterschiedliche Merkmale (Retina-Blutadern, optische Nervenköpfe, Exudate etc.) zu „highlighten". Im Falle der automatischen Ausrichtung wird irgendein Bewegungsabschätzungsalgorithmus verwendet und basierend auf seinen Resultaten wird dann die Ausrichtung ausgeführt. Die Verwendung des qualitätsverbesserten Referenzbildes führt zu folgenden Vorteilen:
    • – es kann im Gegensatz zu dem rot-freien Bild vor dem Start des Scannens verwendet werden
    • – es bietet die erforderliche visuelle Qualität, die es dem Operator erlaubt, die Ausrichtung durchzuführen und zu validieren
    • – es erlaubt robuste Ausrichtung mit qualitätsverbesserten ER-Bildern oder rot-frei-Bildern von anderen Sessions
  • Nachfolgend wird ein weiteres Ausführungsbeispiel der Erfindung beschrieben, das die Verbesserung der Qualität eines Video-Bildstroms betrifft. Der Roh-Videostrom hat ein schlechtes Signal-Rausch-Verhältnis, das typische Korrekturen wie etwa Helligkeits-Kontrast-Anpassungen ineffektiv macht.
  • Das vorliegende Ausführungsbeispiel verwendet die Verfolgungsinformation, um das Signal-Rausch-Verhältnis jedes Videobildes zu verbessern. Nachfolgend können andere Qualitätsverbesserungstechniken (Helligkeits/Kontrast-Anpassung, Schärfung, Schattenkorrektur, etc.) angewendet werden, um eine qualitätsverbesserte Anzeige in Echtzeit zu liefern. Das Verfahren besteht aus den folgenden Schritten:
    Für jedes Bild in dem Videostream
    • 1. Nehme die letzten N Bilder (N = 10 – 25) und richte sie bezüglich des momentanen Bildes aus, basierend auf der Verfolgungsinformation. Die Ausrichtung wird hier durchgeführt, indem Bilder in x- und y-Koordinaten verschoben werden. Andere Typen von Ausrichtung wie etwa Rotation oder Skalierung oder Kombination von beiden kann ebenfalls falls erforderlich verwendet werden.
    • 2. Ersetze jeden Pixelwert in der Bildanzeige durch den Mittelwert (oder das gewichtete Mittel) der Pixelwerte in den letzten N ausgerichteten Bildern. Die obigen zwei Schritte können durch die folgende Beziehung ausgedrückt werden: Displn(x, y) = Imn(x, y) + Imn-1(x – dxn-1, y – dyn-1) + .. Imn-N(x – dxn-N, y –dyn-N),Dabei ist n das n-te Bild des Videostreams, dx'/dy' representieren die Verschiebung in x/y-Richtung des Bildes i bezüglich des Bildes n.
    • 3. Wende die gewünschten Qualitätsverbesserungstechniken auf Bild Displ an und sende es an den Display-Output.
  • Mit der oben beschriebenen Methode kann die Qualität jedes individuellen Videobildes verbessert werden und damit kann die Qualität des gesamten Videostreams verbessert werden.
  • Der Fachmann versteht, daß die Verfahren, Vorrichtungen und Systeme gemäß den Ausführungsbeispielen der Erfindung wie vor beschrieben implementiert werden können durch eine Konfiguration, welche eine Standardvideokamera und einen Standardcomputer wie schematisch illustriert in 1 umfassen. Der Computer kann mit irgendeiner Standardsoftware für die Videoaufnahme versehen sein, und soweit die vorhergehende Beschreibung und die Ansprüche sich auf Module oder Komponenten zur Implementierung der Erfindung beziehen versteht der Fachmann, daß sie entweder in Hardware oder in Software in Verbindung mit der Basiskonfiguration aus 1 implementiert werden können. Abgesehen von Video-Augenverfolgungssystemen kann die Erfindung angewendet werden auf jedes Augenverfolgungssystem, das Augenpositionsdaten ausgibt. Basierend auf der vorhergehenden Beschreibung wird der Fachmann in der Lage sein, das in 1 gezeigte System durch geeignete Programmierung des Computers und seiner Komponenten so anzupassen, daß sie die Funktionen ausführen, die in Verbindung mit den Ausführungsbeispielen der Erfindung beschrieben wurden.
  • Es wird ferner verstanden, daß die vorhergehenden Ausführungsbeispiele als lediglich exemplarische Ausführungsbeispiele verstanden werden sollen, und daß Modifikationen dieser Ausführungsbeispiele für den Fachmann möglich sind und daher als im Rahmen des Umfangs der Erfindung liegend verstanden werden sollen. So kann z. B. eine OCT-Vorrichtung der Erfindung für irgendeine chirurgische oder diagnostische Vorrichtung verwendet werden. Ferner kann abgesehen von dem Gebiet der chirurgischen und diagnostischen Vorrichtungen die vorliegende Erfindung angewendet werden auf dem Gebiet der Augenverfolgung und allgemein in Augenverfolgungsvorrichtungen.

Claims (39)

  1. Augenverfolgungsverfahren zum Bestimmen der Position eines Auges oder eines Teils eines Auges in einem Bild einer Bildsequenz durch Durchführen eines Vergleichs zwischen dem Bild und einem Referenzbild, wobei das Verfahren einschließt: Ausrichten eines Satzes von Bildern; Berechnen eines qualitätsverbesserten Referenzbildes basierend auf einer Kombination des Satzes von ausgerichteten Bildern; und Bestimmen der Position in dem Bild der Bildsequenz durch Vergleich des Bildes der Bildsequenz und des qualitätsverbesserten Referenzbildes, um eine Bewegungsabschätzung zwischen dem Referenzbild und dem Bild der Bildsequenz zu erhalten.
  2. Verfahren nach Anspruch 1, welches ferner aufweist: Ausrichten des Satzes von Bildern, welche vor der Bildsequenz aufgenommen wurden, auf die gleiche Retinaposition; Kombinieren des ausgerichteten Satzes von Bildern durch Mittelbildung des ausgerichteten Satzes von Bildern, um das qualitätsverbessernde Referenzbild zu generieren.
  3. Verfahren nach Anspruch 1 oder 2, welches ferner aufweist: Verwenden der Retinaposition, die in der Bildsequenz bestimmt wurde, für die Verfolgung und/oder Positionskompensation in Verbindung mit einer diagnostischen und/oder chirurgischen Vorrichtung.
  4. Verfahren nach Anspruch 3, wobei die chirurgische und/oder diagnostische Vorrichtung eines der folgenden ist: eine OCT-Vorrichtung; eine refraktive chirurgische Vorrichtung.
  5. Verfahren nach einem der vorhergehenden Ansprüche, welches ferner eines oder mehrere der folgenden aufweist: Durchführen einer OCT-Spotspur-Wiederherstellung, um eine gesättigte OCT-Spotspur aus einem Bild in der Sequenz zu eliminieren, indem das saturierte Gebiet durch eine Interpolation oder eine mittlere Intensität in einem entsprechenden Gebiet unsaturierter Bilder ersetzt wird; Kompensieren von Illuminationsvariationen unter Verwendung eines oder mehrerer geeigneter Filter.
  6. Verfahren nach einem der vorhergehenden Ansprüche, welches eines oder mehrere der folgenden aufweist: Durchführen einer globalen Bewegungsabschätzung zwischen dem Referenzbild und dem Bild der Bildsequenz; Durchführen einer Bewegungsabschätzung basierend auf Teilen oder Landmarks des Referenzbildes und des Bildes der Bildsequenz.
  7. Verfahren nach Anspruch 6, wobei die globale Bewegungsabschätzung verfeinert wird durch die Bewegungsabschätzung basierend auf Teilen oder Landmarks.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei das qualitätsverbessernde Referenzbild verwendet wird für eines oder mehrere der folgenden: OCT-Spot-Wiederherstellung; Erhalten eines spektral angepaßten Filters zum Auswählen von einer oder mehreren Retina-Spektrumkomponenten, welche das höchste Signal-Rausch-Verhältnis aufweisen.
  9. Verfahren nach einem der vorhergehenden Ansprüche, welches ferner aufweist: Ausrichten von Bildsequenzen, die zu unterschiedlichen Zeitdauern aufgenommen wurden, durch Ausrichten eines qualitätsverbesserten Referenzbildes, welches einer der Sequenzen entspricht, mit einem Referenzbild oder einem qualitätsverbesserten Referenzbild, welches der zweiten Sequenz entspricht.
  10. Verfahren nach Anspruch 9, wobei das Referenzbild, welches der zweiten Sequenz entspricht, ein rot-freies Bild ist.
  11. Verfahren zur Qualitätsverbesserung der Videoanzeige eines Bildes oder eines Auges oder eines Teils eines Auges, wobei das Verfahren aufweist: Ausrichten einer Sequenz von Bildern, welche einem momentanten Bild des Videostreams vorausgehen, in Bezug auf das momentane Bild; Kombinieren des resultierenden ausgerichteten Satzes von Bildern in ein qualitätsverbessertes Bild, welches als Basis für ein qualitätsverbessertes momentanes Bild des Videostroms verwendet wird.
  12. Verfahren nach Anspruch 11, wobei für jedes momentane Bild des Videostroms die Anzeige auf dem qualitätsverbesserten Bild basiert, welches aus einer Kombination von ausgerichteten Bildern resultiert, die dem momentanen Bild vorausgehen.
  13. Verfahren nach Anspruch 10, 11 oder 12, welches ferner aufweist: Ausrichten der Bilder der vorhergehenden Sequenz basierend auf Augenverfolgungsinformationen.
  14. Verfahren nach Anspruch 13, wobei die Verfolungsinformation erhalten wird basierend auf einem qualitätsverbesserten Referenzbild wie in einem der Ansprüche 1 bis 10 definiert.
  15. Verfahren zum Betrieb einer diagnostischen oder chirurgischen Vorrichtung basierend auf Augenverfolgung, wobei das Verfahren aufweist: Bestimmen, ob eine Anomalie während der Augenverfolung detektiert wird; falls eine Anomalie während der Augenverfolung detektiert wird, Versetzen der diagnostischen oder chirurgischen Vorrichtung in einen HALT-Modus und/oder erneutes Durchführen des Betriebs der diagnostischen oder chirurgischen Vorrichtung für diejenigen Teile des Auges, bei denen eine Anomalie detektiert wurde.
  16. Verfahren nach Anspruch 15, wobei die Anomalie eines oder mehrere der folgenden sind: eine Veränderung in der Bildqualität jenseits eines bestimmten Schwellwerts; eine schnelle Bewegung des Auges, deren Geschwindigkeit jenseits eines bestimmten Schwellwerts liegt; ein Verwaschen des Bildes, das für die Augenverfolgung verwendet wird; ein Verwaschen des Bildes, das für die Augenverfolgung verwendet wird, in Verbindung mit einer schnellen Bewegung; eine kumulierte Differenz zwischen aufeinander folgenden Tracking-Bildern liegt jenseits eines bestimmten Schwellwerts; ein Tracking-Fehler, der basierend auf einem oder mehreren Bildern detektiert wurde, wird als statistischer Ausreißer angesehen; eine Sequenz von Bildern mit einer Retinabewegung von hoher Geschwindigkeit; ein Bildsequenzmuster, das ein ruckartiges Anhalten repräsentiert; ein Bildsequenzmuster, welches ein Zwinkern repräsentiert.
  17. Verfahren nach Anspruch 15 oder 16, wobei die Bestimmung, ob eine Anomalie detektiert wurde, in Echtzeit ausgeführt wird, und falls eine Anomalie detektiert wurde, die diagnostische oder chirurgische Vorrichtung in einen HALT-Modus versetzt wird.
  18. Verfahren nach Anspruch 15, 16 oder 17, wobei die Anomalie während der Augenverfolgung basiert auf der retrospektiven Evaluierung von Bildern, welche während der Augenverfolgung erhalten wurden, um Anomalien zu identifizieren, wobei das Verfahren ferner aufweist: Erneutes Durchführen des Betriebs der chirurgischen oder diagnostischen Vorrichtung an den Orten, an denen Anomalien festgestellt wurden.
  19. Verfahren nach Anspruch 18, wobei die retrospektive Evaluierung aufweist: Vergleichen der Bildsequenzen, die während des Betriebs der chirurgischen oder diagnostischen Vorrichtung erhalten wurden, mit Bewegungsmustern, welche übliche Augenbewegungen repräsentieren, um die Anomalien zu detektieren.
  20. Augenverfolgungssystem zum Bestimmen einer Position eines Auges oder eines Teils eines Auges in einem Bild einer Bildsequenz durch Durchführen eines Vergleichs zwischen dem Bild und einem Referenzbild, wobei das Verfahren einschließt: ein Modul zum Ausrichten eines Satzes von Bildern; ein Modul zum Berechnen eines qualitätsverbesserten Referenzbilds basierend auf einer Kombination des Satzes der ausgerichteten Bilder; und ein Modul zum Bestimmen der Position in dem Bild der Bildsequenz durch Vergleichen des Bild der Bildsequenz und des qualitätsverbesserten Referenzbilds, um eine Bewegungsabschätzung zwischen dem qualitätsverbesserten Referenzbild und dem Bild der Bildsequenz zu erhalten.
  21. System nach Anspruch 20, welches ferner aufweist: ein Modul zum Ausrichten eines Satzes von Bildern, welche vor der Bildsequenz aufgenommen wurden, zu derselben Retinaposition; ein Modul zum Kombinieren des ausgerichteten Satzes von Bildern durch Mittelung des ausgerichteten Satzes von Bildern, um das qualitätsverbesserte Referenzbild zu erzeugen.
  22. System nach Anspruch 20 oder 21, welches ferner aufweist: ein Modul zum Verwenden der in der Bildsequenz ermittelten Retinaposition für die Verfolgung und/oder die Positionskompensation in Verbindung mit einer diagnostischen oder chirurgischen Vorrichtung.
  23. System nach Anspruch 21, wobei die diagnostische und/oder chirurgische Vorrichtung eines der folgenden ist: eine OCT-Vorrichtung; eine refraktive chirurgische Vorrichtung
  24. System nach einem der Ansprüche 21 bis 23 welches ferner ein oder mehrere der folgenden aufweist: ein Modul zum Durchführen einer OCT-Spotspur-Wiederherstellung, um eine gesättigte OCT-Spotspur aus einem Bild in der Bildsequenz zu eliminieren, indem das gesättigte Gebiet durch eine Interpolation oder eine gemittelte Intensität in einem entsprechenden Gebiet von ungesättigten Bildern ersetzt wird; ein Modul zum Kompensieren von Illuminationsvariationen unter Verwendung eines oder mehrerer geeigneter Filter.
  25. System nach einem der Ansprüche 21 bis 24 welches ferner ein oder mehrere der folgenden aufweist: ein Modul zum Durchführen einer globalen Bewegungsabschätzung zwischen dem Referenzbild und dem Bild der Bildsequenz; ein Modul zum Durchführen einer Bewegungsabschätzung basierend auf Teilen oder Landmarks des Referenzbilds und des Bilds der Bildsequenz.
  26. System nach Anspruch 25, wobei die globale Bewegungsabschätzung verfeinert wird durch die Bewegungsabschätzung basierend auf Teilen oder Landmarks.
  27. System nach einem der Ansprüche 20 bis 26, wobei das qualitätsverbesserte Referenzbild für eines oder mehrere der folgenden verwendet wird: OCT-Spot-Wiederherstellung; Erhalten eines spektral angepaßten Filters zum Auswählen einer oder mehrere Retina-Spektrumkomponenten, welche das höchste Signal-Rauschverhältnis aufweisen.
  28. System nach einem der Ansprüche 20 bis 27, welches ferner aufweist: ein Modul zum Ausrichten von Bildsequenzen, die zu unterschiedlichen Zeitdauern aufgenommen wurden, indem ein qualitätsverbessertes Referenzbild, welches einer der Sequenzen entspricht, mit einem Referenzbild und einem qualitätsverbesserten Referenzbild, welches der zweiten Sequenz entspricht, ausgerichtet wird.
  29. System nach Anspruch 28, wobei das Referenzbild, das der zweiten Sequenz entspricht, ein rot-freies Bild ist.
  30. Vorrichtung zum Verbessern der Videoanzeige eines Bildes eines Auges oder eines Teils eines Auges, wobei die Vorrichtung aufweist: ein Modul zum Ausrichten einer Sequenz von Bildern, welche einem momentanten Bild des Videostroms vorausgehen, bezüglich des momentanen Bildes; ein Modul zum Kombinieren des resultierenden ausgerichteten Satzes von Bildern in ein qualitätsverbessertes Referenzbild, das verwendet wird als Basis für ein qualitätsverbessertes momentanes Bild des Videostroms.
  31. Vorrichtung nach Anspruch 30, wobei für jedes Videobild des Videostroms die Anzeige basiert auf dem qualitätsverbesserten Referenzbild, welches resultiert aus einer Kombination von ausgerichteten Bildern, die dem momentanen Bild vorausgehen.
  32. Vorrichtung nach Anspruch 30 oder 31, welche ferner aufweist: ein Modul zum Ausrichten der Bilder der vorhergehenden Sequenz basierend auf Augenverfolgungsinformationen.
  33. Vorrichtung nach Anspruch 32, wobei die Verfolgungsinformationen erhalten werden basierend auf einem qualitätsverbesserten Referenzbild wie in einem der Ansprüche 20 bis 29 definiert.
  34. Vorrichtung zur Verwendung in Verbindung mit einer diagnostischen oder chirurgischen Vorrichtung, welche basierend auf Augenverfolgung arbeitet, wobei die Vorrichtung aufweist: ein Modul zum Bestimmen, ob eine Anomalie während der Augenverfolgung detektiert wurde; und ein Modul, um falls eine Anomalie während der Augenverfolgung detektiert wurde, die diagnostische oder chirurgische Vorrichtung in einen HALT-Modus zu setzen und/oder ein Modul zum erneuten Ausführen des Betriebs der die diagnostischen oder chirurgischen Vorrichtung für diejenigen Teile des Auges, für die eine Anomalie detektiert wurde.
  35. Vorrichtung nach Anspruch 34, wobei die Anomalie eines oder mehrere der folgenden ist: eine Veränderung in der Bildqualität jenseits eines bestimmten Schwellwerts; eine schnelle Bewegung des Auges, deren Geschwindigkeit jenseits eines bestimmten Schwellwerts liegt; ein Verwaschen des Bildes, das für die Augenverfolgung verwendet wird; ein Verwaschen des Bildes, das für die Augenverfolgung verwendet wird, in Verbindung mit einer schnellen Bewegung; eine kumulierte Differenz zwischen aufeinander folgenden Tracking-Bildern liegt jenseits eines bestimmten Schwellwerts; ein Tracking-Fehler, der basierend auf einem oder mehreren Bildern detektiert wurde, wird als statistischer Ausreißer angesehen; eine Sequenz von Bildern mit einer Retinabewegung von hoher Geschwindigkeit; ein Bildsequenzmuster, das ein ruckartiges Anhalten repräsentiert; ein Bildsequenzmuster, welches ein Zwinkern repräsentiert.
  36. Vorrichtung nach Anspruch 34 oder 35, wobei die Bestimmung, ob eine Anomalie detektiert wurde, in Echtzeit ausgeführt wird, und falls eine Anomalie detektiert wurde, die diagnostische oder chirurgische Vorrichtung in einen HALT-Modus versetzt wird.
  37. Vorrichtung nach Anspruch 34, 35 oder 36, wobei die Anomalie während der Augenverfolgung basiert auf der retrospektiven Auswertung von Bildern, welche während der Augenverfolgung für die Identifizierung von Anomalien erhalten wurden, wobei die Vorrichtung ferner aufweist: ein Modul zum erneuten Ausführen des Betriebs der chirurgischen oder diagnostischen Vorrichtung an denjenigen Orten, für die Anomalien detektiert wurden.
  38. Vorrichtung nach Anspruch 37, wobei die retrospektive Auswertung aufweist: Vergleichen von Bildsequenzen, die während des Betriebs der chirurgischen oder diagnostischen Vorrichtung erhalten wurden, mit Augenbewegungsmustern, welche übliche Augenbewegungen repräsentieren, um Anomalien zu detektieren.
  39. Computerprogramm, welches von einem Computer ausführbare Instruktionen aufweist, um einen Computer in die Lage zu versetzen, ein Verfahren gemäß einem der Ansprüche 1 bis 19 auszuführen.
DE102005025221A 2004-06-02 2005-06-01 Verfahren und Vorrichtung für bildbasierte Augenverfolgung zur retinalen Diagnostik oder für eine Chirurgievorrichtung Revoked DE102005025221B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP04013015.5 2004-06-02
EP04013015A EP1602321A1 (de) 2004-06-02 2004-06-02 Methode und Gerät zur bildgestützten Augenverfolgung bei Apparaten zur Diagnose oder Chirurgie der Retina
DE102005063550 2005-06-01

Publications (2)

Publication Number Publication Date
DE102005025221A1 true DE102005025221A1 (de) 2006-02-09
DE102005025221B4 DE102005025221B4 (de) 2011-05-05

Family

ID=34925217

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005025221A Revoked DE102005025221B4 (de) 2004-06-02 2005-06-01 Verfahren und Vorrichtung für bildbasierte Augenverfolgung zur retinalen Diagnostik oder für eine Chirurgievorrichtung

Country Status (3)

Country Link
US (2) US8811657B2 (de)
EP (1) EP1602321A1 (de)
DE (1) DE102005025221B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013037606A1 (en) 2011-09-16 2013-03-21 Carl Zeiss Meditec Ag Determination of the azimuthal orientation of a patient's eye
US9622659B2 (en) 2012-11-08 2017-04-18 Carl Zeiss Meditec Ag Method for determining the total refractive power of the cornea of an eye

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7365856B2 (en) 2005-01-21 2008-04-29 Carl Zeiss Meditec, Inc. Method of motion correction in optical coherence tomography imaging
US7805009B2 (en) 2005-04-06 2010-09-28 Carl Zeiss Meditec, Inc. Method and apparatus for measuring motion of a subject using a series of partial images from an imaging system
US7599577B2 (en) 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
US9545338B2 (en) 2006-01-20 2017-01-17 Lensar, Llc. System and method for improving the accommodative amplitude and increasing the refractive power of the human lens with a laser
US9889043B2 (en) 2006-01-20 2018-02-13 Lensar, Inc. System and apparatus for delivering a laser beam to the lens of an eye
US10842675B2 (en) 2006-01-20 2020-11-24 Lensar, Inc. System and method for treating the structure of the human lens with a laser
US9375349B2 (en) 2006-01-20 2016-06-28 Lensar, Llc System and method for providing laser shot patterns to the lens of an eye
EP1998662B1 (de) * 2006-03-16 2010-10-27 SIS AG, Surgical Instrument Systems Ophthalmologische vorrichtung und ophthalmologisches messverfahren
JP4869756B2 (ja) * 2006-03-24 2012-02-08 株式会社トプコン 眼底観察装置
US7578593B2 (en) * 2006-06-01 2009-08-25 Delphi Technologies, Inc. Eye monitoring method with glare spot shifting
WO2008033933A1 (en) * 2006-09-12 2008-03-20 University Of Florida Research Foundation, Inc. Devices and methods for computer-assisted surgery
US7620147B2 (en) 2006-12-13 2009-11-17 Oraya Therapeutics, Inc. Orthovoltage radiotherapy
US7496174B2 (en) 2006-10-16 2009-02-24 Oraya Therapeutics, Inc. Portable orthovoltage radiotherapy
TWI326353B (en) * 2007-05-29 2010-06-21 Ind Tech Res Inst Anomaly detection system and method
US8363783B2 (en) 2007-06-04 2013-01-29 Oraya Therapeutics, Inc. Method and device for ocular alignment and coupling of ocular structures
US8512236B2 (en) 2008-01-11 2013-08-20 Oraya Therapeutics, Inc. System and method for positioning and stabilizing an eye
US10398599B2 (en) * 2007-10-05 2019-09-03 Topcon Medical Laser Systems Inc. Semi-automated ophthalmic photocoagulation method and apparatus
JP4933413B2 (ja) * 2007-12-11 2012-05-16 株式会社トーメーコーポレーション 前眼部光干渉断層撮影装置及び前眼部光干渉断層撮影方法
US7801271B2 (en) 2007-12-23 2010-09-21 Oraya Therapeutics, Inc. Methods and devices for orthovoltage ocular radiotherapy and treatment planning
EP2231277B1 (de) 2007-12-23 2017-08-30 Carl Zeiss Meditec, Inc. Vorrichtungen für den nachweis, die kontrolle und die vorhersage von strahlenabgabe
US11839430B2 (en) 2008-03-27 2023-12-12 Doheny Eye Institute Optical coherence tomography-based ophthalmic testing methods, devices and systems
ES2387227T3 (es) * 2008-06-30 2012-09-18 Wavelight Gmbh Dispositivo para cirugía láser oftalmológica, en particular, refractiva
EP3884844A1 (de) * 2008-07-18 2021-09-29 Doheny Eye Institute Auf optischer kohärenztomografie basierende augentestverfahren, vorrichtungen und systeme
US8500723B2 (en) 2008-07-25 2013-08-06 Lensar, Inc. Liquid filled index matching device for ophthalmic laser procedures
US8480659B2 (en) 2008-07-25 2013-07-09 Lensar, Inc. Method and system for removal and replacement of lens material from the lens of an eye
US8081254B2 (en) * 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
US8617146B2 (en) 2009-07-24 2013-12-31 Lensar, Inc. Laser system and method for correction of induced astigmatism
EP2456385B1 (de) 2009-07-24 2015-07-22 Lensar, Inc. System zur durchführung von laser-unterstützten eingriffen auf die augenlinse
US8758332B2 (en) 2009-07-24 2014-06-24 Lensar, Inc. Laser system and method for performing and sealing corneal incisions in the eye
US8433115B2 (en) * 2009-09-17 2013-04-30 Siemens Aktiengesellschaft System and method for multi-image based stent visibility enhancement
JP5213835B2 (ja) * 2009-11-17 2013-06-19 キヤノン株式会社 光干渉断層像の撮像方法および光干渉断層像の撮像装置
US8488007B2 (en) * 2010-01-19 2013-07-16 Sony Corporation Method to estimate segmented motion
US8556425B2 (en) 2010-02-01 2013-10-15 Lensar, Inc. Purkinjie image-based alignment of suction ring in ophthalmic applications
US8285079B2 (en) * 2010-03-19 2012-10-09 Sony Corporation Method for highly accurate estimation of motion using phase correlation
US11771596B2 (en) 2010-05-10 2023-10-03 Ramot At Tel-Aviv University Ltd. System and method for treating an eye
CN103025282B (zh) 2010-05-10 2015-03-11 特拉维夫大学拉玛特有限公司 通过将电磁能量引导到眼睛的角膜缘区域来治疗青光眼的系统
JP5818409B2 (ja) * 2010-06-17 2015-11-18 キヤノン株式会社 眼底撮像装置及びその制御方法
EP2609853A4 (de) * 2010-08-27 2016-03-09 Sony Corp Bildverarbeitungsvorrichtung und -verfahren
USD695408S1 (en) 2010-10-15 2013-12-10 Lensar, Inc. Laser system for treatment of the eye
EP4205633A1 (de) 2010-10-15 2023-07-05 Lensar, Inc. System und verfahren zur scangesteuerten beleuchtung von strukturen in einem auge
USD694890S1 (en) 2010-10-15 2013-12-03 Lensar, Inc. Laser system for treatment of the eye
JP5901124B2 (ja) 2011-03-10 2016-04-06 キヤノン株式会社 撮像装置およびその制御方法
US10463541B2 (en) 2011-03-25 2019-11-05 Lensar, Inc. System and method for correcting astigmatism using multiple paired arcuate laser generated corneal incisions
US9033510B2 (en) * 2011-03-30 2015-05-19 Carl Zeiss Meditec, Inc. Systems and methods for efficiently obtaining measurements of the human eye using tracking
WO2012145313A2 (en) * 2011-04-18 2012-10-26 Magna Electronics Inc. Vehicular camera with variable focus capability
US8684529B2 (en) * 2011-04-28 2014-04-01 Carl Zeiss Meditec, Inc. Systems and methods for improved visual field testing
US20130010259A1 (en) * 2011-07-05 2013-01-10 Escalon Digital Vision, Inc. Region based vision tracking system for imaging of the eye for use in optical coherence tomography
WO2013004801A1 (en) 2011-07-07 2013-01-10 Carl Zeiss Meditec Ag Improved data acquisition methods for reduced motion artifacts and applications in oct angiography
US20150135309A1 (en) * 2011-08-20 2015-05-14 Amit Vishram Karmarkar Method and system of user authentication with eye-tracking data
IL215883A0 (en) 2011-10-24 2012-03-01 Iriss Medical Technologies Ltd System and method for indentifying eye conditions
US9101294B2 (en) 2012-01-19 2015-08-11 Carl Zeiss Meditec, Inc. Systems and methods for enhanced accuracy in OCT imaging of the cornea
US9072465B2 (en) * 2012-04-03 2015-07-07 Johnson & Johnson Vision Care, Inc. Blink detection system for electronic ophthalmic lens
WO2013166478A2 (en) * 2012-05-04 2013-11-07 The Cleveland Clinic Foundation Surgical instruments for oct assisted procedures
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
JP6160807B2 (ja) * 2013-01-23 2017-07-12 株式会社ニデック 眼科撮影装置及び眼科撮影プログラム
JP6460618B2 (ja) 2013-01-31 2019-01-30 キヤノン株式会社 光干渉断層撮像装置およびその制御方法
AU2014222417B2 (en) 2013-02-26 2017-09-07 Belkin Vision Ltd. System for glaucoma treatment
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
JP6241091B2 (ja) * 2013-06-27 2017-12-06 株式会社ニデック 画像処理装置および画像処理プログラム
EP3021735A4 (de) 2013-07-19 2017-04-19 The General Hospital Corporation Bestimmung der augenbewegung mittels netzhautabbildung mit rückkopplung
US9077906B1 (en) * 2014-01-28 2015-07-07 Aver Information Inc. Video contrast adjusting method
US10660519B2 (en) 2014-01-30 2020-05-26 Duke University Systems and methods for eye tracking for motion corrected ophthalmic optical coherence tomography
AU2014280958B2 (en) * 2014-12-24 2017-08-31 Canon Kabushiki Kaisha Registration across frame boundaries in AO-SLO capture
US9704038B2 (en) 2015-01-07 2017-07-11 Microsoft Technology Licensing, Llc Eye tracking
WO2016127140A1 (en) 2015-02-05 2016-08-11 Duke University Compact telescope configurations for light scanning systems and methods of using the same
US10238279B2 (en) 2015-02-06 2019-03-26 Duke University Stereoscopic display systems and methods for displaying surgical data and information in a surgical microscope
EP3069653A1 (de) * 2015-03-19 2016-09-21 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO Optisches kohärenztomografieverfahren, system und computerprogrammprodukt dafür
US10313597B2 (en) 2015-08-11 2019-06-04 Magna Electronics Inc. Vehicle vision system camera with adjustable focus
US11039741B2 (en) 2015-09-17 2021-06-22 Envision Diagnostics, Inc. Medical interfaces and other medical devices, systems, and methods for performing eye exams
US10694939B2 (en) 2016-04-29 2020-06-30 Duke University Whole eye optical coherence tomography(OCT) imaging systems and related methods
US10002311B1 (en) 2017-02-10 2018-06-19 International Business Machines Corporation Generating an enriched knowledge base from annotated images
US10657838B2 (en) 2017-03-15 2020-05-19 International Business Machines Corporation System and method to teach and evaluate image grading performance using prior learned expert knowledge base
US10702142B1 (en) 2017-05-19 2020-07-07 Verily Life Sciences Llc Functional retinal imaging with improved accuracy
US10827924B2 (en) 2017-08-14 2020-11-10 Verily Life Sciences Llc Dynamic illumination during retinal burst imaging
DK3668369T3 (da) * 2017-08-14 2021-05-03 Optos Plc Nethindepositionssporing
AU2018346814B2 (en) * 2017-10-06 2024-05-30 Alcon Inc. Tracking movement of an eye within a tracking range
US11045083B2 (en) 2017-10-17 2021-06-29 Verily Life Sciences Llc Flash optimization during retinal burst imaging
US10708473B2 (en) 2017-12-22 2020-07-07 Verily Life Sciences Llc Ocular imaging with illumination in image path
JP7019128B2 (ja) * 2018-01-22 2022-02-15 株式会社トーメーコーポレーション 光断層画像撮影装置
CN115804914A (zh) 2018-07-02 2023-03-17 贝尔金视觉有限公司 直接选择性激光小梁成形术
JP2022512391A (ja) 2018-12-12 2022-02-03 エコール・ポリテクニーク・フェデラル・ドゥ・ローザンヌ (ウ・ペ・エフ・エル) 複数の点光源による経強膜的照明を用いた臨床デバイスの眼科用システムおよび方法
US11617504B2 (en) 2019-09-18 2023-04-04 Verily Life Sciences Llc Retinal camera with dynamic illuminator for expanding eyebox
CN112580423A (zh) * 2019-09-30 2021-03-30 托比股份公司 处理用户眼睛的图像的方法、相关联系统和计算机程序
US11200670B2 (en) 2020-05-05 2021-12-14 International Business Machines Corporation Real-time detection and correction of shadowing in hyperspectral retinal images
US11800222B2 (en) 2021-01-11 2023-10-24 Magna Electronics Inc. Vehicular camera with focus drift mitigation system
WO2022180227A1 (en) 2021-02-26 2022-09-01 Carl Zeiss Meditec, Inc. Semi-supervised fundus image quality assessment method using ir tracking

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5865832A (en) * 1992-02-27 1999-02-02 Visx, Incorporated System for detecting, measuring and compensating for lateral movements of a target
JP3441159B2 (ja) * 1994-04-15 2003-08-25 株式会社ニデック 眼科装置
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US20020013577A1 (en) * 1998-03-06 2002-01-31 Frey Rudolph W. Laser beam delivery and eye tracking system
US6467905B1 (en) * 1998-09-25 2002-10-22 John S. Stahl Acquired pendular nystagmus treatment device
DE19954047B4 (de) * 1999-10-29 2004-08-05 Chronos Vision Gmbh Verfahren und Anordnung zum Erfassen von mehrdimensionalen Augenbewegungen sowie Markierungs-Tinktur hierfür
US6702806B2 (en) * 2000-04-19 2004-03-09 Alcon, Inc. Eye registration and astigmatism alignment control systems and method
AU2002215929A1 (en) * 2000-10-07 2002-04-22 Physoptics Opto-Electronic Gmbh Device and method for determining the orientation of an eye
AU2002233323A1 (en) * 2001-02-09 2002-08-28 Sensomotoric Instruments Gmbh Multidimensional eye tracking and position measurement system
US7068813B2 (en) * 2001-03-28 2006-06-27 Koninklijke Philips Electronics N.V. Method and apparatus for eye gazing smart display
US7130457B2 (en) * 2001-07-17 2006-10-31 Accuimage Diagnostics Corp. Systems and graphical user interface for analyzing body images
US7058205B2 (en) * 2001-12-07 2006-06-06 Xerox Corporation Robust, on-line, view-based appearance models for visual motion analysis and visual tracking
WO2003053228A2 (en) * 2001-12-21 2003-07-03 Sensomotoric Instruments Gmbh Method and apparatus for eye registration
US7113818B2 (en) * 2002-04-08 2006-09-26 Oti Ophthalmic Technologies Inc. Apparatus for high resolution imaging of moving organs
WO2003102498A1 (en) * 2002-05-30 2003-12-11 Visx, Inc. “tracking torsional eye orientation and position”
US7254282B2 (en) * 2003-01-27 2007-08-07 Scimed Life Systems, Inc. Systems and methods for transforming video images using fast visual interpolation
US7088454B2 (en) * 2003-06-24 2006-08-08 National Research Council Of Canada Full-field optical coherence tomography and its application to multiple-layer information decoding

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013037606A1 (en) 2011-09-16 2013-03-21 Carl Zeiss Meditec Ag Determination of the azimuthal orientation of a patient's eye
DE102011082901A1 (de) * 2011-09-16 2013-03-21 Carl Zeiss Meditec Ag Bestimmen der azimutalen Orientierung eines Patientenauges
US9622659B2 (en) 2012-11-08 2017-04-18 Carl Zeiss Meditec Ag Method for determining the total refractive power of the cornea of an eye

Also Published As

Publication number Publication date
EP1602321A1 (de) 2005-12-07
DE102005025221B4 (de) 2011-05-05
US8811657B2 (en) 2014-08-19
US20140334707A1 (en) 2014-11-13
US20050270486A1 (en) 2005-12-08

Similar Documents

Publication Publication Date Title
DE102005025221B4 (de) Verfahren und Vorrichtung für bildbasierte Augenverfolgung zur retinalen Diagnostik oder für eine Chirurgievorrichtung
DE102005025462B4 (de) Verfahren und Vorrichtung zur Latenzreduktion bei der Augenverfolgung
DE102006018445B4 (de) Vorrichtung und Verfahren zur Bestimmung arterio-venöser Verhältniswerte durch quantitative Analyse retinaler Gefäße
EP2107884B1 (de) Verfahren und gerät zur netzhautdiagnostik
DE69934475T2 (de) Verfahren und Gerät zur Bewertung des Herzens mit Hilfe eines Mehrstrahlabtasters
DE10297574B4 (de) Verfahren und Vorrichtung zur Augenerfassung
DE60034748T2 (de) Verfahren und Vorrichtung zur bewegungsfreien kardiologischen Computertomographie
DE60131827T2 (de) Methode für augenregistrierungskontrolle
EP1065966A1 (de) Vorrichtung und verfahren zur untersuchung von biologischen gefässen
DE102004048209B3 (de) Verfahren und Vorrichtung zur Erzeugung eines dreidimensionalen Bilddatensatzes eines bewegten Objekts mittels Röntgentomographie
DE102006034374A1 (de) Verfahren und Anordnung zur Röntgenbildaufnahme
DE102005022544A1 (de) Verfahren und Einrichtung zum Aufnehmen eines digitalen Röntgenbildes
DE112017005678T5 (de) Kontaktlose Blutdruckkontrolle
DE10123797B4 (de) Verfahren zur Herstellung eines Bildes mit einem Computertomographen
DE102006037423B4 (de) Verfahren und System zum Bestimmen eines aus einer Gruppe von Projektionsbildern konstruierten scharfen panoramischen Bildes
DE102009032442B4 (de) Verfahren und Vorrichtung zur Nachbearbeitung von mittels eines bildgebenden Systems erfassten Messwerten
DE10220295A1 (de) Verfahren zur Verbesserung der Bildqualität
DE112019002013T5 (de) Bildverarbeitungsverfahren, Programm und Bildverarbeitungsvorrichtung
DE10196226B3 (de) Vorrichtung zur Bestimmung und Verminderung dynamischer Positionierungsfehler eines Ablations-Lasers während refraktiver Laserchirurgie
DE10109586A1 (de) Verfahren und Vorrichtung zur Bildverarbeitung von Röntgenaufnahmen
WO2004045401A2 (de) Ophthalmologisches gërat mit eye-tracker-einheit
DE102007002417B4 (de) Verfahren zur Bestimmung einer Position für wenigstens eine halbtransparente Blende und zugehörige Einrichtung
DE102008009190A1 (de) Verfahren zur automatischen Bestimmung der Ruhephase des Herzens
DE102007005376B4 (de) Verfahren zum Bestimmen von EKG-getriggerten Aufnahmezeitpunkten für die Bildgebung zur Unterstützung von interventionellen und diagnostischen Eingriffen am Herzen
DE3511697C2 (de)

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: OD-OS GMBH, 14513 TELTOW, DE

8172 Supplementary division/partition in:

Ref document number: 102005063550

Country of ref document: DE

Kind code of ref document: P

Q171 Divided out to:

Ref document number: 102005063550

Country of ref document: DE

Kind code of ref document: P

AH Division in

Ref document number: 102005063550

Country of ref document: DE

Kind code of ref document: P

R026 Opposition filed against patent
R026 Opposition filed against patent

Effective date: 20110805

R006 Appeal filed
R008 Case pending at federal patent court
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R011 All appeals rejected, refused or otherwise settled
R037 Decision of examining division or of federal patent court revoking patent now final