WO1996036271A1 - Verfahren und vorrichtung zum parallelen erfassen von sehinformation - Google Patents

Verfahren und vorrichtung zum parallelen erfassen von sehinformation Download PDF

Info

Publication number
WO1996036271A1
WO1996036271A1 PCT/EP1996/002046 EP9602046W WO9636271A1 WO 1996036271 A1 WO1996036271 A1 WO 1996036271A1 EP 9602046 W EP9602046 W EP 9602046W WO 9636271 A1 WO9636271 A1 WO 9636271A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
image
eyes
control system
optical
Prior art date
Application number
PCT/EP1996/002046
Other languages
English (en)
French (fr)
Inventor
Herbert M. STÜTTLER
Original Assignee
Leica Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leica Ag filed Critical Leica Ag
Priority to US08/930,100 priority Critical patent/US6580448B1/en
Priority to EP96916057A priority patent/EP0825826B1/de
Priority to JP8534541A priority patent/JPH11508780A/ja
Priority to DE59609821T priority patent/DE59609821D1/de
Publication of WO1996036271A1 publication Critical patent/WO1996036271A1/de

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

Um festzustellen, was eine Person tatsächlich sieht, ist ein bildaufnehmendes Kontrollsystem mit mindestens einer Videokamera (3) so vorgesehen, dass die erfassten Bilder wenigstens annähernd mit dem von der Person beobachteten Blickfeld übereinstimmen. Dazu wird mindestens ein Augenparameter, wie etwa die Blickrichtung und/oder die Brechkraft mindestens eines Auges (2) bestimmt und abhängig von den bestimmten Parametern das bildaufnehmende Kontrollsystem (3) gesteuert. Mit den Augen zugeordneten Bildsensoren (4) ist etwa die Lage des Pupillenzentrums und daraus die Augenachse bestimmbar. Entsprechend den Augenachsen wird mindestens eine verstellbar am Kopf befestigte Videokamera (3) ausgerichtet. Gegebenenfalls wird auch die Fokussierung in Abhängigkeit von der Brechkraft des Auges eingestellt. Das parallele Erfassen von Bildinformationen ist in vielen Bereichen, insbesondere etwa für Kontrollaufgaben und auch für den therapeutischen Einsatz, anwendbar.

Description

Verfahren und Vorrichtung zum Paral lelen Erfassen von Sehi nformatioπ
Die Erfindung bezieht sich auf ein Verfahren nach Anspruch 1 und eine Vorrichtung nach Anspruch 9.
Bei manuellen Tätigkeiten, die äusserst genau ausgeführt werden müssen, hängt das Resultat stark von der exakten Beobachtung während der Tätigkeit ab. Dies gilt insbesondere bei chirurgischen Eingriffen am menschlichen oder tierischen Körper. Wenn die operierende Person das Gewebe im Bereich des Messers zuwenig genau beobachtet, besteht die Gefahr, dass eine wichtige Struktur wie etwa ein Nervenbündel durchtrennt wird.
In Systemen mit hohem Gefahrenpotential beispielsweise in Atomkraftwerken müssen Montage- und Kontrollarbeiten unter guter optischer Kontrolle sehr exakt durchgeführt werden. Ein exaktes Beobachten ist auch bei Manipulationen und bei Kontrollaufgaben in der Raumfahrt, der Fliegerei und in komplexen terrestrischen Systemen unumgänglich.
Der Wunsch, erfassbar zu machen was eine Person sieht, ist alt und konnte bis heute nicht erfüllt werden. Der Versuch, die Bildinformation durch das Abtasten des Sehnervs zu erhalten, führt nicht zum Ziel, weil ein wesentlicher Teil der Signalbearbeitung und Bilderfassung erst im Hirn erfolgt.
Eine oder mehrere Video-Überwachungskameras die den ganzen Bereich, der von einer Person kontrolliert werden soll, aufnehmen, zeigen lediglich auf, was erfassbar ist, nicht aber was die beobachtende Person erfasst. Um ein mögliches Fehlverhalten der Person analysieren zu können, ist es sicher zweckmässig, wenn Überwachungskameras alles Erfassbare aufzeichnen. Zudem muss aber auch das Beobachtete erfasst werden.
Aus der Patentschrift US 4 395 731 ist eine Mikroskopbrille bekannt, die bei chirurgischen Eingriffen getragen werden kann. Der Operationsbereich wird von zwei vor den Augen angebrachten Videokameras überwacht. Den Augen werden die Bilder der Videokameras über direkt vor den Augen angeordnete Monitoren, bzw. Bildflächen zugeführt. Die Verwendung von Zoom-Optiken ermöglicht so die Vergrösserung von Ausschnitten des Operationsbereiches.
Die Augen bleiben immer auf die Bildquellen (z.B. ein CRT) gerichtet, was zu einer schnellen Ermüdung führen kann. Zudem kann nicht bestimmt werden, wie die Augen das ihnen zugeführte Bild erfassen. Es könnte sein, dass ein wichtiger Bildbereich in den Bildquellen nie so betrachtet wird, dass er auf jenen Bereich der Augenretina fällt, der das scharfe Sehen ermöglicht. Durch die Fokussierung und Ausrichtung der beiden Kameras ist eine feste Distanz vorgegeben, die zwischen den Kameras und dem Operationsbereich liegen muss, um eine scharfe und perspektivisch gute Ansicht zu erhalten. Ändert sich diese Distanz aufgrund von Kopfbewegungen, so sind die auf den Monitoren dargestellten Bilder unscharf und/oder können von den Augen nicht mehr so betrachtet werden, dass ein dreidimensionales Bild entsteht. Die manuelle Verstellmöglichkeit ist kaum geeignet, um die Ausrichtung der Kameras an kurzzeitige Distanzänderungen anzupassen. Ein weiterer Nachteil der Mikroskopbrille ist die Einschränkung des Gesichtsfeldes durch die Optiken der Kameras und durch die beschränkte Grosse der Monitoren. Zudem sind Gesichtsbereichs-Änderungen mittels Augenbewegungen auf den Bildbereich der Kameras bzw. der Monitoren eingeschränkt.
Ein optisches System, das die Beobachtungen der arbeitenden oder kontrollierenden Person zu erfassen versucht, indem dieser Person nur die von Kameras erhaltenen Bilder zugeführt werden, schränkt die Beobachtungsfähigkeit dieser Person stark ein und zeigt nicht auf, welche Bereiche der zugeführten Bilder betrachtet werden.
Die erfindungsgemässe Aufgabe besteht nun darin, festzustellen, welche Bildinformationen von einer Person, oder einem beliebigen lichtempfindlichen Sensorsystem tatsächlich erfasst werden.
Die erfindungsgemässe Lösung sieht ein parallel zu den Augen der Person oder parallel zu einem lichtsensiblen Sensorsystem wirkendes bildaufnehmendes Kontrollsystem vor, bei dem eigene verstellbare Parameter durch gemessene Parameter der Augen oder des bildaufnehmenden ersten Systems, bzw. eines zur Sehinformation führenden Beobachtungsvorganges, gesteuert werden. Es wird somit erfindungsgemäss ein optisches System eingesetzt, das im wesentlichen die Beobachtung der arbeitenden oder kontrollierenden Person parallel zu dieser erfasst, darstellt und/oder speichert. Zum Erfassen der menschlichen Beobachtung wird zumindest die Ausrichtung der beiden optischen Augenachsen gemessen und die dabei erhaltenen Werte werden zur Steuerung der Ausrichtung mindestens einer Kamera, bzw. des zur Abbildung gelangenden Raumwinkelbereiches verwendet. Vorzugsweise erfolgt die Bestimmung der optischen Achsen in einem Koordinatensystem, das relativ zum Kopf fest ist und sich somit mit dem Kopf bewegt. Da die Bewegungen jedes Auges durch sechs äussere Augenmuskeln erfolgt, kann eine Sensorvorrichtung vorgesehen werden, die die Reize dieser Muskeln erfasst und daraus die jeweilige Augenstellung bzw. die optischen Augenachsen ableitet. Bevorzugt wird aber jedem Auge ein optischer Sensor zugeordnet, der die Augenstellung erfasst.
Die Augenstellungen bzw. die Ausrichtungen der optischen Augenachsen, die in einem mit dem Kopf verbundenen Koordinatensystem bekannt sind, werden nun zur Steuerung der Ausrichtung mindestens einer, vorzugsweise aber zweier, über eine Halterung mit dem Kopf verbundener Kameras verwendet. Die mindestens eine Kamera ist dabei so mit dem Kopf verbunden, dass sie analog zu den Augen nebst den Bewegungen aufgrund der Kopfbewegungen auch Bewegungen relativ zum Kopf ausführen kann. Es versteht sich von selbst, dass zum Verstellen des zur Abbildung gelangenden Raumwinkelbereiches anstelle der Kamerabewegung auch eine verstellbare optische Abbildungsvorrichtung, insbesondere mit verstellbaren Spiegeln oder dergleichen vorgesehen werden kann.
Eine Anwendemöglichkeit ergibt sich auf den verschiedensten Gebieten, u.a. auch bei der Videotelefonie, bei der ein Gesprächspartner die Möglichkeit erhält, gewissermassen mit den Augen des Benutzers dieselben Dinge zu betrachten, ohne dass zusätzlich aufnahmetechnische Manipulationen nötig sind.
In einer bevorzugten Ausführungsform ist auf beiden Seiten des Kopfes im Schläfenbereich im wesentlichen auf der Höhe der Augen eine Kamera mit einem CCD angeordnet. Jede Kamera ist jeweils dem nähergelegenen Auge zugeordnet. An einem auf den Kopf aufsetzbaren Halteteil ist eine die Kamerabewegungen ermöglichende Lagervorrichtung, insbesondere etwa eine kardanische Lagerung, und eine Betätigungsvorrichtung vorgesehen. Die Bewegung einer Kamera bzw. ihrer optischen Achse erfolgt beispielsweise durch die Bewegung eines im wesentlichen parallel zur Kameraachse verlaufenden, mit der Kamera verbundenen, Stiftes. Dabei wird der Stift in einer Ebene quer zum Stift mittels zweier im wesentlichen senkrecht zueinander angeordneter Linearantriebe bewegt.
Da die Lage der Kameras etwas von der Lage der Augen verschoben ist, muss bei der Steuerung der Kameraausrichtung eine geometrische Korrektur berücksichtigt werden. Diese Korrektur soll gewährleisten, dass der Schnittpunkt der beiden Kameraachsen am gleichen Ort liegt, wie der Schnittpunkt der beiden optischen Augenachsen. Bei parallelen Augenachsen ist keine Korrektur nötig.
Um den von den Augen fixierten Punkt zu bestimmen, muss berücksichtigt werden, dass die Fixierlinie des Auges nicht mit der optischen Achse übereinstimmt. Bei der optischen Achse des Auges handelt es sich um die
Achse, bezüglich welcher der optische Apparat des Auges (Cornea, Iris, Linse) im wesentlichen rotationssymmetrisch ist. Weil aber der empfindlichste Bereich der Retina, die Fovea centralis etwas neben dieser Achse liegt, ist die Gesichtsiinie bzw. Fixierlinie wenig gegen die optische Achse geneigt. Die Ab- weichung zwischen diesen beiden Linien kann als Standardabweichung berücksichtigt oder etwa bestimmt werden, indem bei vorgegebener Kopfausrichtung von den Augen ein Punkt mit bekannter Lage fixiert wird und dabei die Richtungen der optischen Augenachsen gemessen werden. Aufgrund der bekannten Kopfausrichtung, bzw. der Lage der Augen und des vorgegebenen Fixierpunktes sind die Fixierlinien festgelegt, so dass die
Abweichungen zwischen den optischen Augenachsen und den entsprechenden Fixierlinien bestimmbar sind.
Beim Berücksichtigen der unterschiedlichen Ausrichtung der optischen Achse und der Gesichtslinie eines Auges kann die mittels des Sensors bestimmte Richtung der optischen Achse aufgrund der bekannten Abweichung in die Richtung der Fixierlinie umgerechnet werden. Die Kameraachsen werden dann gemäss den Fixierlinienrichtungen auf den Fixierpunkt ausgerichtet, so dass der Fixierpunkt ins Zentrum des Bildbereiches zu liegen kommt. Werden die Kameras aber entsprechend den optischen Augenachsen ausgerichtet, so ist der Fixierpunkt etwas neben dem Bildzentrum. Die Lage des Fixierpunktes kann dann aufgrund der bekannten Abweichungen bei der Darstellung bzw. Auswertung der Kontrollbilder markiert bzw. berücksichtigt werden.
Falls das Kontroll-Beobachtungssystem keine dreidimensionale Bildinformation erfassen muss, genügt eine Ausführungsform mit lediglich einer Kamera, die vorzugsweise im Stirnbereich mittig über den beiden Augen angeordnet wird. Auch die Ausrichtung dieser Kamera soll auf den Schnittpunkt der Augenachsen, oder gegebenenfalls auf den Schnittpunkt der Gesichtslinien, bzw. bei fehlendem Schnittpunkt parallel zu den Augenachsen erfolgen.
Anstelle des Ausrichtens mindestens einer Kamera kann etwa eine fest mit dem Kopf verbundene, vorzugsweise gerade nach vorne gerichtete, Kamera insbesondere mit Weitwinkeloptik eingesetzt werden, wobei die aus der Messung der Augenachsenrichtungen ableitbare Fixierlinie dann zum
Bestimmen des betrachteten Bildbereichs verwendet wird. Durch das konti¬ nuierliche Markieren des jeweiligen Fixierpunktes oder durch das Darstellen lediglich eines um den aktuellen Fixierpunkt angeordneten Bildbereiches kann erfasst werden, was die kontrollierte Person betrachtet.
Aus dem Bereich der Foto- und Videokameras sind Verfahren und Vorrichtungen zum Bestimmen der Ausrichtung der optischen Augenachse bekannt. Aufgrund der bestimmten Achsenlage erfolgt etwa die automatische Fokussierung auf den betrachteten Bildbereich. Zur Achsenbestimmung wird das Auge mit Infrarotlicht, das vom Auge nicht wahrgenommen wird, beleuchtet und das reflektierte Infrarotlicht, bzw. das Augenbild wird auf eine Bildsensorebene abgebildet. Das Augenbild setzt sich im wesentlichen aus Reflexionen an der Hornhaut (Cornea) und der Iris zusammen. Da der grösste Anteil des durch die Pupille gelangenden Infrarotlichtes nicht zurückgeworfen wird, kann mit dem Bildsensor und mit einer damit verbundenen Bildauswertungseinheit ein Unterschied im Randbereich zwischen Pupille und Iris ermittelt werden. Gegebenenfalls wird auch die von der Augenrichtung abhängige Form der Iris bestimmt und das Zentrum der Pupille als Schnittpunkt der zwei Hauptachsen, der im Bild ellipsen- oder gegebenenfalls kreisförmigen äusseren Iris-Berandung festgelegt. Die optische Augenachse ist dann die Linie, die durch das Zentrum der Pupille und durch ein vorgängig zu bestimmendes Augendrehzentrum führt.
Zum Bestimmen des Augendrehzentrums wird etwa bei fester bekannter Kopfausrichtung und Kopflage mindestens für zwei bekannte, nacheinander von den Augen fixierte Fixierpunkte eine Fixierlinien-Bestimmung durchgeführt. Die Fixierpunkte sind vorzugsweise zwei fest mit der Halterung für die Kameras und die Sensoren zur Bestimmung der Pupillenlage verbindbare Markierpunkte, so dass die Bestimmung unabhängig von der Kopfausrichtung erfolgen kann. Das Augendrehzentrum liegt dann im wesentlichen beim Schnittpunkt der durch die Fixierpunkte gelegten Fixierlinien. Da das Augendrehzentrum auf der optischen Augenachse liegt, muss zur Erhöhung der Bestimmungsgenauigkeit aufgrund der Abweichung zwischen Fixierlinie und optischer Augenachse, wie oben beschrieben, eine Korrektur gemacht werden. Der Abstand zwischen den Drehzentren der beiden Augen entspricht dem Augenabstand. Wenn die beiden Augen im wesentlichen gerade und horizontal nach vorne ins Unendliche blicken, werden die beiden Iris je kreisförmig auf die beiden Bildsensorebenen abgebildet, der Abstand zwischen den Pupillenzentren entspricht ebenfalls dem Augenabstand und die Pupillenzentren liegen je in einem Auslenkungsnullpunkt. Um die Augen unabhängig von der Kopfausrichtung parallel gerade nach vorne auszurichten, wird gegebenenfalls gerade vor jedem Auge ein mit der Halterung verbundener Markierpunkt angeordnet. Die Augen sind dann parallel nach vorne ausgerichtet, wenn die beiden je einem Auge zugeordneten Markierpunkte in den Bildern beider Augen aufeinander liegen.
Durch die Bestimmung des Randbereiches zwischen Pupille und Iris ist auch die eingestellte Blende bekannt. Diese Blende soll gegebenenfalls auch als gemessener Parameter zur Steuerung der Blende des Kontrollsystems verwendet werden und so die Lichtverhältnisse analog zu jenen im Auge vari- ieren. Dies ist dort von Vorteil, wo man eher am tatsächlich durch das Auge wahrgenommenen Bild interessiert ist als an einem möglicherweise besseren, das durch die Kamera aufgenommen wird (z.B. bei medizinischen Anwendungen). Um im Kontrollsystem für die Bildaufnahme optimale Lichtver¬ hältnisse zu haben, wird die Blende automatisch verstellt, dabei geht jedoch gegebenenfalls wahlweise der tatsächliche Helligkeits- und Schärfeneindruck des Anwenders verloren.
Bei den Augenachsen-Bestimmungsverfahren gemäss dem Stande der Technik wird das vom Auge zurückgeworfene Infrarotlicht durch einen teildurchlässigen Infrarot-Spiegel (dichroitischer Spiegel), dessen Reflexionsrate für Infrarot sehr hoch und für sichtbares Licht sehr klein ist, seitlich aus dem Strahlengang der Kamera gegen den Bildsensor ausgelenkt. Dadurch wird gewährleistet, dass die Sicht auf die Bildebene der Kamera ungestört ist. Bei der erfindungsgemässen Lösung schaut das Auge hingegen weder durch ein Okular noch auf eine bilddarstellende Fläche, sondern direkt auf die Objekte. Um die
Achsbestimmung durchzuführen, muss aber vor dem Auge mindestens ein Infrarot-Spiegel vorgesehen sein, der zumindest das Infrarotbild des Auges auf einen Bildsensor seitlich am Rand des Gesichtsfeldes umlenkt. Gegebenenfalls wird aber auch das infrarote Beleuchtungslicht von mindestens einer seitlichen Quelle über einen Spiegel dem Auge zugeführt.
Bei den bekannten Anwendungen der Augenachsenbestimmung ist das Auge jeweils nahe am Okular der Sucheranordnung, so dass das durch die Infrarotmessung bestimmte Augenbild nicht oder nur wenig durch Reflexionen des Umgebungslichtes beeinträchtigt wird. Bei der erfindungsgemässen Anordnung ist das Auge im wesentlichen ungeschützt dem Umgebungslicht ausgesetzt. Um eine Störung des Augenbildes und seiner Auswertung durch Umgebungslicht zu verhindern, sieht die Patentanmeldung DE 43 37 098 eine Betriebsweise vor, bei der die Bildinformation auf der Basis des Unterschiedes zwischen Phasen mit Infrarotbeleuchtung und Umgebungslicht und Phasen nur mit Umgebungslicht ausgewertet wird. Aus der europäischen Patentanmeldung EP 602 895 ist ein äusserst kompakter Achsbestimmungssensor bekannt.
Da das Auge in der erfindungsgemässen Anordnung im wesentlichen uneingeschränkt dem Umgebungslicht ausgesetzt ist, ist es jedoch gut beleuchtet und erlaubt gegebenenfalls die Bestimmung der Pupillenlage mit einem Bildsensor (CCD), der für Licht im sichtbaren Bereich empfindlich ist. Bei der Achsenbestimmung kann somit auf eine Beleuchtung mit Infrarot verzichtet werden.
Nebst der Ausrichtung der Augen ist die Akkommodation durch die Einstellung der Brechkraft der Linse ein weiterer wichtiger Parameter des Beobachtungsvorganges. In einer ersten Näherung kann davon ausgegangen werden, dass die Brechkraft der beiden Augen immer auf den Fixierpunkt eingestellt ist. Entsprechend sollen die Optiken der Kameras so gesteuert werden, dass der Fixierpunkt, dessen Abstand aufgrund des Abstandes zwischen den beiden Augen und den Ausrichtungen der Fixierlinien (Triangulation) bestimmbar ist, scharf gestellt wird. Die Bestimmung des Fixierpunkt-Abstandes mittels Triangulation ist zumindest im Nahbereich genügend genau. Gegebenenfalls können die Optiken der Kameras auch mittels Autofokus im Bereich des Fixierpunktes scharfgestellt werden.
Zur Bestimmung der Brechkraft des Auges werden Augenrefraktometer eingesetzt, die im wesentlichen die sphärische Dioptrie, den Astigmatismus und die Astigmatismusachse messen. Da sich der Astigmatismus und die dazugehörige Achse zumindest in erster Näherung während eines Beobachtungsvorganges nicht ändern, muss lediglich die sphärische Dioptrie bestimmt werden um, die Brechkraft des Kontrollsystems mittels gemessener Parameter zu steuern. Die Messung dieses Parameters wird dadurch erschwert, dass er bei beliebiger Ausrichtung des Auges bestimmt werden muss.
Die Änderung der Linsenbrechkraft geht mit Formänderungen der Linse einher, die zumindest in bestimmten Richtungen oder Schnittebenen gegebenenfalls mittels Ultraschallechographie bestimmbar sind. Zum Ausmessen des Auges entlang der optischen Achse wird ein Ultraschallsignal über eine Vorlaufstrecke aus Wasser an das Auge angekoppelt. Die Linsendicke ergibt sich durch Laufzeitdifferenzen der Echos an den beiden Linsenberandungen. Nebst den reinen Laufzeitmessungen entlang einer Achse werden auch beim Auge bildge¬ bende Ultraschall-Messverfahren verwendet, die Schnittbilder durch das Auge darstellen. Bei der erfindungsgemässen Vorrichtung muss das Auge eine im wesentlichen ungestörte Sicht nach vorne haben. Eine gegebenenfalls vorgesehene Ultraschailankoppelung muss daher von der Augenseite her er¬ folgen. Zur Berechnung der aktuellen Brechkraft muss dabei die in mindestens einem Schnittbild erscheinende Gestalt der Linse zusammen mit der aktuellen Augenachse verwendet werden.
Eine Ultraschallmessung hat gegenüber den Messungen mit Licht den Vorteil, dass das innere des Auges und somit auch die Linse nicht nur im wesentlichen entlang der optischen Achse, also in einer Richtung in welcher das Auge licht- durchlässig ist, analysiert werden kann. Dafür sind die Messgenauigkeiten kleiner und die nötigen Umrechnungen aufwendiger.
Bei der bevorzugten optischen Messung der Brechzahl des Auges ist es wichtig, eine geeignete Einstellung des Refraktometers zum zu untersuchenden Auge herzustellen und den Abstand zwischen beiden genau, zu justieren. Zudem ist es wesentlich, die nachteiligen Auswirkungen des Augenzwinkerns auf die Messung auszuschliessen. Aus der Patentanmeldung DE 29 37 891 ist ein Refraktometer bekannt, das in einem ersten Schritt optimal auf das, auf ein Fixationsobjekt gerichtete, zu untersuchende Auge eingestellt wird. In einem weiteren Schritt wird eine verstellbare Testbildstruktur, vorzugsweise definiert ausgerichtete Lichtstrahlen, durch die Linse auf die Netzhaut abgebildet. Das reflektierte, aus dem Auge austretende Licht des Bildes auf der Netzhaut und dessen Änderung beim Verstellen des Testbildes wird analysiert, um die mittlere Dioptrie (sphärisch), den Astigmatismus (zylindrisch) und die Astigmatismusachse (Zylinderachse) zu bestimmen.
Bei einem bewegbaren Auge, dessen optische Achse aufgrund einer Messung bekannt ist, muss ein Infrarot-Testbild jeweils entlang der aktuellen Augenachse auf die Netzhaut abgebildet werden können. Dazu wird beispielsweise von einem Leuchtdiodenarray, oder einer von hinten durchleuchteten Flüssigkristall- Bildfläche ein Testbild erzeugt, das von einem optischen System umgelenkt, gegebenenfalls fokussiert und durch die Pupille ins Auge geführt wird. Die Abbildung auf der Netzhaut wird wiederum mittels Umlenkung und etwa Fokussierung einer Bildaufnahmevorrichtung, bzw. Infrarotsensoren zugeführt. Indem die Testbilder von verschiedenen Bereichen des Arrays, bzw. der Bildfläche ausgehen, kann mit einer geeigneten Optik erreicht werden, dass die Bilder entlang der jeweils aktuellen optischen Achse gegebenenfalls im wesentlichen fokussiert auf das Auge geführt werden können. Mittels Variationen der Testbilder kann das Abbildungsverhalten der Augenoptik bestimmt werden. Es versteht sich von selbst, dass die im freien Gesichtsfeld des Auges angeordneten optischen Elemente, insbesondere die Um¬ lenkelemente, bzw. dichroitische Spiegel, deren Aufbau z.B. aus der japanischen Patentanmeldung JP 88865/1978 bekannt ist, für Licht im sichtbaren Bereich ungehindert passierbar sein sollen. Zur Strahlumlenkung sind nebst flacher Spiegel auch gekrümmte Spiegel verwendbar. Mittels zweier viertelkugelförmiger konkaver, je von zwei entgegengesetzten Seiten beleuchtbarer, Spiegel wäre das Auge im wesentlichen aus jeder möglichen Augenachsenrichtung beleuchtbar.
Bei dem oben beschriebenen Messsystem mit einer Sender- und einer Empfängermatrix kann anstelle des Übertragens von Testbildern auch ein sequentielles Senden und paralleles Empfangen vorgesehen werden. Dabei wird etwa zumindest ein Teil der Leuchtdioden des Diodenarrays hintereinander ein- und ausgeschaltet und die rückgestreuten Bilder werden vorzugsweise zusammen mit der ebenfalls bestimmten Achsenlage zur Bestimmung mindestens eines Akkommodationsparameters verwendet. Mit einem System mit einer Sender- und einer Empfängermatrix kann insbesondere auch die Pupillenlage und somit die Achsenlage bestimmt werden.
Anstelle eines Leuchtdiodenarrays kann gegebenenfalls auch mindestens ein richtungs- und insbesondere auch lageverstellbarer Infrarot-Diodenlaser eingesetzt werden. Der Laserstrahl müsste durch ein optisches System und über ein dichroitisches Einblendelement im wesentlichen entlang der aktuellen Augenachse zur Abbildung auf die Netzhaut ausrichtbar sein. Das aus dem Gesichtsfeld ausgelenkte und gegebenenfalls durch eine verstellbare Optik geführte Rückstreubild der Netzhaut müsste mindestens einem Infrarotsensor, gegebenenfalls aber einem Sensorarray zuführbar sein.
Durch das kontinuierliche Bestimmen der optischen Augenachsen, der Pupillenweite und der Akkommodation während eines Sehvorganges wird das
ERSATZBLÄTT REGEL 26 parallele Erfassen von Bilddaten mittels Kameras und anhand dieses Bildmaterials eine dynamische Sehanalyse ermöglicht. Akkommodationsfehler können durch den Vergleich der Lage des Fixierpunktes mit der gemessenen Dioptrie, bzw. Akkommodations-Distanz erkannt werden. Bei der Vorgabe von dreidimensional bewegten Fixierpunkten kann kontrolliert werden, wie die Augen diesen Punkten folgen. Dynamische Sehanalysen können auch beim Lesen von Text oder Musiknoten, insbesondere auch beim Überwachen von Instrumenten- Anzeigen Augenführungsfehler aufzeigen. Nebst Kontroll-, Leit- und Diagnoseaufgaben sind auch therapeutische Anwendungen möglich. Übungen im Grenzbereich des Auftretens erkannter Sehfehler, insbesondere etwa
Akkommodationsgrenzen oder Probleme beim exakten Einstellen beider Augen auf einen einzigen Punkt (Fusionsprobleme), können unter interaktiver Kontrolle das Sehverhalten verbessern. Im Musikunterricht kann sowohl gutes wie schlechtes Notenleseverhalten aufgezeichnet und anhand der Aufzeichnungen analysiert werden. Die Optimierung des Sehverhaltens kann auch in Sportarten, wie etwa Tennis, Schiessen und bei Spielen mit Torhütern von Bedeutung sein. Personen in einem Kontrollzentrum können so über Funk einem Anwender unmittelbare Anweisungen geben, z.B. bestimmte Gegenstände zu fixieren.
Ein weiteres Anwendungsgebiet des erfindungsgemässen Erfassens mit einem bildaufnehmenden Kontrollsystem ist das blickgesteuerte Ansteuern von Menuefeldern auf einem Bildschirm. Diese Möglichkeit ist insbesondere bei Operationen, bei denen die operierende Person die Operation am Bildschirm verfolgt, vorteilhaft. Die Menuefelder werden vorzugsweise durch Symbole gekennzeichnet, die zu Erkennungszwecken in einem Bildverarbeitungssystem gespeichert sind. Die Bildausschnitte des Kontrollsystems im Bereich des Fi¬ xierpunktes sind mittels Bildverarbeitung mit den gespeicherten Symbolen vergleichbar. Dazu ist sowohl die Bildschirminformation als auch die Bildinformation des Kontrollsystems der Bildverarbeitung zugänglich. Wenn nun die kontrollierten Anwenderaugen ein Menuefeld, bzw. das dazugehörigen Symbol über eine vorgegebene Zeit fixieren, oder über ein Schaltorgan, das etwa mechanisch oder akustisch betätigbar ist, den Erkennungsvorgang auslösen, wird das betrachtete Symbol wenn möglich einem entsprechenden gespeicherten Symbol zugeordnet. Bei einer erfolgreichen Zuordnung werden gegebenenfalls weitere Menuefelder auf dem Bildschirm dargestellt, oder aber ein Befehl wird, gegebenenfalls nach einer Bestätigung ausgeführt.
Das blickgesteuerte Ansteuern von Menuefeldern durch ein Okular ist beispielsweise aus dem Bereich von Videokameras bekannt. Dort muss lediglich eine Augenachse bestimmt werden, um den betrachteten Bildbereich erkennen, bzw. zuordnen zu können. Bei frei beweglichem Kopf und Augen, müsste die Nullpunktslage und die Orientierung des kopffesten Koordinatensystems, sowie in Koordinaten desselben die Augenachse, bzw. Fixierlinie bekannt sein, um eine Fixierlinie richtig im dreidimensionalen Raum anordnen und gegebenenfalls mit der Bildschirmebene schneiden zu können. Nebst der Bestimmung der Augenachsen müssten die Bewegungen des Kopfes telemetrisch überwacht werden. Um eine Fixieriinie im dreidimensionalen Raum anzuordnen ist der Aufwand gross und zudem besteht zumindest bei kleinen Menuefeldern die Gefahr, dass nicht das richtige Feld bestimmt wird. Das Vergleichen von betrachteten Symbolen mit vorgegebenen Symbolen dürfte somit in den meisten Fällen einfacher und effizienter sein.
Eine weitere Anwendung, die im wesentlichen ähnlich ist zum oben beschriebenen blickgesteuerte Ansteuern von Menuefeldern, ist das Erkennen von kontrollierten Instrumenten-Anzeigen. Beim Überwachen von Instrumenten ist es wichtig, dass einzelne Anzeigen in vorgegebenen Zeitintervallen min¬ destens einmal von der kontrollierenden Person abgelesen werden. Das Bildmaterial des Kontrollsystems muss diese Anzeigen somit in den vorgegebenen Zeitintervallen mindestens einmal im Fixierbereich darstellen. Dies kann mittels Bildverarbeitung kontrolliert werden.
Ein weiteres Anwendungsgebiet des erfindungsgemässen Erfassens mit einem bildaufnehmenden Kontrollsystem ist die vom Blick gesteuerte Cursor-Führung auf einem betrachteten Bildschirm. Anstatt, wie oben beschrieben,
Bildausschnitte des Kontrollsystems im Bereich des Fixierpunktes mittels Bildverarbeitung gespeicherten Symbolen zuzuordnen, können auf dem betrachteten Bildschirm Koordinatenmarken vorgesehen werden, die mittels Bildverarbeitung im erfassten Bild bestimmbar sind. Die Lage des Fixierpunktes, bzw. Bildzentrums, des von den entsprechend der Augenausrichtung ausge- richteten Kameras aufgenommenen Bildes des Bildschirmes, kann dann in Bildschirmkoordinaten umgerechnet werden. Die Bildschirmkoordinaten des Fixierpunktes der Augen und somit der Kameras werden an den Bildschirm, bzw. seine Steuerung übertragen, so dass der Fixierpunkt gemäss seiner Koordinaten auf dem betrachteten Bildschirm in der Form eines Cursors dargestellt werden kann.
Die blickgesteuerte Cursor-Führung auf einem betrachteten Bildschirm hat sehr viele Verwendungsmöglichkeiten. Bei Operationen, bei denen die operierende Person die Operation am Bildschirm verfolgt, kann der Blickcursor der operierenden Person für die assistierenden Personen eine Orientierungshilfe sein, die das Verstehen des Operationsvorganges, bzw. Erklärungen dazu und das Ausführen von Anweisungen erleichtert. Mit dem blickgesteuerten Cursor können Menuefelder angesteuert, Zoombereiche lokalisiert , oder sogar Bewegungen des das Bild erzeugenden Aufnahmesystems und gegebenenfalls von Operations-Hilfsgeräten gesteuert werden.
Es versteht sich von selbst, dass die blickgesteuerte Cursor-Führung grundsätzlich alle bekannten Cursor-Führungen, also auch die verbreitete Maus- Führung ersetzen kann. Diese Ersatzmöglichkeit ist besonders vorteilhaft für körperlich stark behinderte Personen. Selbst wenn nur die Augen bewegt werden können, ist mit der blickgesteuerten Cursor-Führung eine vielseitige und effiziente Computerbenützung möglich.
Beim Auge ist das Bildaufiösungsvermögen beim auf die Fovea centralis abgebildeten Bildbereich maximal. Von diesem Bereich aus nimmt die Auflösung in alle Richtungen stark ab. Im Bereich des blinden Flecks ist sie sogar verschwindend klein. Das von einer Kamera erfasste Bild hat normalerweise über den ganzen Bildbereich im wesentlichen die gleiche Auflösung. Um nun die vom Beobachter erhaltene Bildinformation zu erzeugen, kann die Bildinformation des Kontrollsystems mittels Bildverarbeitung unter Berücksichtigung des realen Bildauflösungsvermögens des Auges vom zentralen Bildbereich nach aussen reduziert werden. Gegebenenfalls wird auch bereits der Kamera des Kontrollsystems eine das gewünschte Auflösungsvermögen erzeugende Weichzeichnerlinse vorgeschaltet. Wird die
ERSATZBLÄTT REGEL 26 Auflösungsreduktion mittels Bildverarbeitung erst bei der Analyse des aufgezeichneten Bildmaterials des Kontrollsystems durchgeführt, so besteht die Möglichkeit, die optimale Beobachtung mit einer realen zu vergleichen, insbesondere zu bestimmen, welche Informationen beim Auge untergehen.
Derartige Vergleiche dürften beim Beurteilen chirurgischer Haftpflichtfälle von Bedeutung sein, da Fahrlässigkeit meist nur dann vorliegt, wenn etwa vor einem Fehlschnitt, dessen Gefährlichkeit erkennbar war, oder wenn ein Fehler von der operierenden Person gesehen wurde, ohne darauf zu reagieren. Ein anderes erfindungsgemässes bildaufzeichnendes Überwachungssystem, das Bilder aus einer von der operierenden Person abweichenden Perspektive und ohne die Einschränkungen des menschlichen Auges aufzeichnet, macht gegebenenfalls Bildinformationen zugänglich, die für die operierende Person nicht zugänglich waren.
Es versteht sich von selbst, dass nebst dem Verändern der Bildauflösung auch andere bildverändernde Bearbeitungsschritte, wie etwa das Verstärken von Konturlinien oder das Einfügen von Masken, vorgesehen werden können. Dabei kann zur Bildaufbereitung auch Bildmaterial von anderen bildgebenden Verfahren verwendet werden. Bei starken kurzzeitigen Augenbewegungen müssen gegebenenfalls für die Kamerabewegungen Dämpfungsverfahren und für die aufgezeichneten Bilder Filterverfahren vorgesehen werden.
Analog zur Verarbeitung des von der Retina aufgenommenen Bildes im Gehirn muss das Bildmaterial gegebenenfalls bearbeitet werden. Kontraste sollen verstärkt, Unscharfen ausgeglichen, periphere Informationen gefiltert und Bewegungen des Kopfes und der Aussenwelt ausgeglichen werden, so dass ein ruhigstehendes Bild entsteht. Nebst dem Bildmaterial werden gegebenenfalls auch die gemessenen Parameter gefiltert und/oder bearbeitet, so dass eine optimale Steuerung des Kontrolisystems und somit eine optimale Bildaufnahme möglich wird.
Ebenfalls durch bildverändernde Bearbeitungsschritte kann beispielsweise ein Verständnis für ein anderes Sehverhalten, bzw. Sehvermögen erzielt werden. Das Bildmaterial des Kontrolisystems wird dazu mittels Bildverarbeitung dem an- deren Sehen, beispielsweise dem Sehen bei Netzhautablösung oder etwa dem Sehen von Tieren, deren Augen andere Charakteristiken haben, angepasst.
Nebst dem Messen von Augenparametern und der Bildaufnahme mittels eines Kontrolisystems kann gegebenenfalls auch vorgesehen werden, dass mindestens einem Auge über ein teildurchlässiges optisches Umlenkelement Bilder zugeführt werden können. Die einbiendbaren Bilder können dabei etwa aus dem Kontrolisystem stammen und den gegebenenfalls wegen eines Fehiverhaltens schlecht sehenden Augen aufzeigen, welches Bild bei optimalem Sehverhalten zu sehen wäre. Entsprechend kann auch umgekehrt einer normalsichtigen Person das Bildmaterial, das einer fehlsichtigen Person zugänglich ist, eingeblendet werden.
Bei chirurgischen Eingriffen ist es zuweilen zweckmässig, wenn der operierenden Person Bilder von anderen bildgebenden Verfahren, wie etwa Röntgenbilder, Ultraschallbilder, Computertomogramme und Kernspinresonanzbilder, insbesondere dem einsehbaren Operationsbereich überlagert, zuführbar sind. Dabei wird gegebenenfalls vom Auge aus gesehen hinter dem die Bilder zuführenden Umlenkelement ein elektronisch schaltbares Schliesselement vorgesehen, das z.B. aufgrund von Flüssigkristalländerungen von einem transmissiven in einen reflektiven Zustand übergeht. Dadurch ist es möglich, die zugeführten Bilder dem aktuellen Hintergrund überlagert, oder ohne Hintergrund zu betrachten.
Das Kontrollsystem umfasst gegebenenfalls eine Zoomoptik, so dass bei Bedarf ein gezoomter Ausschnitt im Bereich des von den Augen fixierten Punktes erfasst wird. Durch das zeitweise Einblenden des Zoombildes kann beispielsweise eine operierende Person in heiklen Operationsphasen von der direkten Beobachtung auf eine Beobachtung eines vergrösserten Teilbereiches umstellen (vergleichbar der bekannten Mikroskopbrille). Die Ausrichtung der Augen wird während dem Betrachten des Zoombildes vorzugsweise nicht mehr zum Bewegen der optischen Achsen der Kameras des Kontrolisystems verwendet, sondern etwa wie bei Operationsmikroskopen gemäss der Patentanmeldung CH 3217/94-9 zum menuegesteuerten Verstellen von Parametern des Kontrolisystems benützt. Gegebenenfalls werden Schwankungen der Distanz zwischen den Kameras und dem beobachteten Bereich automatisch mittels Autofokus und insbesondere durch kleine Ausrichtungsänderungen der Kameras kompensiert.
Nebst dem Erfassen und gegebenenfalls Einblenden eines Zoombildes kann das Kontrollsystem auch Bilder in einem vom sichtbaren Bereich abweichenden Wellenlängenbereich, insbesondere im Infrarotbereich, Bilder mit einem vergrösserten Gesichtsfeld und/oder mit einer veränderten Stereobasis erfassen und gegebenenfalls den Augen zuführen.
Beim ersten bildaufnehmenden System handelt es sich vorzugsweise um mindestens ein Auge, insbesondere um ein menschliches Auge oder tierisches Auge. Grundsätzlich können aber alle lichtsensiblen Sensorsysteme, gegebenenfalls sogar Einzelsensoren, Systeme mit mehreren Sensoren, vor- zugsweise aber Sensorarrays und Bildaufnahmevorrichtungen mit einem bildaufnehmenden Kontrollsystem kontrolliert werden. Vorzugsweise wird zumindest eine Richtungsachse des Sensorsystems erfasst und die mindestens eine Kamera wird in Abhängigkeit von dieser Richtung ausgerichtet. Der Einsatz eines bildaufnehmenden Kontrolisystems zur Kontrolle eines lichtsensiblen ersten Systems ermöglicht die Kontrolle des situationsabhängigen Verhaltens des ersten Systems.
Es versteht sich von selbst, dass die Bildinformation des Kontrolisystems und gegebenenfalls die am ersten biidaufnehmenden System gemessenen Parameter aufgezeichnet werden können.
Analog zu den Verfahrensansprüchen sind weitere Vorrichtungsansprüche denkbar, die gegenständliche Merkmale aufweisen mit denen die entsprechenden Verfahrensschritte durchgeführt werden können.
Die Zeichnungen erläutern die Erfindung an Hand schematisch dargestellter Ausführungsformen, auf welche die Erfindung aber nicht eingeschränkt ist. Fig.1 Frontansicht eines Kopfes mit zwei seitlich der Augen angeordneten
Videokameras und zwei über den Augen angeordneten Sensoren zur Bestimmung der Augenachsen Fig.2 Seitenansicht eines Kopfes mit Videokamera, Augenachsensensor und Umlenkspiegel
Fig.3 Seitenansicht eines Kopfes mit Videokamera, Augenachsensensor,
Umlenkspiegel, Bildeinblendevorrichtung und schaltbarem
Schliesselement Fig.4 Ansicht eines Systems mit einer von Hand ausrichtbaren ersten Kamera, einer Kontrollkamera und einer Mess-, Steuer- und
Bildaufnahmevorrichtung
Fig.1 zeigt einen Kopf 1 mit zwei seitlich der Augen 2 angeordneten Videokameras 3 und zwei über den Augen 2 angeordneten Mess Vorrichtungen, die etwa Augen-Ausrichtungs-Sensoren 4 umfassen, aus deren Messung bzw. Bildaufnahme die Lage des Pupillenzentrums ableitbar ist. Um die Augenbilder den Ausrichtungs-Sensoren 4 und gegebenenfalls Licht, insbesondere Infrarot, von den Ausrichtungs-Sensoren 4 den Augen 2 zuzuführen, sind vor beiden Augen erste teildurchlässige Umlenkelemente 5 bzw. Spiegel, vorzugsweise dichroitische Spiegel vorgesehen. Gegebenenfalls umfasst die Messvorrichtung auch eine Sensoranordnung und eine Auswertungseinheit zur Bestimmung der Brechkraft jedes Auges. Die Sensoren 4, die teildurchlässigen Spiegel 5 und die Kameras 3 sind an einer Halterung 6 befestigt, die auf den Kopf 1 aufsetzbar ist.
Als Lagerungsvorrichtungen für die Kameras 3 sind vorzugsweise kardanische Lager 7 mit zueinander im wesentlichen normal stehenden ersten und zweiten Bewegungsachsen 7a und 7b vorgesehen. Um die Kameras 3 entsprechend der gemessenen Augenausrichtungs-Parameter in gewünschte Richtungen relativ zu einem mit dem Kopf, bzw. der Halterung 6 verbundenen Koordinatensystem auszurichten, ist vorzugsweise jeder Kamera ein zweidimensionales Stellsystem 8 zugeordnet. Die Stellsysteme 8 betätigen etwa einen nach hinten stehenden Kamerafortsatz mittels zweier - eines ersten und eines zweiten - z.B. entlang der Achsen 7a und 7b wirkender, Linearantriebe 8a und 8b. Dabei ist der erste Antrieb 8a mit der Halterung 6 verbunden und bewegt eine erste Stange 9, an deren Endbereich der zweite Antrieb 8b befestigt ist. Der zweite Antrieb 8b ist über eine zweite Stange 10 mit dem Kamerafortsatz verbunden.
Fig.2 zeigt den Kopf 1 mit der Halterung 6 von der Seite, so dass auch der Kamerafortsatz 11 erkennbar ist. Aus der Seitenansicht geht auch die Halterung und Ausrichtung der teildurchlässigen Spiegel 5 gut hervor. Die von den Senso¬ ren 4, den Stellsystemen 8 und den Kameras 3 ausgehenden Leitungen sind vorzugsweise mit einer Mess-, Steuer- und Bildaufzeichnungsvorrichtung verbunden. Diese Steuervorrichtung gewährleistet die der Augenausrichtung entsprechende Ausrichtung und/oder die der gemessenen Augenbrechkraft entsprechende Fokussierung der Kameras 3. Zudem bearbeitet und/oder speichert die Steuervorrichtung die von den Sensoren 4 und den Kameras 3 gelieferten Signale.
Fig.3 zeigt eine Ausführungsform bei der nebst dem Messen von
Augenparametern und der Bildaufnahme mittels der entsprechend der gemessenen Parameter eingestellten Kameras 3 gegebenenfalls auch vorgesehen ist, dass mindestens einem Auge über ein teildurchlässiges zweites optisches Umlenkelement 12 Bilder von einer mit der Halterung 6 verbundenen Bildquelle 13 zugeführt werden können. Um die Bilder sowohl dem Hintergrund überlagert, als auch ausschliesslich dem Auge zuführbar zu machen, wird gegebenenfalls vom Auge 2 aus gesehen hinter dem die Bilder zuführenden Umlenkelement 12 ein von einer elektronischen Einheit 14 schaltbares Schliesselement 15 vorgesehen, das z.B. aufgrund von Flüs- sigkristalländerungen von einem transmissiven in einen reflektiven Zustand übergeht. Die Steuerung der Bildquelle 13 und der Einheit 14 erfolgt durch die Steuervorrichtung.
Fig.4 zeigt eine Ausführungsform, bei der das erste die Bildinformationen aufnehmende Sensorsystem und auch das Kontrollsystem je mindestens eine Videokamera umfasst. Anstatt die von einem Auge erf assten Bilder erfassbar zu machen, soll das Kontrollsystem parallel zu einer ersten Videokamera Bilder erfassen. Eine erste Videokamera 16 wird dabei etwa über einen Führungsgriff 17 manuell bewegt. Zur Bestimmung der Ausrichtung der ersten Kamera 16 ist dieser eine Richtungsbestimmungseinheit 18 zugeordnet. Die jeweilige Einstellung der Optik der ersten Kamera wird gegebenenfalls entweder direkt durch von der Kamera 16 abgegebene Signale der Optikstelleinrichtung, oder durch eine an der Kamera 16 befestigte Messvorrichtung 19 bestimmbar gemacht.
Die erfassten Parameter der ersten Kamera 16 werden einer Steuervorrichtung 20 zugeführt, die entsprechend der gemessenen Parameter eine zweite Kamera 21 , bzw. deren Ausrichtung und/oder die Einstellung ihrer Optik steuert. Die Ausrichtung erfolgt dabei etwa durch eine Ausrichtungsvorrichtung 22 auf der die zweite Kamera 21 befestigt ist. Gegebenenfalls sind die Halterungen 18 und 22 der beiden Kameras 16 und 21 über eine Haltevorrichtung 23 miteinander verbunden.
Darüber hinaus liegen im Rahmen der Erfindung aber auch Anwendungen, bei denen das Kontrollsystem absichtlich andere Parameter als das Sensorsystem aufweist, z.B. könnte das Sensorsystem (z.B. Videokamera eines Roboters) im Telezoombereich arbeiten, während das Kontrollsystem im Weitwinkelbereich eine Übersichtsfunktion ausübt. So kann es weiters von Vorteil sein, dass das Kontrollsystem in einem bestimmten Lichtwellenbereich parallel zum Sensorsystem arbeitet, wobei dieses in einem anderen Lichtwellenlängenbereich arbeitet.

Claims

PATENTANSPRÜCHE
1. Verfahren zum Erfassen von Bildinformationen einer In¬ formationsaufnahme eines optische Informationen aufnehmenden Sensorsystems (z.B. eines Auges oder einer Videokamera o.dgl.), dadurch gekennzeichnet, dass parallel zum Sensorsystem (2,16) ein bildaufnehmendes Kontrollsystem (3,21) (z.B. eine Videokamera o.dgl..) vorgesehen ist, dessen Informationsaufnahme mit der Infor¬ mationsaufnahme des Sensorsystems (2,16) so wenigstens annähernd zur Deckung gebracht wird, dass wenigstens ein optischer Parameter des
Sensorsystems (2,16) - vorzugsweise laufend oder intermittierend - erfasst wird und der entsprechende optische Parameter des Kontrolisystems (3,21) in Abhängigkeit davon angepasst wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass es sich beim Sensorsystem (2, 16) um ein erstes bildaufnehmendes System mit mindestens einer Optik und einer Bildaufnahmefläche handelt, wobei durch die mindestens eine Optik mindestens eine optische Achse definiert wird, deren Ausrichtung als erster Parameter erfassbar ist und zur Steuerung der Ausrichtung einer optischen Achse des Kontrolisystems
(3,21) verwendet wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass das erste bildaufnehmende System das menschliche oder tierische Sehsystem mit zwei Augen (2) ist, die Ausrichtungen der Augen (2) mittels Sensoren (4) bestimmt werden und die bestimmten Richtungen zum Ausrichten mindestens einer, vorzugsweise aber zweier Kameras (3), insbesondere Videokameras, des mit dem Kopf verbundenen Kontrolisystems verwendet werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass mindestens einer der folgenden Verfahrensschritte vorgesehen ist, a) bei der Bestimmung der Ausrichtung eines Auges (2) wird ein Bild des Auges (2) vorzugsweise im sichtbaren Lichtbereich, oder gegebenenfalls im Infrarotbereich, über ein vor dem Auge (2)
ERSATZBLÄTT (REGEL 26) angeordnetes, vorzugsweise zumindest für sichtbares Licht teildurch¬ lässiges erstes Umlenkelement (5) aus dem zentralen Bereich des Gesichtsfeldes ausgekoppelt und einer Augenbildaufnahmevorrichtung (4), vorzugsweise einem CCD zugeführt, wobei zum Bestimmen der optischen Achse aus dem Bild die Pupillenlage und insbesondere das Zentrum der Pupille bestimmt wird, b) um die Lage der Augen (2), bzw. die Lage der Pupillenzentren bei gerade nach vorne gerichteten Augen (2), insbesondere den Augenabstand und/oder die Lage der Augendrehzentren zu bestimmen, wird ein Justierschritt durchgeführt, bei dem die Augen vorzugsweise auf mit dem Kopf verbundene Markierpunkte ausgerich¬ tet werden, c) um der Augenausrichtung eine Achse zuzuordnen, wird die optische Augenachse durch das Augendrehzentrum und durch das aktuelle
Pupillenzentrum gelegt, d) die Gesichtslinie, bzw. Fixierlinie jedes Auges (2) wird mittels einer
Winkelkorrektur aus der Augenausrichtung bestimmt, wobei für die Winkelkorrektur gegebenenfalls eine Standardkorrektur, insbesondere aber eine Korrektur die durch eine Winkelbestimmung beim Fixieren mindestens eines vorgegebenen Fixpunktes bestimmbar ist, verwendet wird, e) aus dem Augenabstand und den Ausrichtungen der Augen (2) wird ein
Fixierpunkt bestimmt, auf den die mindestens eine Kamera (3), vorzugsweise aber beide Kameras (3), ausgerichtet wird, bzw. werden,
5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Brechkraft mindestens eines Auges (2) mittels Augenrefraktometrie bestimmt wird, wobei im wesentlichen die sphärische
Dioptrie und gegebenenfalls der Astigmatismus und die Astigmatismus¬ achse bestimmt werden.
6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Einstellung des Fokus mindestens einer Kamera (3) des Kontrolisystems mindestens einer der folgenden
Verfahrensschritte vorgesehen ist, a) der Fokus wird auf die Distanz zwischen der Kamera (3) und dem von den Augen (2) fixierten Fixierpunkt eingestellt, b) der Fokus wird von der auf den Fixierpunkt ausgerichteten Kamera (3) automatisch eingestellt, c) der Fokus wird entsprechend der an mindestens einem Auge (2) gemessenen Brechkraft eingestellt.
7. Verfahren nach einem der Ansprüche 2 bis 6, dadurch gekennzeichnet, dass die Bildinformation des Kontrolisystems und gegebenenfalls die am ersten bildaufnehmenden System gemessenen Parameter aufgezeichnet werden.
8. Verfahren nach einem der Ansprüche 3 bis 7, dadurch gekennzeichnet, dass mindestens einem Auge (2) über ein teildurchlässiges zweites optisches Umlenkelement (12) Bilder zugeführt werden, wobei es sich bei diesen Bildern etwa um Bilder aus dem Kontrollsystem oder um Bilder von anderen bildgebenden Verfahren (z.B. Ultraschallröntgen-, CT-, PET- und vergleichbare Analyseverfahren) handelt.
9. Bildaufnahmevorrichtung zur Erfassung einer Informationsaufnahme eines ersten Sensorsystems (2,16) (z.B. eines Auges, einer Videokamera o.dgl.) insbesondere nach einem der vorhergehenden Verfahrensansprüche, dadurch gekennzeichnet, dass parallel zum Sensorsystem (2,16) ein
Kontrolisystem (3,21) mit mindestens einer Videokamera (3,21) o.dgl. vorgesehen ist, deren optische Parameter den optischen Parametern des Sensorsystems (2,16) wenigstens annähernd angepasst sind, wobei das Kontrolisystem eine Nachführvorrichtung (8,22) umfasst, die im Betriebszustand Bewegungen oder Änderungen wenigstens eines optischen Parameters des Sensorsystems (2,16) erfasst und im Betriebszustand Einstellungen mindestens eines Parameters des Kontrolisystems kongruent nachführt.
10. Bildaufnahmevorrichtung nach Anspruch 9, dadurch gekennzeichnet, dass mindestens eine Messvorrichtung (4) vorgesehen ist, die einen Parameter eines lichtsensiblen Sensorsystems (2,16) bestimmbar macht und mindestens ein Steuerparameter des bildaufnehmenden Kon- trollsystems (3,21) abhängig vom gemessenen Parameter einstellbar ist.
11. Bildaufnahmevorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die Messvorrichtung (4) a) mindestens eine optische Achse des Sensorsystems (2,16), insbesondere die Ausrichtung mindestens eines Auges (2), und/oder b) mindestens eine Fokuseinstellung einer Optik des Sensorsystems
(2,16), insbesondere die Brechkraft mindestens eines Auges (2) bestimmbar macht.
12. Bildauf πahmevorrichtung nach einem der Ansprüche 9 bis 11 , dadurch gekennzeichnet, dass die Nachführvorrichtung (8,22) a) mindestens eine optische Achse des Kontrolisystems (3,21), insbesondere die Ausrichtung mindestens einer Videokamera (3,21), und/oder b) mindestens eine Fokuseinstellung einer Optik des Kontrolisystems
(3,21), insbesondere den Fokus einer Videokamera einstellbar macht.
PCT/EP1996/002046 1995-05-15 1996-05-13 Verfahren und vorrichtung zum parallelen erfassen von sehinformation WO1996036271A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US08/930,100 US6580448B1 (en) 1995-05-15 1996-05-13 Process and device for the parallel capture of visual information
EP96916057A EP0825826B1 (de) 1995-05-15 1996-05-13 Verfahren und vorrichtung zum parallelen erfassen von sehinformation
JP8534541A JPH11508780A (ja) 1995-05-15 1996-05-13 視覚情報を並行検出する方法及びそのための装置並びに前記方法の使用方法
DE59609821T DE59609821D1 (de) 1995-05-15 1996-05-13 Verfahren und vorrichtung zum parallelen erfassen von sehinformation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CH1411/95-2 1995-05-15
CH141195 1995-05-15

Publications (1)

Publication Number Publication Date
WO1996036271A1 true WO1996036271A1 (de) 1996-11-21

Family

ID=4209826

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP1996/002046 WO1996036271A1 (de) 1995-05-15 1996-05-13 Verfahren und vorrichtung zum parallelen erfassen von sehinformation

Country Status (5)

Country Link
US (1) US6580448B1 (de)
EP (1) EP0825826B1 (de)
JP (1) JPH11508780A (de)
DE (1) DE59609821D1 (de)
WO (1) WO1996036271A1 (de)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0933666A1 (de) * 1998-01-30 1999-08-04 SONY DEUTSCHLAND GmbH Durch Erfassung der Blickrichtung gesteuertes Bildaufnahmegerät
WO1999049656A1 (en) * 1998-03-25 1999-09-30 Mann W Stephen G Wearable camera system with viewfinder means
WO2000055671A1 (en) * 1999-03-16 2000-09-21 Keeler Limited Image detection system
US6307526B1 (en) 1998-02-02 2001-10-23 W. Steve G. Mann Wearable camera system with viewfinder means
US6614408B1 (en) 1998-03-25 2003-09-02 W. Stephen G. Mann Eye-tap for electronic newsgathering, documentary video, photojournalism, and personal safety
DE10251933A1 (de) * 2002-11-08 2004-05-19 Ludwig-Maximilians-Universität München (Körperschaft des öffentlichen Rechts) Aufnahmevorrichtung für die kopfgestützte Bilderfassung und Verfahren zur Steuerung der Aufnahmevorrichtung
EP1424586A2 (de) * 2002-11-29 2004-06-02 Canon Kabushiki Kaisha Bildbeobachtungssystem
AT412443B (de) * 2001-10-01 2005-03-25 Ernst Dipl Ing Dr Pfleger Verfahren zur erfassung, auswertung und analyse von blicksequenzen
DE102009010467A1 (de) * 2009-02-26 2010-09-09 Carl Zeiss Vision Gmbh Verfahren und Vorrichtung zur Bestimmung der Augendrehpunktlage
WO2013150169A1 (es) * 2012-04-04 2013-10-10 Davalor Consultoria Estrategica Y Tecnologica, S.L. Dispositivo para la sujecion de un equipo para la exploración de la visión, a la cabeza de un usuario
DE102013201773A1 (de) 2013-02-04 2014-08-07 Leica Microsystems (Schweiz) Ag Kopfgetragenes optisches Instrument und Verfahren zum Justieren eines kopfgetragenen optischen Instruments

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPQ962800A0 (en) * 2000-08-23 2000-09-14 Royal Alexandra Hospital For Children, The Surgical head camera
US7312766B1 (en) * 2000-09-22 2007-12-25 Canadian Space Agency Method and system for time/motion compensation for head mounted displays
US6953249B1 (en) 2001-01-29 2005-10-11 Maguire Jr Francis J Method and devices for displaying images for viewing with varying accommodation
WO2002065443A1 (en) * 2001-02-15 2002-08-22 Tveye Inc. Method and apparatus for low bandwidth transmission of data utilizing of the human eye anatomy
US7091928B2 (en) * 2001-03-02 2006-08-15 Rajasingham Arjuna Indraeswara Intelligent eye
JP2004535881A (ja) * 2001-07-27 2004-12-02 トレイシィ テクノロジーズ、エルエルシー 人の眼の屈折特性の測定
GB2378338A (en) * 2001-07-31 2003-02-05 Hewlett Packard Co Automatic identification of features of interest within a video signal
US6741392B2 (en) * 2001-12-21 2004-05-25 Andrew N. Fu System for stabilizing images viewed through a pair of binoculars
US20030179308A1 (en) * 2002-03-19 2003-09-25 Lucia Zamorano Augmented tracking using video, computed data and/or sensing technologies
GB2394852B (en) * 2002-10-31 2006-12-20 Hewlett Packard Co Image capture systems using motion detection
DE10301416B3 (de) * 2003-01-16 2004-07-15 Medizinisches Laserzentrum Lübeck GmbH Verfahren und Vorrichtung zur kontaktlosen Temperaturüberwachung und -regelung
US7091930B2 (en) * 2003-08-02 2006-08-15 Litton Systems, Inc. Centerline mounted sensor fusion device
US20070263923A1 (en) * 2004-04-27 2007-11-15 Gienko Gennady A Method for Stereoscopic Measuring Image Points and Device for Carrying Out Said Method
US6947219B1 (en) * 2004-06-02 2005-09-20 Universal Vision Biotechnology Co., Ltd. Focus adjustable head mounted display system for displaying digital contents and device for realizing the system
US7843488B2 (en) * 2004-08-09 2010-11-30 Stapleton John J Vision thermalization for sightless and visually impaired
DE102004046617A1 (de) * 2004-09-22 2006-04-06 Eldith Gmbh Vorrichtung und Verfahren zur berührungslosen Bestimmung der Blickrichtung
US7686451B2 (en) * 2005-04-04 2010-03-30 Lc Technologies, Inc. Explicit raytracing for gimbal-based gazepoint trackers
FR2884130B1 (fr) * 2005-04-08 2008-02-15 Essilor Int Procede et dispositif de determination du centre de rotation d'un oeil
ES2264383B1 (es) * 2005-06-03 2007-11-16 Hospital Sant Joan De Deu Dispositivo captador de movimientos oculares.
DE102005029230A1 (de) * 2005-06-23 2007-01-04 Carl Zeiss Ag Anzeigevorrichtung und -verfahren
US7580545B2 (en) * 2005-10-03 2009-08-25 Avago Technologies General Ip (Singapore) Pte. Ltd. Method and system for determining gaze direction in a pupil detection system
US7338166B2 (en) * 2006-04-05 2008-03-04 Acunetx, Inc. Image-based system to observe and document eye responses having a reflective protractor for measurement of stimulus position
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US8384771B1 (en) * 2006-12-28 2013-02-26 David Byron Douglas Method and apparatus for three dimensional viewing of images
US9473766B2 (en) * 2006-12-28 2016-10-18 David Byron Douglas Method and apparatus for three dimensional viewing of images
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
FR2914173B1 (fr) * 2007-03-30 2010-02-26 Essilor Int Procede de mesure de la position suivant une direction horizontale du plan sagittal d'un point remarquable d'un oeil d'un sujet
JP4857242B2 (ja) * 2007-11-05 2012-01-18 株式会社日立製作所 ロボット
FR2932675B1 (fr) * 2008-06-18 2010-06-11 Christian Franchi Procede et appareillage de determination de la position du centre de rotation de l'oeil
JP4626684B2 (ja) * 2008-07-31 2011-02-09 富士フイルム株式会社 複眼撮像装置及び像ブレ補正方法
JP5338228B2 (ja) * 2008-09-29 2013-11-13 カシオ計算機株式会社 画像生成装置、及びプログラム
IT1394616B1 (it) * 2008-11-21 2012-07-05 Fond Stella Maris Dispositivo e procedimento per la misurazione del punto di mira visiva di un soggetto
US8116685B2 (en) * 2010-01-26 2012-02-14 Samsung Electronics Co., Inc. System and method for visual pairing of mobile devices
GB201006913D0 (en) * 2010-04-26 2010-06-09 Taylor Richard Refractive eyewear
EP2499964B1 (de) * 2011-03-18 2015-04-15 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Optische Messvorrichtung und System
JP2015027015A (ja) * 2013-07-29 2015-02-05 ソニー株式会社 情報提示装置及び情報処理システム
FR3014674B1 (fr) * 2013-12-17 2016-02-05 Essilor Int Dispositif et procede de mesure de la refraction subjective
CN107710050A (zh) 2015-06-30 2018-02-16 3M创新有限公司 照明器
KR101712004B1 (ko) * 2015-12-24 2017-03-03 한국과학기술연구원 양안 초점 조절반응 측정장치
CN107462992B (zh) * 2017-08-14 2020-09-18 深圳创维新世界科技有限公司 一种头戴显示设备的调节方法、装置及头戴显示设备
WO2019112850A1 (en) * 2017-12-07 2019-06-13 First-Light Usa, Llc Head-mounted illumination devices
TWI642972B (zh) * 2018-03-07 2018-12-01 和碩聯合科技股份有限公司 抬頭顯示系統及其控制方法
JP7145708B2 (ja) * 2018-09-20 2022-10-03 株式会社トプコン 検眼装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3170979A (en) * 1962-04-30 1965-02-23 Alan W Baldwin Optical image interposing display device
DE2937891A1 (de) * 1978-09-20 1980-04-24 Canon Kk Automatisches augenrefraktometer
US4582403A (en) * 1984-03-05 1986-04-15 Weinblatt Lee S Head movement correction technique for eye-movement monitoring system
DE4337098A1 (de) * 1992-10-30 1994-05-05 Canon Kk Sehachsen-Ermittlungsvorrichtung
WO1994017636A1 (en) * 1993-01-29 1994-08-04 Bell Communications Research, Inc. Automatic tracking camera control system
US5341181A (en) * 1992-11-20 1994-08-23 Godard Roger R Systems and methods for capturing and presentng visual information
EP0665686A2 (de) * 1993-12-03 1995-08-02 Texas Instruments Incorporated Visuelles Informationssystem

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8430980D0 (en) * 1984-12-07 1985-01-16 Robinson M Generation of apparently three-dimensional images
JPH01177530A (ja) * 1988-01-08 1989-07-13 Toshiba Corp 立体カメラの支持機構
GB8916206D0 (en) * 1989-07-14 1989-11-08 Marconi Gec Ltd Helmet systems
US5175616A (en) * 1989-08-04 1992-12-29 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of National Defence Of Canada Stereoscopic video-graphic coordinate specification system
GB9121707D0 (en) * 1991-10-12 1991-11-27 British Aerospace Improvements in computer-generated imagery
US5360971A (en) * 1992-03-31 1994-11-01 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
JPH074343B2 (ja) * 1992-09-29 1995-01-25 株式会社エイ・ティ・アール視聴覚機構研究所 奥行き知覚分析装置
US5345281A (en) * 1992-12-17 1994-09-06 John Taboada Eye tracking system and method
US5579026A (en) * 1993-05-14 1996-11-26 Olympus Optical Co., Ltd. Image display apparatus of head mounted type
JPH07135623A (ja) * 1993-10-27 1995-05-23 Kinseki Ltd 網膜直接表示装置
DE4417768C2 (de) * 1994-05-20 1998-09-10 Juergen Prof Dr Med Lamprecht Verfahren und Vorrichtung zum Projizieren von Bildinformationen bei Personen mit durch eine Abweichung der Stellung ihrer Sehachse verursachten Störungen des Sehens
US5649061A (en) * 1995-05-11 1997-07-15 The United States Of America As Represented By The Secretary Of The Army Device and method for estimating a mental decision
US6003991A (en) * 1996-02-17 1999-12-21 Erik Scott Viirre Eye examination apparatus and method for remote examination of a patient by a health professional

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3170979A (en) * 1962-04-30 1965-02-23 Alan W Baldwin Optical image interposing display device
DE2937891A1 (de) * 1978-09-20 1980-04-24 Canon Kk Automatisches augenrefraktometer
US4582403A (en) * 1984-03-05 1986-04-15 Weinblatt Lee S Head movement correction technique for eye-movement monitoring system
DE4337098A1 (de) * 1992-10-30 1994-05-05 Canon Kk Sehachsen-Ermittlungsvorrichtung
US5341181A (en) * 1992-11-20 1994-08-23 Godard Roger R Systems and methods for capturing and presentng visual information
WO1994017636A1 (en) * 1993-01-29 1994-08-04 Bell Communications Research, Inc. Automatic tracking camera control system
EP0665686A2 (de) * 1993-12-03 1995-08-02 Texas Instruments Incorporated Visuelles Informationssystem

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0933666A1 (de) * 1998-01-30 1999-08-04 SONY DEUTSCHLAND GmbH Durch Erfassung der Blickrichtung gesteuertes Bildaufnahmegerät
US6307526B1 (en) 1998-02-02 2001-10-23 W. Steve G. Mann Wearable camera system with viewfinder means
WO1999049656A1 (en) * 1998-03-25 1999-09-30 Mann W Stephen G Wearable camera system with viewfinder means
US6614408B1 (en) 1998-03-25 2003-09-02 W. Stephen G. Mann Eye-tap for electronic newsgathering, documentary video, photojournalism, and personal safety
WO2000055671A1 (en) * 1999-03-16 2000-09-21 Keeler Limited Image detection system
US6580563B1 (en) * 1999-03-16 2003-06-17 Keller Limited Image detection system
AT412443B (de) * 2001-10-01 2005-03-25 Ernst Dipl Ing Dr Pfleger Verfahren zur erfassung, auswertung und analyse von blicksequenzen
DE10251933A1 (de) * 2002-11-08 2004-05-19 Ludwig-Maximilians-Universität München (Körperschaft des öffentlichen Rechts) Aufnahmevorrichtung für die kopfgestützte Bilderfassung und Verfahren zur Steuerung der Aufnahmevorrichtung
WO2004041078A2 (de) * 2002-11-08 2004-05-21 Ludwig-Maximilians-Universität Aufnahmevorrichtung für die kopfgestützte bilderfassung und verfahren zur steuerung der aufnahmevorrichtung
DE10251933B4 (de) * 2002-11-08 2006-12-14 Ludwig-Maximilians-Universität München (Körperschaft des öffentlichen Rechts) Aufnahmevorrichtung für die kopfgestützte Bilderfassung und Verfahren zur Steuerung der Aufnahmevorrichtung
WO2004041078A3 (de) * 2002-11-08 2004-07-01 Univ Muenchen L Maximilians Aufnahmevorrichtung für die kopfgestützte bilderfassung und verfahren zur steuerung der aufnahmevorrichtung
EP1424586A3 (de) * 2002-11-29 2005-02-09 Canon Kabushiki Kaisha Bildbeobachtungssystem
EP1424586A2 (de) * 2002-11-29 2004-06-02 Canon Kabushiki Kaisha Bildbeobachtungssystem
US7193585B2 (en) 2002-11-29 2007-03-20 Canon Kabushiki Kaisha Image observation system
US8253653B2 (en) 2002-11-29 2012-08-28 Canon Kabushiki Kaisha Image observation system
DE102009010467A1 (de) * 2009-02-26 2010-09-09 Carl Zeiss Vision Gmbh Verfahren und Vorrichtung zur Bestimmung der Augendrehpunktlage
WO2013150169A1 (es) * 2012-04-04 2013-10-10 Davalor Consultoria Estrategica Y Tecnologica, S.L. Dispositivo para la sujecion de un equipo para la exploración de la visión, a la cabeza de un usuario
ES2429240R1 (es) * 2012-04-04 2013-12-30 Davalor Consultoria Estrategica Y Tecnologica S L Dispositivo para la sujeción de un equipo para la exploración de la visión, a la cabeza de un usuario
DE102013201773A1 (de) 2013-02-04 2014-08-07 Leica Microsystems (Schweiz) Ag Kopfgetragenes optisches Instrument und Verfahren zum Justieren eines kopfgetragenen optischen Instruments
DE102013201773B4 (de) 2013-02-04 2019-12-24 Leica Microsystems (Schweiz) Ag Kopfgetragenes optisches Instrument und Verfahren zum Justieren eines kopfgetragenen optischen Instruments

Also Published As

Publication number Publication date
US6580448B1 (en) 2003-06-17
EP0825826B1 (de) 2002-10-23
JPH11508780A (ja) 1999-08-03
EP0825826A1 (de) 1998-03-04
DE59609821D1 (de) 2002-11-28

Similar Documents

Publication Publication Date Title
EP0825826B1 (de) Verfahren und vorrichtung zum parallelen erfassen von sehinformation
DE60218406T2 (de) Ophthalmische Vorrichtung
DE10100335B4 (de) Vorrichtung zur Anzeige einer Größe im Blickfeld eines Benutzers und Verwendung der Vorrichtung
EP0788613B1 (de) Mikroskop, insbesondere operationsmikroskop
DE60105874T2 (de) Ophthalmisches Gerät
DE3245939A1 (de) Vorrichtung zur erzeugung eines bildes des augenhintergrundes
EP1247133A1 (de) Sehhilfe in form einer lupenbrille mit autofokussiereinrichtung
DE60027657T2 (de) Augenuntersuchungsgerät
EP1555932A1 (de) Ophthalmologisches gerät und verfahren zur gerätepositionierung
DE102014010350A1 (de) Augenchirurgiesystem
EP0363610A1 (de) Vorrichtung zum Prüfen visueller Funktionen eines menschlichen Auges
DE19731301C2 (de) Vorrichtung zum Steuern eines Mikroskopes mittels Blickrichtungsanalyse
DE102004030904A1 (de) Vorrichtung zum Erfassen der räumlichen Lage der optischen Achse eines Auges sowie zum Zentrieren eines Bezugssystems relativ zur optischen Achse
DE19502337C2 (de) Vorrichtung und Verfahren zur Prüfung von Sehfunktionen
DE10254369A1 (de) Ophthalmologisches Gerät mit Eye-Tracker-Einheit
WO2008077854A1 (de) Ophthalmologisches gerät sowie verfahren zur bestimmung einer position eines auges eines patienten
DE19720851A1 (de) Ophthalmologisches Untersuchungsgerät sowie Verfahren zu dessen Betrieb
EP1993431B1 (de) Vorrichtungen und verfahren zur definierten ausrichtung eines auges
EP4284290A1 (de) Chirurgisches assistenzsystem mit operationsmikroskop und kamera und darstellungsverfahren
WO2003015623A2 (de) Verfahren und vorrichtung zur kontaktlosen gewinnung von bildern der kornea
DE102018206405B3 (de) Mikroskopiesystem sowie Verfahren zum Betrieb eines Mikroskopiesystems
DE102014014705A1 (de) Ophthalmologisches System und Verfahren zum Betreiben eines solchen
DE102017115501B4 (de) Technik zum automatischen Ausrichten eines Beleuchtungsfeldes einer ophthalmologischen Untersuchungseinrichtung
CH699479A2 (de) Vorrichtung und Verfahren zur Unterstützung der Positionierung des Auges vor einem ophthalmologischen Gerät.
DE102010021346B4 (de) Ophthalmologisches Untersuchungsgerät

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1996916057

Country of ref document: EP

ENP Entry into the national phase

Ref country code: JP

Ref document number: 1996 534541

Kind code of ref document: A

Format of ref document f/p: F

WWE Wipo information: entry into national phase

Ref document number: 08930100

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1996916057

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1996916057

Country of ref document: EP