DE102022001541B3 - Visuelles Objekt, Verfahren und Computerprogrammprodukt zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden - Google Patents

Visuelles Objekt, Verfahren und Computerprogrammprodukt zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden Download PDF

Info

Publication number
DE102022001541B3
DE102022001541B3 DE102022001541.2A DE102022001541A DE102022001541B3 DE 102022001541 B3 DE102022001541 B3 DE 102022001541B3 DE 102022001541 A DE102022001541 A DE 102022001541A DE 102022001541 B3 DE102022001541 B3 DE 102022001541B3
Authority
DE
Germany
Prior art keywords
image
filtered
images
similarity
optically induced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102022001541.2A
Other languages
English (en)
Inventor
Adam Muschielok
Anne Seidemann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rodenstock GmbH
Original Assignee
Rodenstock GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rodenstock GmbH filed Critical Rodenstock GmbH
Priority to DE102022001541.2A priority Critical patent/DE102022001541B3/de
Priority to PCT/EP2023/060955 priority patent/WO2023213645A1/de
Application granted granted Critical
Publication of DE102022001541B3 publication Critical patent/DE102022001541B3/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/022Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing contrast sensitivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors

Abstract

Die Erfindung betrifft ein visuelles Objekt (100) sowie ein Verfahren und ein Computerprogrammprodukt zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden. Das visuelle Objekt (100) umfasst zumindest zwei unterschiedliche, zu einem Testbild vereinte, gefilterte Bilder, wobei jedes der gefilterten Bilder eines von zumindest zwei vorgegebenen unterschiedlichen Ausgangsbildern repräsentiert und mit einem für eine vorgegebene optisch induzierte Unschärfe spezifischen Filter versehen ist

Description

  • Die Erfindung betrifft ein visuelles Objekt sowie ein Verfahren und ein Computerprogrammprodukt zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden. Insbesondere kann die Erfindung dem Gebiet der Optometrie zugeordnet werden.
  • Zum Ermitteln von Seheigenschaften, d.h. des Sehvermögens und/oder bestimmter Sehfunktionen (wie z.B. Sehschärfe, Kontrast-Wahrnehmung, Binokularsehen, räumlich und zeitliches Auflösungsvermögen, Blick-Motorik, Akkommodation, Adaption, Dämmerungssehen, Tagessehen, etc.) einer Testperson bzw. eines Probanden werden Messverfahren eingesetzt, bei denen visuelle Objekte verwendet werden. So werden zur Bestimmung des Sehvermögens dem Probanden z.B. periodische Muster oder standardisierte Darstellungen präsentiert, die er auf einer Testfläche (wie z.B. einer Tafel, einem Bildschirm oder einer Projektionswand) erkennen und identifizieren soll.
  • Herkömmlich werden vor allem Sehzeichen, auch Optotypen genannt, verwendet. Solche Sehzeichen sind in der Regel grafische Zeichen (z.B. Zahlen, Buchstaben und/oder Figuren), die beispielsweise der Ermittlung der Sehschärfe dienen. Bekannte Sehzeichen sind z.B. der Snellen-Buchstabe, der Snellen-Haken oder der Landolt-Ring. Entscheidend bei einem Sehzeichen ist, dass es von den Probanden eindeutig identifiziert bzw. benannt werden kann.
  • Sollen - z.B. im Rahmen einer optometrischen Untersuchung - Sehzeichen bei einer optisch induzierten Unschärfe (z.B. durch Defokus und/oder Astigmatismus und/oder Aberrationen höherer Ordnung) erkannt werden, so fällt dies bei größer werdender Unschärfe des zumindest einen Auges des Probanden oft schwer, da der Proband das von ihm unscharf gesehene Sehzeichen zu keinem einfach zu benennenden Objekt zuordnen kann.
  • Normalerweise erkennt ein Proband gewöhnliche Optotypen (also z.B. Landolt-Ringe, Zahlen oder Buchstaben) bei Betrachtung mit einer optisch induzierten Unschärfe schlechter als ohne optisch induzierte Unschärfe. Ein Proband mit einer optisch induzierten Unschärfe benötigt somit unter Umständen lange, um einen Optotypen zu klassifizieren.
  • Die Druckschrift JP 2015 - 43 967 A beschreibt ein Verfahren und ein System zum Nachweis eines Nutzens der Korrektur von Fehlsichtigkeiten.
  • In der EP 2 243 419 B1 sind visuelle Objekte bzw. Optotypen beschrieben, deren durchschnittliche Leuchtdichte im Wesentlichen gleich der Leuchtdichte des Hintergrunds ist. Die in der EP 2 243 419 B1 offenbarten Optotypen werden bei Betrachtung mit einer optisch induzierten Unschärfe abhängig von der Feinheit der Linien entweder als Ganzes gesehen oder nicht gesehen, und der Proband muss mitteilen, welche oder wie viele Objekte gesehen wurden. Es reicht hier also nicht aus, ein einzelnes Sehzeichen zu benennen, was zu Fehlern bzw. Ungenauigkeiten in der Ermittlung von Seheigenschaften führen kann.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, ein visuelles Objekt und ein Verfahren zur einfachen, zuverlässigen und schnellen Bestimmung von Seheigenschaften eines Probanden bereitzustellen. Diese Aufgabe wird durch die Gegenstände der nebengeordneten Ansprüche gelöst. Vorteilhafte Ausführungsformen sind Gegenstand der Unteransprüche.
  • Ein erster unabhängiger Aspekt zur Lösung der Aufgabe betrifft ein visuelles Objekt zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden, umfassend zumindest zwei unterschiedliche, zu einem Testbild vereinte (insbesondere überlagerte), gefilterte Bilder, wobei jedes der gefilterten Bilder eines von zumindest zwei vorgegebenen unterschiedlichen Ausgangsbildern repräsentiert und mit einem für eine vorgegebene optisch induzierte Unschärfe spezifischen Filter versehen ist.
  • Insbesondere ist jedes gefilterte Bild einem Ausgangsbild und einem Filter bzw. einer Filterfunktion zugeordnet. Insbesondere repräsentiert jedes der gefilterten Bilder eines von zumindest zwei vorgegebenen unterschiedlichen Ausgangsbildern. Insbesondere ist jedes der gefilterten Bilder mit einem zu seinem repräsentierten Ausgangsbild zugehörigen bzw. zugeordneten und für eine vorgegebene optisch induzierte Unschärfe spezifischen Filter versehen.
  • Das visuelle Objekt ist insbesondere dargestellt mit gängigen Mitteln einschließlich einer Projektion auf die Netzhaut eines Probanden (insbesondere mit zur Refraktionsbestimmung geeigneten Mitteln wie z.B. refraktiven oderdiffraktiven Linsen und einem Schirm). Mit anderen Worten kann die Darstellung des visuellen Objekts durch technisch gängige Verfahren wie z.B. durch entsprechend gestaltete Gegenstände (insbesondere ein Ausdruck des visuellen Objekts, z.B. auf Papier), durch von vorne beleuchtete oder von hinten durchleuchteten Tafeln, durch eine Projektion auf eine Tafel oder eine Wand, durch Anzeigen auf einem Bildschirm bzw. Monitor, sowie durch eine Projektion direkt auf die Netzhaut zumindest eines Auges des Probanden erfolgen.
  • Der Begriff „Seheigenschaften“ eines Probanden umfasst insbesondere das Sehvermögen und/oder diverse Sehfunktionen des Probanden. Beispielsweise können mit Hilfe eines oder mehrerer erfindungsgemäßer visueller Objekte Werte bzw. Grenzwerte für die Sehschärfe, die Kontrastwahrnehmung bzw. Kontrastsensitivität, das Binokular- und Stereosehen, die Adaptionsfähigkeit bzw. Adaptionsgeschwindigkeit, etc., ermittelt bzw. bestimmt werden. Insbesondere dienen das visuelle Objekt und das hierin beschriebene Verfahren zur Erhebung und/oder Optimierung des Sehvermögens des Probanden.
  • Als „Testbild“ wird insbesondere das Gesamtbild, welches die einzelnen gefilterten Bilder vereint und/oder überlagert, verstanden. Die gefilterten Bilder basieren auf zumindest zwei vorgegebenen unterschiedlichen Ausgangsbildern. Insbesondere können mehr als zwei (z.B. drei, vier, fünf, sechs usw.) Ausgangsbilder bzw. eine Vielzahl von Ausgangsbildern vorgegeben sein bzw. werden. Als „Ausgangsbild“ wird im Rahmen dieser Erfindung insbesondere ein ursprüngliches ungefiltertes Bild bezeichnet. Ein Ausgangsbild kann z.B. ein oder mehrere Symbole, Sehzeichen, Grafiken oder andere für einen Probanden leicht und eindeutig erkennbare Objekte. Als „Objekte“ werden in diesem Zusammenhang nicht nur Symbole oder Gegenstände, sondern z.B. auch Pflanzen, Tiere, Personen oder Figuren verstanden. Beispielsweise kann ein Ausgangsbild ein Foto oder ein Bild eines dem Probanden geläufigen Gegenstands, einer dem Probanden bekannten Person oder einer dem Probanden bekannten Comicfigur umfassen oder beinhalten. Dabei unterscheiden sich die vorgegebenen Ausgangsbilder jeweils voneinander, d.h. jedes der vorgegebenen Ausgangsbilder umfasst bzw. zeigt ein anderes, eindeutig zu erkennendes bzw. identifizierbares Objekt.
  • Jedes gefilterte Bild repräsentiert ein Ausgangsbild, d.h. jedem gefilterten Bild ist ein Ausgangsbild (aus den vorgegebenen Ausgangsbildern) zugeordnet. Jedem gefilterten Bild ist eines der vorgegebenen Ausgangsbilder zugehörig. Mit anderen Worten ist das von einem gefilterten Bild repräsentierte Ausgangsbild somit ein dem gefilterten Bild zugehöriges Ausgangsbild.
  • Jedes der gefilterten Bilder ist mit einem Filter bzw. einer Filterfunktion versehen. Dies bedeutet, dass das vom gefilterten Bild repräsentierte bzw. zu dem gefilterten Bild zugehörige Ausgangsbild mit einem jeweiligen Filter bzw. einer jeweiligen Filterfunktion gefiltert ist, um dadurch das gefilterte Bild zu erzeugen. Mit anderen Worten ist der entsprechende Filter bzw. die Filterfunktion auf das Ausgangsbild angewendet.
  • Ein Filter bzw. eine Filterfunktion ist jeweils für eine vorgegebene (insbesondere vorbestimmte und/oder vordefinierte) optisch induzierte Unschärfe spezifisch. Unter „optisch induzierter Unschärfe“ ist im Rahmen dieser Erfindung insbesondere die Unschärfe der Abbildung eines Objekts (z.B. des visuellen Objekts bzw. des Testbildes) auf die Netzhaut des zumindest einen Auges des Probanden zu verstehen. Dabei wird bei der Abbildung eines Objekts auf die Netzhaut des zumindest einen Auges des Probanden der gesamte Abbildungsvorgang, d.h. die Abbildung durch das zumindest eine Auge des Probanden und, sofern zutreffend, zusätzlich die Abbildung durch ein etwaiges weiteres optisches System (z.B. eine Refraktionsbrille, eine Kontaktlinse, ein Phoropter, und/oder weitere Linsen), welches, je nach Anwendung, gegebenenfalls vor dem zumindest einen Auge des Probanden (also zwischen dem zumindest einen Auge des Probanden und dem Objekt) angeordnet ist, berücksichtigt. Ist kein weiteres optisches System vor dem zumindest einen Auge des Probanden angeordnet, so wird lediglich die Abbildung durch das zumindest eine Auge des Probanden berücksichtigt. In den gesamten Abbildungsvorgang, welcher die „optisch induzierte Unschärfe“ bzw. die Unschärfe der Abbildung des Objekts auf die Netzhaut des zumindest einen Auges des Probanden erzeugt, geht somit eine gegebenenfalls vorliegende (d.h. etwaige) Fehlsichtigkeit des zumindest einen Auges des Probanden sowie ein gegebenenfalls vorhandenes (d.h. etwaiges) zusätzliches optisches System (z.B. Refraktionsbrille, Kontaktlinse, Phoropter, und/oder weitere Linsen), welches vor dem zumindest einen Auge des Probanden angeordnet ist, ein. Ferner kann in den Abbildungsvorgang auch noch die Pupillengröße des zumindest einen Auges des Probanden eingehen. Insbesondere basiert die „optisch induzierte Unschärfe“ des Probanden auf einer gegebenenfalls vorliegenden Fehlsichtigkeit des zumindest einen Auges des Probanden, der Pupillengröße des zumindest einen Auges des Probanden und gegebenenfalls auf einem sich vor dem zumindest einen Auge des Probanden angeordneten (etwaigen) zusätzlichen optischen System. Die „optisch induzierte Unschärfe“ kann eine intrinsische Unschärfe des zumindest einen Auges des Probanden (im Rahmen der Erfindung kurz als „intrinsisch induzierte Unschärfe“ bezeichnet) und/oder eine extrinsische optisch induzierte Unschärfe (im Rahmen der Erfindung kurz als „extrinsisch induzierte Unschärfe“ bezeichnet), welche z.B. durch ein vor dem zumindest einen Auges des Probanden angeordneten zusätzliches optisches System (z.B. Refraktionsbrille, Kontaktlinse, Phoropter, und/oder weitere Linsen) hervorgerufen bzw. induziert wird, umfassen bzw. sein. Liegt keine intrinsische Unschärfe des zumindest einen Auges des Probanden vor, so kann die „optisch induzierte Unschärfe“ z.B. lediglich eine extrinsisch induzierte Unschärfe eines ansonsten emmetropen Auges umfassen bzw. sein. Ist kein weiteres optisches System vor dem zumindest einen Auge des Probanden angeordnet, so kann die „optisch induzierte Unschärfe“ z.B. lediglich die intrinsische Unschärfe des zumindest einen Auges des Probanden umfassen bzw. sein. Die „optisch induzierte Unschärfe“ kann jedoch auch eine Kombination (z.B. eine Summe) aus einer intrinsisch induzierten Unschärfe und einer extrinsisch induzierten Unschärfe sein. Es wird angemerkt, dass die „optisch induzierte Unschärfe“ im Allgemeinen nicht kausal von der „intrinsisch induzierten Unschärfe“ oder einer „extrinsisch induzierten Unschärfe“ abhängt.
  • Werden die Testbilder (bzw. das visuelle Objekt) zur Bestimmung der Fehlsichtigkeit des zumindest einen Auges des Probanden verwendet, so kann vorgesehen sein, dass der Proband die Testbilder ohne zusätzliches optisches System betrachtet (d.h. ohne Brille, Kontaktlinse, Phoropter, etc.). In diesem Fall entspricht die „optisch induzierte Unschärfe“ der intrinsischen Unschärfe des zumindest einen Auges des Probanden, also der „intrinsisch induzierten Unschärfe“. In einer anderen Anwendung, in der z.B. die „Sensitivität gegenüber optisch induzierter Unschärfe“ ausgehend von der Vollkorrektion gemessen werden soll, kann es dagegen vorgesehen sein, dass der Proband ein Testbild durch ein zusätzliches optisches System (z.B. Brille, Kontaktlinse, Phoropter, etc.) betrachtet. In diesem Fall ist die „optisch induzierte Unschärfe“ eine Kombination aus einer etwaigen intrinsisch induzierten Unschärfe und einer extrinsisch induzierten Unschärfe. Das zusätzliche optische System kann dabei derart ausgelegt sein, dass die Fehlsichtigkeit des zumindest einen Auges des Probanden nur teilweise korrigiert wird. Bei einer nur teilweisen Korrektion kann eine sogenannte Nebelung bewirkt werden.
  • Jeder Filter (bzw. jede Filterfunktion) ist einer bestimmten optisch induzierten Unschärfe zugeordnet. Insbesondere ist jeder Filter (bzw. jede Filterfunktion) in Abhängigkeit einer optisch induzierten Unschärfe definiert. Jedes Ausgangsbild kann somit einen oder mehrere zugehörige Filter bzw. zugehörige Filterfunktionen aufweisen. Entsprechend kann jedes Ausgangsbild ein oder mehrere zugehörige gefilterte Bilder aufweisen.
  • Insbesondere ist ein Filter bzw. eine Filterfunktion insofern jeweils für eine vorgegebene optisch induzierte Unschärfe spezifisch, als dass ein Betrachter (Proband), dessen zumindest eine Auge in Kombination mit der Wirkung eines optischen Systems (z.B. Refraktionsbrille) eine gegebene optisch induzierte Unschärfe aufweist, ein mit der zu dieser optisch induzierten Unschärfe zugeordneten Filterfunktion gefiltertes Ausgangsbild gerade noch korrekt zuordnen kann. Der Ausdruck „gerade noch korrekt zuordnen“ kann hierbei z.B. als Schwelle einer psychometrischen Funktion verstanden bzw. definiert werden, wobei sich die Erkennbarkeit des zum gefilterten Bild zugeordneten Ausgangsbilds bzw. die Wahrscheinlichkeit für die korrekte Zuordnung des gefilterten Bildes zum Ausgangsbild bei Änderung der Wirkung des sich vor dem zumindest einen Auge des Probanden angeordneten optischen Systems vorzugsweise stark verändert. Dies kann z.B. experimentell bestimmt werden, indem die Wahrscheinlichkeit der korrekten Zuordnung des gefilterten Bildes zum Ausgangsbild in Abhängigkeit von der optisch induzierten Unschärfe für einen Probanden oder für eine Vielzahl von Probanden mittels psychometrischer Methoden bestimmt wird.
  • Die Anwendung eines Filters, der einer optisch induzierten Unschärfe zugeordnet bzw. der für eine optisch induzierte Unschärfe spezifisch ist, auf ein Ausgangsbild kann eine Erkennbarkeit des Ausgangsbilds im daraus durch die Anwendung des Filters entstandenen gefilterten Bilds gewährleisten, wenn letzteres durch die optisch induzierte Unschärfe betrachtet wird. Ein Filter bzw. eine Filterfunktion kann z.B. einer einfachen Faltung mit einem Gauss-Kern entsprechen (Beispiel für einen TiefpassFilter) oder der Anwendung anderer Filter wie Hochpass- oder Bandpassfilter.
  • Um eine Filterfunktion bzw. einem damit gefilterten Ausgangsbild einer optisch induzierten Unschärfe zuzuordnen, kann die Filterfunktion jedoch auch aus der vorgegebenen optisch induzierten Unschärfe und der Augenbiometrie berechnet werden. Zum Beispiel kann die Ortsfrequenz-Kante eines Tiefpassfilters so gewählt werden, dass sie zum Beispiel proportional zur Ortsfrequenz-Kante der Momentübertragungsfunktion bei vorliegender optisch induzierter Unschärfe ist (bei einem Proportionalitätsfaktor von 1 wären z.B. beide Kanten identisch). Letztere kann näherungsweise auch als Reziprokes des Betrachtungswinkels des Zerstreuungsscheibchens bei gegebener optisch induzierter Unschärfe berechnet werden. Die Betrachtungswinkel können beispielsweise wie in der WO 2019 034525 A1 beschrieben berechnet werden.
  • Beispielsweise kann jedes gefilterte Bild, das dem Testbild angehört, ein anderes Ausgangsbild repräsentieren. Es ist aber auch möglich, dass das Testbild mehrere gefilterte Bilder zu dem gleichen Ausgangsbild umfasst, wobei dann jedes dieser gefilterten Bilder einer anderen optisch induzierten Unschärfe zugeordnet ist.
  • Die Betrachtung eines Objekts mit einer „optisch induzierten Unschärfe“ bedeutet im Rahmen der vorliegenden Erfindung insbesondere, dass ein Proband mit einer optisch induzierten Unschärfe das betrachtete Objekt lediglich unscharf bzw. nur zu einem gewissen Grad erkennen bzw. wahrnehmen kann. Die „optisch induzierte Unschärfe“ kann mathematisch z.B. mit Hilfe des in der Brillenoptik gängigen Power-Vektors P beschrieben werden. Der Power-Vektor umfasst die drei Komponenten M, J0 und J45, wobei M das sphärische Äquivalent und J0, J45 die astigmatischen Komponenten bezeichnen. Ein Power-Vektor von P = (0,0,0) bedeutet somit, dass ein Objekt ohne optische Unschärfe betrachtet wird, während z.B. ein Power-Vektor von P = (M,0,0) mit M ≠ 0 bedeutet, dass das Objekt mit einer bestimmten optischen Unschärfe, die in diesem Fall durch M quantifiziert ist, betrachtet wird. Wie bereits erwähnt kann die „optisch induzierte Unschärfe“ z.B. mit Hilfe eins Power-Vektors angegeben bzw. quantifiziert werden. Somit kann einem im Rahmen der vorliegenden Erfindung verwendeten Filter bzw. einer Filterfunktion, der bzw. die jeweils für eine vorgegebene optisch induzierte Unschärfe spezifisch ist, zusätzlich oder alternativ ein entsprechender Power-Vektor zugeordnet werden. Die optisch induzierte Unschärfe kann neben der Abweichung der sich vor dem Auge angeordneten Korrektion (z.B. ausgedrückt als Powervektor) auch von der Pupillengröße abhängen. Zur Quantifizierung der optisch induzierten Unschärfe können daher sowohl ein Powervektor als auch eine Pupillengröße verwendet werden. Entsprechende Filter können als Faltung von einer Punktspreizfunktion (engl. „point spread function“), insbesondere eines unkorrigierten oder nicht vollständig korrigierten Auges, mit dem ursprünglichen Bild zur Simulation eines Bilds mit optisch induzierter Unschärfe herangezogen werden, wie es beispielsweise in D. Kordek, L.K. Young und J. Kremláček: „Comparison between optical and digital blur using near visual acuity", Scientific Reports 11, 3437 (2021), DOI 10.1038/s41598-021-82965-z, näher beschrieben ist. Die Quantifizierung einer optisch induzierte Unschärfe nur über einen Powervektor ohne explizite Angabe einer Pupillengröße kann z.B. über die Annahme einer durchschnittlichen Pupillengröße (z.B. 1.5 mm Radius) vorgenommen werden, und/oder anhand einer aus anderen Parametern berechneten oder vorhergesagten Pupille (siehe WO 2013 087212 A1 ), und/oder - besonders bevorzugt - anhand einer individuell gemessenen Pupille.
  • Im Rahmen der vorliegenden Erfindung wurde erkannt, dass es hilfreich ist, Testbilder zu verwenden, die so geartet sind, dass sie bei unterschiedlicher optisch induzierter Unschärfe jeweils unterschiedliche vom Probanden einfach erkennbare Objekte darstellen, die einfach und sicher benannt werden können. Mit Hilfe der vorliegenden Erfindung ist es möglich, dass zum Beispiel die untersuchte Person bzw. der Proband ein Objekt A ohne optisch induzierte Unschärfe (Powervektor P = (0, 0, 0)) erkennen kann, jedoch ein Objekt B bei Vorliegen einer optisch induzierten Unschärfe ungleich Null (z.B. Powervektor P = (M, 0, 0)). Mit den erfindungsgemäßen visuellen Objekten bzw. Testbildern ist es insbesondere möglich, dass der Proband abhängig von der optisch induzierten Unschärfe ein bestimmtes Ausgangsbild (aus den mehreren vorgegebenen Ausgangsbildern) erkennt, nämlich dasjenige Ausgangsbild, welches mit dem für die entsprechende optisch induzierte Unschärfe spezifischen Filter gefiltert wurde. Dadurch fällt vorteilhafterweise die Entscheidung der getesteten Person für ein bestimmtes Objekt bzw. Ausgangsbild schneller und ist eindeutiger. Mit Hilfe der vorliegenden Erfindung kann somit das Ermitteln von Seheigenschaften des Probanden einfacher, zuverlässiger und auch schneller durchgeführt werden.
  • In einer bevorzugten Ausführungsform ist jedes der gefilterten Bilder mit einem zu seinem repräsentierten Ausgangsbild zugehörigen und für eine vorgegebene optisch induzierte Unschärfe spezifischen Filter derart versehen, dass auf dem Testbild
    • - bei Betrachtung mit einer ersten vorgegebenen optisch induzierten Unschärfe ein erstes der zumindest zwei Ausgangsbilder besser erkennbar ist als jedes der restlichen Ausgangsbilder, welches sich vom ersten Ausgangsbild unterscheidet (bzw. welches nicht dem zweiten Ausgangsbild entspricht), und
    • - bei Betrachtung mit einer zweiten vorgegebenen optisch induzierten Unschärfe ein zweites der zumindest zwei Ausgangsbilder besser erkennbar ist als jedes der restlichen Ausgangsbilder, welches sich vom zweiten Ausgangsbild unterscheidet (bzw. welches nicht dem zweiten Ausgangsbild entspricht).
  • „Bei Betrachtung (des visuellen Objekts bzw. des Testbildes) mit einer vorgegebenen optisch induzierten Unschärfe“ soll insbesondere bedeuten, dass die Betrachtung mit ansonsten gleichen Sehbedingungen (z.B. gleiche Helligkeit, gleiche Entfernung) und ansonsten gleichen Seheigenschaften (z.B. mit ansonsten idealen Seheigenschaften oder mit ansonsten Durchschnitts- bzw. Standard-Seheigenschaften) erfolgt. Der Begriff „ansonsten“ bezieht sich hierbei auf sämtliche Seheigenschaften mit Ausnahme der optisch induzierten Unschärfe. Mit anderen Worten unterscheidet sich die Betrachtung mit einer ersten vorgegebenen optisch induzierten Unschärfe von der Betrachtung mit einer zweiten vorgegebenen optisch induzierten Unschärfe ausschließlich in der unterschiedlichen optisch induzierten Unschärfe selbst, nicht aber in anderen Parametern (insbesondere Parametern des zumindest einen Auges).
  • Insbesondere ist bei Betrachtung mit der ersten vorgegebenen optisch induzierten Unschärfe im Wesentlichen nur das erste der zumindest zwei Ausgangsbilder erkennbar, während die restlichen (vom ersten Ausgangsbild unterschiedlichen) Ausgangsbilder (z.B. das zweite Ausgangsbild) vorzugsweise lediglich als unscharfer und/oder undeutlicher Hintergrund wahrgenommen werden können. Ein undeutlicher Hintergrund kann z.B. ein Bild sein, welches mit einem geringen bzw. zu geringen Kontrast wahrgenommen wird. Entsprechend ist insbesondere bei Betrachtung mit der zweiten vorgegebenen optisch induzierten Unschärfe im Wesentlichen nur das zweite der zumindest zwei Ausgangsbilder erkennbar, während die restlichen (vom zweiten Ausgangsbild unterschiedlichen) Ausgangsbilder (also z.B. das erste Ausgangsbild) vorzugsweise lediglich als unscharfer Hintergrund wahrgenommen werden können.
  • Insbesondere ist ein gefiltertes Bild im Wesentlichen nur bei Betrachtung mit einer zu dem Ausgangsbild des gefilterten Bildes zugehörigen vorgegebenen optisch induzierten Unschärfe als das jeweils zugehörige Ausgangsbild erkennbar. Insbesondere wird dieses gefilterte Bild bei Betrachtung mit einer optisch induzierten Unschärfe, die von der zu dem Ausgangsbild des gefilterten Bildes zugehörigen vorgegebenen optisch induzierten Unschärfe, insbesondere um einen bestimmten Wert, abweicht, im Wesentlichen lediglich als unscharfer Hintergrund wahrgenommen.
  • In einer weiteren bevorzugten Ausführungsform ist jedes der gefilterten Bilder mit einem zu seinem Ausgangsbild zugehörigen und für eine vorgegebene optisch induzierte Unschärfe spezifischen Filter derart versehen, dass das gefilterte Bild bei Betrachtung mit der vorgegebenen spezifischen optisch induzierten Unschärfe mit seinem zugehörigen Ausgangsbild eine vorgegebene Ähnlichkeit und/oder eine vorgegebene Erkennbarkeit, insbesondere eine vorgegebene minimale Ähnlichkeit und/oder eine vorgegebene minimale Erkennbarkeit, aufweist. Vorzugsweise weist das gefilterte Bild bei Betrachtung mit der vorgegebenen spezifischen optisch induzierten Unschärfe mit seinem zugehörigen Ausgangsbild eine Ähnlichkeit von (mindestens) 50%, weiter bevorzugt von (mindestens) 60%, noch mehr bevorzugt von (mindestens) 70%, noch mehr bevorzugt von (mindestens) 80%, noch mehr bevorzugt von (mindestens) 90%, noch mehr bevorzugt von (mindestens) 95% und am meisten bevorzugt von (mindestens) 99% auf. Die oben angegebenen Werte können insbesondere Erkennungswahrscheinlichkeiten in einem psychometrischen Test sein. Werden dagegen andere Ähnlichkeitsmaße verwendet, können auch andere Werte vorteilhaft sein, die sich z.B. nicht unbedingt zwischen 0% und 100% bewegen müssen.
  • Insbesondere ist der zu einem bestimmten Ausgangsbild zugehörige und für eine bestimmte optisch induzierte Unschärfe spezifizierte Filter (bzw. die entsprechende Filterfunktion) dadurch charakterisiert, dass das mit diesem Filter (bzw. mit dieser Filterfunktion) gefilterte zugehörige Ausgangsbild bei Betrachtung mit der zugehörigen bzw. spezifischen optisch induzierten Unschärfe eine vorgegebene, insbesondere minimale, Ähnlichkeit mit dem zugehörigen Ausgangsbild aufweist.
  • Erfindungsgemäß umfassen die zumindest zwei gefilterten Bilder ein erstes gefiltertes Bild F1(B1) und ein zweites gefiltertes Bild F2(B2). Das erste gefilterte Bild F1(B1) stellt ein mit einem ersten Filter bzw. einer ersten Filterfunktion F1 gefiltertes erstes Ausgangsbild B1 dar. Das zweite gefilterte Bild F2(B2) stellt ein mit einem zweiten Filter bzw. einer zweiten Filterfunktion F2 gefiltertes zweites Ausgangsbild B2, welches sich vom ersten Ausgangsbild B1 unterscheidet, dar. Dabei ist eine Ähnlichkeit S111 des ersten gefilterten Bildes F1(B1) mit seinem Ausgangsbild B1 bei Betrachtung mit einer ersten optisch induzierten Unschärfe P1 größer als eine Ähnlichkeit S212 des bei der ersten optisch induzierten Unschärfe P1 betrachteten zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2. Es gilt somit: S111 > S212. Dabei bezeichnet allgemein Sabc die Ähnlichkeit des mit der a-ten Filterfunktion Fa gefilterten a-ten Ausgangsbilds Ba, also von Fa(Ba), mit dem c-ten Ausgangsbild Bc, bei Betrachtung mit der b-ten optisch induzierten Unschärfe Pb. Wird die optisch induzierte Unschärfe als Funktion aufgefasst, so kann geschrieben werden S a b c = S ( P b ( F a ( B a ) ) , B c ) ,
    Figure DE102022001541B3_0001
    wobei S(.,.) eine beliebige Ähnlichkeitsfunktion zweier Bilder bezeichnet, und Pb(.) die Auswirkung der optisch induzierte Unschärfe Pb auf ein Bild darstellt.
  • Insbesondere gilt für i ∈ ℤ+; k ∈ ℤ+; i ≤ N; i ≤ M; k ≤ N; und i ≠ k: S iii > S kik ,
    Figure DE102022001541B3_0002
    wobei Siii eine Ähnlichkeit eines i-ten gefilterten Bildes Fi(Bi) mit seinem Ausgangsbild Bi bei Betrachtung mit einer i-ten optisch induzierten Unschärfe Pi ist, und wobei Skik eine Ähnlichkeit eines k-ten gefilterten Bildes Fk(Bk) mit seinem Ausgangsbild Bk bei Betrachtung mit der i-ten optisch induzierten Unschärfe Pi ist. Dabei bezeichnet Fi(Bi) das mit einer i-ten Filterfunktion Fi gefilterte i-te Ausgangsbild Bi. Entsprechend bezeichnet Fk(Bk) das mit einer k-ten Filterfunktion Fk gefilterte k-te Ausgangsbild Bk. Ferner bezeichnet N die Anzahl der verwendeten Ausgangsbilder und M die Anzahl vorgegebener unterschiedlicher optisch induzierter Unschärfen. Dabei muss N nicht unbedingt M übereinstimmen.
  • Die Ähnlichkeit zweiter Bilder kann z.B. anhand von Bildmetriken zur Bestimmung von Unterschieden der zwei Bilder bestimmt bzw. definiert werden. Hierzu können bekannte Methoden bzw. Metriken wie z.B. die „cross-entropy“, die „Kullback-Leibler-Divergenz“, die „Earth-mover's metric“, etc., verwendet werden. Weitere Beispiele für Bildmetriken, die auch im Rahmen der vorliegenden Erfindung zur Definition der Ähnlichkeit zweiter Bilder verwendet werden können, sind z.B. in US6493023B1 angegeben bzw. beschrieben. Die Ähnlichkeit kann z.B. als das Negative oder Reziproke der einen Unterschied darstellenden Bildmetrik definiert werden.
  • Alternativ oder zusätzlich kann die Ähnlichkeit anhand eines physiologisch motivierten Modells bestimmt bzw. definiert werden. Dies kann beispielsweise mit Hilfe eines sogenannten „Spatial Standard Observers“ erfolgen, welcher in den Patentschriften WO2006/079115A2 und US7783130B2 beschrieben ist. Insbesondere wird in diesen Druckschriften die Bestimmung einer Bildmetrik („visibility metric“) beschrieben, wie sie zur Definition der Ähnlichkeit von zwei Bildern im Rahmen der vorliegenden Erfindung verwendet werden kann. Weitere Informationen zu physiologisch motivierten Modellen und/oder Bildmetriken, die im Rahmen der vorliegenden Erfindung verwendet werden können, finden sich z.B. in den folgenden Publikationen:
    • - A. B. Watson et al: „A standard model for foveal detection of spatial contrast", Journal of Vision (2005) 5, Seiten 717-740, DOI: 10.1167/5.9.6;
    • - A. B. Watson et al: „Predicting visual acuity from wavefront aberrations", Journal of Vision (2008) 8 (4): 17, Seiten 1-19, DOI: 10.1167/8.4.17;
    • - A. B. Watson et al: „Blur clarified: A review and synthesis of blur discrimination", Journal of Vision (2011) 11(5):10, Seiten 1-23, DOI: 10.1167/11.5.10;
    • - A. B. Watson et al: „Modeling acuity for optotypes varying in complexity", Journal of Vision (2012) 12(10):19, Seiten 1-19, DOI: 10.11167/12.10.19.
  • Auf den Offenbarungsgehalt sämtlicher der oben genannten Patentschriften und Publikationen wird hiermit ausdrücklich Bezug genommen. Da die Bestimmung bzw. Definition von Bildmetriken als solche dem Fachmann geläufig sind, wird im Rahmen der vorliegenden Erfindung nicht weiter darauf eingegangen. Ein konkretes Ausführungsbeispiel für die Definition oder Bestimmung einer Ähnlichkeit bzw. einer Ähnlichkeitsfunktion ist weiter unten im Zusammenhang mit beispielhaften Ausführungsformen der vorliegenden Erfindung beschrieben.
  • Alternativ oder zusätzlich kann die Ähnlichkeit zweier Bilder auch anhand von einer Erkennbarkeit bestimmt bzw. definiert werden, wobei die Erkennbarkeit durch ein Modell festgelegt wird, das auf Daten aus einem Versuch mit Probanden basiert.
  • Alternativ oder zusätzlich kann die Ähnlichkeit zweier Bilder quantifiziert werden, indem die Klassifizierungswahrscheinlichkeit eines Klassifikators (z.B. neuronales Netzwerk oder anderweitiges „machine-learning“-Modell) berechnet wird, wobei der Klassifikator zuvor mit einem Bilddatensatz trainiert wurde, der zumindest die Ausgangsbilder enthalten hat. Ein konkretes Ausführungsbeispiel für einen Klassifikator ist weiter unten im Zusammenhang mit beispielhaften Ausführungsformen der vorliegenden Erfindung beschrieben. Das Training darf jedoch nicht mit unscharfen Bildern erfolgen.
  • In einer weiteren bevorzugten Ausführungsform gilt (insbesondere werden die Filter bzw. Filterfunktionen derart gewählt, dass gilt): S 111 > S 121 ;
    Figure DE102022001541B3_0003
    und/oder S 222 > S 121 ;
    Figure DE102022001541B3_0004
    und/oder S 222 > S 212 ;
    Figure DE102022001541B3_0005
    • wobei S111 die Ähnlichkeit des bei der ersten Unschärfe P1 betrachteten ersten gefilterten Bildes F1(B1) mit dessen Ausgangsbild B1 ist,
    • wobei S222 die Ähnlichkeit des bei einer zweiten Unschärfe P2 betrachteten zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2 ist,
    • wobei S121 die Ähnlichkeit des bei der zweiten Unschärfe P2 betrachteten ersten gefilterten Bildes F1(B1) mit dessen Ausgangsbild B1 ist, und
    • wobei S212 die Ähnlichkeit des bei der ersten Unschärfe P1 betrachteten zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2 ist.
  • Die Beziehung S111 > S121 bedeutet in Worten, dass die Ähnlichkeit S111 des bei der ersten Unschärfe P1 betrachteten ersten gefilterten Bildes F1(B1) mit dessen Ausgangsbild B1 größer ist als die Ähnlichkeit S121 des ersten gefilterten Bildes F1(B1) mit dessen Ausgangsbild B1 bei Betrachtung mit einer zweiten Unschärfe P2.
  • Insbesondere gilt für i ∈ ℤ+; k ∈ ℤ+; i ≤ N; i ≤ M; k ≤ N; k ≤ M; und i ≠ k: S iii > S iki ,
    Figure DE102022001541B3_0006
    wobei Siii eine Ähnlichkeit eines i-ten gefilterten Bildes Fi(Bi) mit seinem Ausgangsbild Bi bei Betrachtung mit einer i-ten Unschärfe Pi ist, und wobei Siki die Ähnlichkeit eines i-ten gefilterten Bildes Fi(Bi) mit seinem Ausgangsbild Bi bei Betrachtung mit einer k-ten Unschärfe Pk ist. Dabei bezeichnet Fi(Bi) das mit einer i-ten Filterfunktion Fi gefilterte i-te Ausgangsbild Bi. Ferner bezeichnet N die Anzahl der vorgegebenen Ausgangsbilder und M die Anzahl vorgegebener unterschiedlicher optisch induzierter Unschärfen. Dabei muss N nicht unbedingt M übereinstimmen.
  • Die Beziehung S222 > S121 bedeutet in Worten, dass eine Ähnlichkeit S222 des bei einer zweiten Unschärfe P2 betrachteten zweiten gefilterten Bildes F2(B2) mit seinem Ausgangsbild B2 größer ist als eine Ähnlichkeit S121 des bei der zweiten Unschärfe P2 betrachteten ersten gefilterten Bildes F1(B1) mit dessen Ausgangsbild B1.
  • Insbesondere gilt für i ∈ ℤ+; k ∈ ℤ+; i ≤ N; k ≤ N; k ≤ M und i ≠ k: S kkk > S iki ,
    Figure DE102022001541B3_0007
    wobei Skkk die Ähnlichkeit des bei einer k-ten Unschärfe Pk betrachteten k-ten gefilterten Bildes Fk(Bk) mit dem zugehörigen k-ten Ausgangsbildbild Bk ist, und wobei Siki die Ähnlichkeit des bei der k-ten Unschärfe Pk betrachteten i-ten gefilterten Bildes Fi(Bi) mit dem zugehörigen i-ten Ausgangsbild Bi ist. Dabei bezeichnet N die Anzahl der vorgegebenen Ausgangsbilder und M die Anzahl vorgegebener unterschiedlicher optisch induzierter Unschärfen. Dabei muss N nicht unbedingt M übereinstimmen.
  • Die Beziehung S222 > S212 bedeutet in Worten, dass eine Ähnlichkeit S222 des bei einer zweiten Unschärfe P2 betrachteten zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2 größer ist als eine Ähnlichkeit S212 des zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2 bei Betrachtung mit der ersten Unschärfe P1.
  • Insbesondere gilt für i ∈ ℤ+; k ∈ ℤ+; i ≤ M; k ≤ N; k ≤ M; und i ≠ k: S kkk > S kik .
    Figure DE102022001541B3_0008
    wobei Skkk die Ähnlichkeit des bei einer k-ten Unschärfe Pk betrachteten k-ten gefilterten Bildes Fk(Bk) mit dem zugehörigen k-ten Ausgangsbildbild Bk ist, und wobei Skik die Ähnlichkeit des bei der i-ten Unschärfe Pi betrachteten k-ten gefilterten Bildes Fk(Bk) mit dem k-ten Ausgangsbild Bk ist. Dabei bezeichnet N die Anzahl der vorgegebenen Ausgangsbilder und M die Anzahl vorgegebener unterschiedlicher optisch induzierter Unschärfen. Dabei muss N nicht unbedingt M übereinstimmen.
  • In einer weiteren bevorzugten Ausführungsform gilt (insbesondere werden die Filter bzw. Filterfunktionen derart gewählt, dass gilt): S 112 < S 111  und S 112 < S 222 ;
    Figure DE102022001541B3_0009
    und/oder S 122 < S 111  und S 122 < S 222 ;
    Figure DE102022001541B3_0010
    • wobei S111 die Ähnlichkeit des bei der ersten Unschärfe P1 betrachteten ersten gefilterten Bildes F1(B1) mit dessen Ausgangsbild B1 ist,
    • wobei S222 die Ähnlichkeit des bei einer zweiten Unschärfe P2 betrachteten zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2 ist,
    • wobei S112 die Ähnlichkeit des bei der ersten Unschärfe P1 betrachteten ersten gefilterten Bildes F1(B1) mit dem Ausgangsbild B2 ist, und
    • wobei S122 die Ähnlichkeit des bei der zweiten Unschärfe P2 betrachteten ersten gefilterten Bildes F1(B1) mit dem Ausgangsbild B2 ist.
  • Die Beziehungen S112 < S111 und S112 < S222 bedeuten in Worten, dass eine Ähnlichkeit S112 des ersten gefilterten Bildes F1(B1) mit dem zweiten Ausgangsbild B2 bei Betrachtung mit der ersten Unschärfe P1 sowohl kleiner ist als die Ähnlichkeit S111 des bei der ersten Unschärfe P1 betrachteten ersten gefilterten Bildes F1(B1) mit dessen Ausgangsbild B1, als auch kleiner ist als eine Ähnlichkeit S222 des bei der zweiten Unschärfe P2 betrachteten zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2.
  • Insbesondere gilt für i ∈ ℤ+; k ∈ ℤ+; i ≤ N; i ≤ M; k ≤ N; k ≤ M; und i ≠ k: S iik < S iii  und S iik < S kkk ,
    Figure DE102022001541B3_0011
    • wobei Siii die Ähnlichkeit des bei einer i-ten Unschärfe Pi betrachteten i-ten gefilterten Bildes Fi(Bi) mit dem zugehörigen i-ten Ausgangsbildbild Bi ist, wobei Skkk die Ähnlichkeit des bei einer k-ten Unschärfe Pk betrachteten k-ten gefilterten Bildes Fk(Bk) mit dem zugehörigen k-ten Ausgangsbildbild Bk ist, und wobei Siik die Ähnlichkeit des bei einer i-ten Unschärfe Pi betrachteten i-ten gefilterten Bildes Fi(Bi) mit dem k-ten Ausgangsbildbild Bk ist. Dabei bezeichnet N die Anzahl der vorgegebenen Ausgangsbilder und M die Anzahl vorgegebener unterschiedlicher optisch induzierter Unschärfen. Dabei muss N nicht unbedingt M übereinstimmen.
  • Die Beziehungen S122 < S111 und S122 < S222 bedeuten in Worten, dass die Ähnlichkeit S122 des ersten gefilterten Bildes F1(B1) mit dem zweiten Ausgangsbild B2 bei Betrachtung mit einer zweiten Unschärfe P2 sowohl kleiner ist als die Ähnlichkeit S111 des bei der ersten Unschärfe P1 betrachteten ersten gefilterten Bildes F1(B1) mit dessen Ausgangsbild B1, als auch kleiner ist als die Ähnlichkeit S222 des bei der zweiten Unschärfe P2 betrachteten zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2.
  • Insbesondere gilt für i ∈ ℤ+; k ∈ ℤ+; i ≤ N; i ≤ M; k ≤ N; k ≤ M; und i ≠ k: S ikk < S iii  und S ikk < S kkk ,
    Figure DE102022001541B3_0012
    wobei Siii die Ähnlichkeit des bei einer i-ten Unschärfe Pi betrachteten i-ten gefilterten Bildes Fi(Bi) mit dem zugehörigen i-ten Ausgangsbildbild Bi ist, wobei Skkk die Ähnlichkeit des bei einer k-ten Unschärfe Pk betrachteten k-ten gefilterten Bildes Fk(Bk) mit dem zugehörigen k-ten Ausgangsbildbild Bk ist, und wobei Sikk die Ähnlichkeit des bei einer k-ten Unschärfe Pk betrachteten i-ten gefilterten Bildes Fi(Bi) mit dem k-ten Ausgangsbildbild Bk ist. Dabei bezeichnet N die Anzahl der vorgegebenen Ausgangsbilder und M die Anzahl vorgegebener unterschiedlicher optisch induzierter Unschärfen. Dabei muss N nicht unbedingt M übereinstimmen.
  • In einer weiteren bevorzugten Ausführungsform sind die zumindest zwei gefilterten Bilder nebeneinander und/oder überlappend, insbesondere zumindest teilweise übereinander liegend, angeordnet. Insbesondere können die gefilterten Bilder des Testbildes nebeneinander, also z.B. in einer Reihe, einer Spalte, einer Matrix, oder anderweitig nicht überlappend angeordnet werden. Alternativ oder zusätzlich können die gefilterten Bilder des Testbildes überlappend und insbesondere übereinander angeordnet werden. Im letzteren Fall erzeugen die überlappenden, bei Unschärfe Pi nicht scharf erscheinenden Bilder Fj(Bj) mit j ≠ i einen (unscharfen) Hintergrund, von dem sich das gut zu erkennende Bild Fi(Bi) mit dem ursprünglichen Bild Bi abhebt, so dass eine Entscheidung für die Klassifizierung des Seheindrucks als Bild Bi der betrachtenden Person bzw. des Probanden leichtfällt. Zumindest ein Teil der gefilterten Bilder oder auch alle gefilterten Bilder können überlagert (z.B. addiert) werden. Das, z.B. durch eine Überlagerung der einzelnen gefilterten Bilder, erstellte Testbild kann dann mit gängigen Mitteln dargestellt bzw. dem Probanden präsentiert werden (z.B. kann das Testbild auf einem Bildschirm dargestellt werden oder aber auch gedruckt werden).
  • In einer weiteren bevorzugten Ausführungsform sind die Filter bzw. Filterfunktionen an durchschnittliche Aberrationen höherer Ordnung eines Auges angepasst. Alternativ sind die Filter bzw. Filterfunktionen an individuelle Aberrationen höherer Ordnung zumindest eines Auges des Probanden angepasst. Auf diese Weise kann vorteilhafterweise erreicht werden, dass der Proband das für seine optisch induzierte Unschärfe spezifisch gefilterte Ausgangsbild besser, d.h. eindeutiger und schneller erkennt. Mit anderen Worten kann die Erkennbarkeit individuell oder zumindest durchschnittlich verbessert werden.
  • Beliebige Aberrationen können z.B. mit Hilfe einer Vorfilterungs-Technik (engl. „prefiltering“) berücksichtigt werden. Bei der „prefiltering“-Technik wird das Ausgangsbild mit einer Funktion gefaltet, die dort kleine Werte aufweist, wo die Punktspreizfunktion (insbesondere eines unkorrigierten oder nicht vollständig korrigierten Auges) große Werte aufweist und umgekehrt, z.B. mit dem Reziproken der Punktspreizfunktion oder mit einem auf der Punktspreizfunktion basierten Wiener Filter. Negative Pixelintensitäten eines so vorgefilterten Bilds können durch Normalisierung auf einen darstellbaren Bereich (z.B. relative Intensitäten zwischen 0 und 1) gebracht werden. Wird ein auf diese Weise vorgefiltertes Bild durch eine optisch induzierte Unschärfe betrachtet, so kann der Betrachter das (scharfe) Ausgangsbild wahrnehmen, das jedoch wegen der Normalisierung einen geringeren Kontrast aufweist. Weitergehende Informationen hierzu finden sich z.B. in Fu-Chung Huang: „A Computational Light Field Display for Correcting Visual Aberrations", EECS Department, University of California, Berkeley, 2013, Technical Report No. UCB/EECS-2013-206, http-//www.eecs.berkeley.edu/Pubs/TechRpts/2013/EECS-2013-206.html. Insbesondere können Aberrationen höherer Ordnung nun dadurch berücksichtigt werden, dass bei der Berechnung der Punktspreizfunktion aus dem Phasenfehler in der Eintrittspupille (oft auch „Wellenfront“ genannt) zusätzlich zum Phasenfehler zweiter (Zernike-)Ordnung auch der Phasenfehler von Aberrationen höherer (Zernike-)Ordnung berücksichtigt wird. Die Berechnung der Punktspreizfunktion aus dem Phasenfehler in der Eintrittspupille wird z.B. in D. Kordek, L.K. Young und J. Kremláček: „Comparison between optical and digital blur using near visual acuity", Scientific Reports 11, 3437 (2021), DOI 10.1038/s41598-021-82965-z, beschrieben.
  • Ein weiterer unabhängiger Aspekt zur Lösung der Aufgabe betrifft ein Verfahren zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden, umfassend:
    • - Bereitstellen eines erfindungsgemäßen visuellen Objekts, wobei das Bereitstellen des visuellen Objekts insbesondere ein Darstellen des visuellen Objekts umfasst. Das Darstellen kann insbesondere mit gängigen Mitteln einschließlich einer Projektion auf die Netzhaut eines Probanden, oder durch Anzeigen auf einem Bildschirm oder durch Ausdrucken z.B. auf Papier erfolgen. Insbesondere kann das visuelle Objekt dem Probanden präsentiert werden.
  • In einer bevorzugten Ausführungsform umfasst das Bereitstellen eines visuellen Objekts die folgenden Schritte:
    • - Bereitstellen von zumindest zwei Ausgangsbildern;
    • - Erzeugen von zumindest zwei gefilterten Erkennungsbildern durch Anwenden von für eine vorgegebene optisch induzierte Unschärfe spezifische Filter (bzw. Filterfunktionen) auf die zumindest zwei Ausgangsbilder derart, dass bei Betrachtung der gefilterten Erkennungsbilder mit der vorgegebenen optisch induzierten Unschärfe jedes gefilterte Erkennungsbild eine vorgegebene Ähnlichkeit, insbesondere eine vorgegebenen minimale Ähnlichkeit, mit dem jeweiligen zu dem gefilterten Erkennungsbild zugehörigen Ausgangsbild aufweist.
  • Ein „gefiltertes Erkennungsbild“ ist insbesondere ein gefiltertes Ausgangsbild, welches derart gefiltert ist, dass es der Proband bei Betrachtung mit einer optisch induzierten Unschärfe als das Ausgangsbild erkennen kann.
  • Vorzugsweise umfasst das Verfahren zum Bereitstellen des erfindungsgemäßen visuellen Objekts die Schritte:
    • - Anpassen der Filterfunktion(en) an durchschnittliche Aberrationen höherer Ordnung eines Auges; und/oder
    • - Anpassen der Filterfunktionen(en) an individuelle Aberrationen höherer Ordnung zumindest eines Auges des Probanden.
  • In einer weiteren bevorzugten Ausführungsform umfasst das Bereitstellen des visuellen Objekts ein Bestimmen des für eine vorgegebene optisch induzierte Unschärfe spezifischen Filters (bzw. einer entsprechenden Filterfunktion) für jedes Ausgangsbild. Das Bestimmen des für eine vorgegebene optisch induzierte Unschärfe spezifischen Filters für jedes Ausgangsbild umfasst insbesondere ein Berechnen einer für die jeweilige optisch induzierte Unschärfe zugehörige optische Übertragungsfunktion. Beispielsweise kann die Filterung einer zumindest teilweisen Phasenumkehr und/oder Phasenrektifizierung entsprechen. Methoden dazu finden sich z.B. in der Publikation von S. Ravikumar et al: „Phase changes induced by optical aberrations degrade letter and face acuity", Journal of Vision (2010) 10(14): 18, Seiten 1-12, DOI: 10.1167/10.14.18, auf deren Offenbarungsgehalt hiermit ausdrücklich Bezug genommen wird. Dazu ist es nötig, die optische Übertragungsfunktion („optical transfer function“), d.h. die Fourier-Transformierte der Punktspreizfunktion für die jeweilige optisch induzierte Unschärfe Pi zu berechnen.
  • Es können auch andere Filter verwendet werden. So können z.B. für die Erzeugung eines gefilterten Bildes zumindest zwei Filter aus den Filterkategorien Tiefpassfilter, Bandpassfilter und Hochpassfilter verwendet werden. Bei Verwenden von Tief-, Hoch- und/oder Bandpassfiltern können die charakteristischen Frequenzen der Filter in Abhängigkeit der charakteristischen Frequenzen der durch eine optisch induzierte Unschärfe erzeugten optischen Transferfunktion gewählt werden. So kann bei einer Kombination von Tief- oder Bandpassfilter, welcher auf ein erstes Ausgangsbild angewendet wird, mit einem Hochpassfilter, welcher auf ein zweites Ausgangsbild angewendet wird, die Filterkante des Tiefpassfilters (bzw. die hochfrequente Filterkante des Bandpassfilters) niedriger als die Raumfrequenz der Filterkante der durch eine gegebene optisch induzierte Unschärfe erzeugten optischen Transferfunktion gewählt werden, und entsprechend die Filterkante des Hochpassfilters höher als die Frequenz der Filterkante der optischen Transferfunktion.
  • Ebenfalls möglich ist ein Optimierungsverfahren, bei dem Parameter der Filter angepasst werden (z.B. die o.g. charakteristischen Frequenzen der Filter, oder die bei der „Prefiltering-Technik“ verwendeten Parameter von Filtern). Eine zu maximierende Optimierungsfunktion Gθ(.) kann z.B. aus den Ähnlichkeiten Sijk bestimmt werden und hängt implizit von den Parametern θi der i-ten Filterfunktionen Fi(.) ab: G θ = G ( θ 1 , θ 2 , , θ N ) = j = 1 M i , k = 1 N w i j k ( 2 δ i k δ i j 1 ) S i j k ( θ i ) .
    Figure DE102022001541B3_0013
  • Es wird also das Maximum von Gθ über die Parameter θ der Filterfunktionen gebildet: θ * = argmax θ ( G θ ) .
    Figure DE102022001541B3_0014
  • Es ist zu bemerken, dass mehrere Filterfunktionen identisch sein können. So können z.B. lediglich zwei Arten von Filterfunktionen vorhanden sein, z.B. ein Hochpassfilter und ein Bandpassfilter, deren Parameter optimiert werden. In diesem Fall (wie im Ausführungsbeispiel) entsprächen z.B. die Filterfunktionen F11) = F33) = F2i-12i-1) = ··· = FN-1N-1) = FBPBP) einem und demselben Bandpassfilter, und die Filterfunktionen F22) = F44) = F2i2i) = ··· = FNN) = FHPHP) einem und demselben Hochpassfilter. Drei Parameter f1, f2 und f3 der Filterfunktionen werden während der Optimierung mittels herkömmlicher Optimierungsverfahren variiert, um ein Maximum von Gθ(f1,f2,f3) zu finden, wobei θ2i-1 = θBP = (f1, f2) die untere und obere Kante des Bandpassfilters ist, und θ2i = θHP = f3 die Frequenzkante des Hochpassfilters ist. Die Gewichte wijk sind wie üblich positiv und können dabei im einfachsten Fall alle identisch 1 gewählt werden, oder z.B. wie folgt: w i j k = δ i k N + 1 δ i k N ( N 1 ) .
    Figure DE102022001541B3_0015
  • In einer weiteren bevorzugten Ausführungsform umfasst das Bereitstellen des visuellen Objekts folgende Schritte:
    • - Filtern einer Vielzahl N von (vorgegebenen) unterschiedlichen Ausgangsbildern Bi mit 1 ≤ i ≤ N, für eine Vielzahl M von (vorgegebenen) optisch induzierten Unschärfen Pj mit 1 ≤ j ≤ M, wobei M und N jeweils eine positive ganze Zahl mit M < N ist, und
    • - Auswählen derjenigen gefilterten Bilder Fj(Bi), deren Ähnlichkeit Sii zu den Ausgangsbildern Bi bei Betrachtung mit einer optisch induzierten Unschärfe Pi einen ersten Schwellenwert überschreitet (d.h. möglichst hoch ist), und deren Ähnlichkeit Sij zu den anderen Ausgangsbildern Bj mit j ≠ i bei Betrachtung mit einer optisch induzierten Unschärfe Pi einen zweiten Schwellenwert unterschreitet (d.h. möglichst niedrig ist). Dies kann als Optimierung über alle Teilmengen mit M Bildern aufgefasst werden. Insbesondere ist der erste Schwellenwert größer oder gleich dem zweiten Schwellenwert. Vorzugsweise werden also aus einer Vielzahl von N Ausgangsbildern nur diejenigen M Bilder ausgewählt, die sich als Bilder im Rahmen der Erfindung besonders gut eignen (auf Grund der Auswahl muss M < N sein). Der Grund für das Auswählen ist, dass die Erkennbarkeit der Ausgangsbilder in den gefilterten Bildern nicht nur von den verwendeten Filterfunktionen abhängt, sondern auch von der Verteilung der zur Zuordnung benötigten Information über verschiedene Raumfrequenzen. So kann sich z.B. ein erstes Ausgangsbild, das bereits anhand der tieffrequenten Anteile gut erkannt werden kann, hervorragend dafür eignen, um mit einem Tiefpassfilter gefiltert zu werden, um später mit einem hochpassgefilterten zweiten Bild kombiniert zu werden. Vertauscht man aber die Filter und behandelt das erste Ausgangsbild mit einem Hochpassfilter und das zweite Ausgangsbild mit einem Tiefpassfilter, kann es sein, dass die hochfrequenten Bildanteile des ersten Ausgangsbilds nicht mehr (oder nicht mehr so gut) zum Erkennen des Ausgangsbilds in dem gefilterten Bild geeignet sind, weil sie z.B. zu unspezifisch sind oder deren Amplituden bereits im ersten Ausgangsbild zu niedrig waren.
  • In einer weiteren bevorzugten Ausführungsform stellt das Auswählen von gefilterten Bildern eine Optimierung über alle Teilmengen mit R Ausgangsbildern dar. Die Optimierung wird vorzugsweise durch ein Maximieren einer Zielfunktion durchgeführt, wobei die Zielfunktion insbesondere wie folgt definiert ist: i j k w i j k ( 2 δ i j δ i k 1 ) S i j k ,
    Figure DE102022001541B3_0016
    wobei
    δ das Kronecker-Symbol darstellt und wijk Gewichte sind mit wijk ≥ 0 und Σijkwijk > 0. Es wird insbesondere nur über Teilmengen der Ausgangsbilder β mit einer konstanten Anzahl von Elementen optimiert, wobei die Filterfunktionen nun fest vorgegeben sind. Eine zu maximierende Optimierungsfunktion Gβ kann z.B. aus den Ähnlichkeiten Sijk bestimmt werden und hängt implizit von den Parametern θi der i-ten Filterfunktionen Fi(.) ab: G β = j = 1 M i , k = 1, i , k β N w i j k ( 2 δ i k δ i j 1 ) S i j k ( θ i ) .
    Figure DE102022001541B3_0017
  • Die am besten geeignete Menge der Bilder kann durch β * = argmax β T ( G β )
    Figure DE102022001541B3_0018
    bestimmt werden, wobei T die Menge aller Teilmengen der Indizes der Ausgangsbilder mit R Elementen ist. Die Gewichte wijk können dabei alle gleich sein (z.B. wijk = 1 für alle i, j, k). Es ist jedoch vorteilhaft, die Gewichte mit den Ähnlichkeiten der diagonalen Elemente wie folgt zu skalieren: w i j k = 1 S i i i ( θ i ) S k k k ( θ k )
    Figure DE102022001541B3_0019
    für beliebige k.
  • In einer weiteren bevorzugten Ausführungsform umfasst das Verfahren die Schritte:
    • - Auswerten einer Reaktion des Probanden auf das visuelle Objekt, wobei das Auswerten insbesondere
      • -- ein Bestimmen einer Ametropie des Probanden, und/oder
      • -- ein Bestimmen der Sensitivität des Probanden gegenüber einer optisch induzierten Unschärfe, und/oder
      • -- ein Bestimmen eines für den Probanden optimalen Filters (bzw. einer optimalen Filterfunktion)
    umfasst.
  • Eine Reaktion des Probanden kann z.B. eine Antwort, eine motorische Aktion (wie z.B. eine Demonstration, ein Antippen von Darstellungen auf einer Tafel, einer Vorrichtung oder einem Bildschirm) und/oder eine Augenbewegung sein. Das Bestimmen einer Ametropie des Probanden kann somit vorteilhafterweise erfolgen, ohne eine optisch induzierte Unschärfe (durch weitere Hilfsmittel) erzeugen zu müssen.
  • Das Bestimmen eines für den Probanden optimalen Filters kann ein Bestimmen einer Filterung bei fester, aber unbekannter optisch induzierter Unschärfe, bei der die erfindungsgemäßen Testbilder verwendet werden, umfassen, mit dem Ziel, eine Filterung zu finden, die eine möglichst gute Erkennbarkeit eines mit dem Filter gefilterten Bildes auf einem Bildschirm ermöglicht.
  • Ein weiterer unabhängiger Aspekt zur Lösung der Aufgabe betrifft ein Computerprogrammprodukt, welches maschinenlesbaren Programmcode umfasst, der, wenn er geladen wird auf einem Computer, zur Ausführung des oben beschriebenen erfindungsgemäßen Verfahrens geeignet ist. Insbesondere ist unter einem Computerprogrammprodukt ein auf einem Datenträger gespeichertes Programm zu verstehen. Insbesondere ist der Programmcode auf einem Datenträger gespeichert. Mit anderen Worten umfasst das Computerprogrammprodukt computerlesbare Anweisungen, welche, wenn geladen in einen Speicher eines Computers und ausgeführt von dem Computer, bewirken, dass der Computer ein oben beschriebenes erfindungsgemäßes Verfahren durchführt.
  • Insbesondere kann das Computerprogrammprodukt ein durch einen Computer lesbares Speichermedium umfassen, welches einen Code darauf gespeichert aufweist, wobei der Code, wenn er durch einen Prozessor ausgeführt wird, bewirkt, dass der Prozessor ein erfindungsgemäßes Verfahren implementiert. Die Erfindung bietet somit ein Computerprogrammerzeugnis, insbesondere in Form eines Speichermediums oder eines Datenstroms, welches Programmcode enthält, der ausgelegt ist, wenn geladen und ausgeführt auf einem Computer, ein Verfahren zum Bereitstellen eines erfindungsgemäßen visuellen Objekts und/oder zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden durchzuführen.
  • Für die oben genannten weiteren unabhängigen Aspekte und insbesondere für diesbezügliche bevorzugte Ausführungsformen gelten auch die vor- oder nachstehend gemachten Ausführungen zu den Ausführungsformen des ersten Aspekts. Insbesondere gelten für einen unabhängigen Aspekt der vorliegenden Erfindung und für diesbezügliche bevorzugte Ausführungsformen auch die vor- und nachstehend gemachten Ausführungen zu den Ausführungsformen der jeweils anderen unabhängigen Aspekte.
  • Im Folgenden werden einzelne Ausführungsformen zur Lösung der Aufgabe anhand der Figuren beispielhaft beschrieben. Dabei weisen die einzelnen beschriebenen Ausführungsformen zum Teil Merkmale auf, die nicht zwingend erforderlich sind, um den beanspruchten Gegenstand auszuführen, die aber in bestimmten Anwendungsfällen gewünschte Eigenschaften bereitstellen. So sollen auch Ausführungsformen als unter die beschriebene technische Lehre fallend offenbart angesehen werden, die nicht alle Merkmale der im Folgenden beschriebenen Ausführungsformen aufweisen. Ferner werden, um unnötige Wiederholungen zu vermeiden, bestimmte Merkmale nur in Bezug auf einzelne der im Folgenden beschriebenen Ausführungsformen erwähnt. Es wird darauf hingewiesen, dass die einzelnen Ausführungsformen daher nicht nur für sich genommen, sondern auch in einer Zusammenschau betrachtet werden sollen. Anhand dieser Zusammenschau wird der Fachmann erkennen, dass einzelne Ausführungsformen auch durch Einbeziehung von einzelnen oder mehreren Merkmalen anderer Ausführungsformen modifiziert werden können. Es wird darauf hingewiesen, dass eine systematische Kombination der einzelnen Ausführungsformen mit einzelnen oder mehreren Merkmalen, die in Bezug auf andere Ausführungsformen beschrieben werden, wünschenswert und sinnvoll sein kann und daher in Erwägung gezogen und auch als von der Beschreibung umfasst angesehen werden soll.
  • Figurenliste
    • 1a zeigt ein beispielhaftes erstes Ausgangsbild;
    • 1b zeigt ein beispielhaftes zweites Ausgangsbild;
    • 2a zeigt ein beispielhaftes erstes gefiltertes Bild, nämlich das mit einem ersten Filter gefilterte erste Ausgangsbild von 1a;
    • 2b zeigt ein beispielhaftes zweites gefiltertes Bild, nämlich das mit einem zweiten Filter gefilterte zweite Ausgangsbild von 1b;
    • 3 zeigt ein visuelles Objekt bzw. Testbild gemäß einer bevorzugten Ausführungsform der Erfindung, in dem das erste gefilterte Bild von 2a und das zweite gefilterte Bild von 2b überlagert sind;
    • 4 zeigt: in der oberen Zeile sechs beispielhafte Ausgangsbilder B1 bis B6; in der mittleren Zeile zu den jeweiligen Ausgangsbildern zugehörige Masken für einen hochfrequenten Hintergrund, welche jeweils durch Anwenden eines Tiefpassfilters auf die jeweils darüberliegenden Ausgangsbilder erzeugt wurden; und in der unteren Zeile die Ausgangsbilder der oberen Zeile, wobei im Bereich der Masken (schwarz in der jeweils darüberliegenden mittleren Zeile) ein hochfrequenter Hintergrund hinzugefügt wurde;
    • 5 zeigt: in der oberen Zeile die sechs beispielhaften Ausgangsbilder der 4, welche mit einem Bandpassfilter gefiltert wurden; und in der unteren Zeile die sechs beispielhaften Ausgangsbilder der 4, welche mit einem Hochpassfilter gefiltert wurden;
    • 6 zeigt kombinierte gefilterte Bilder auf Basis der Ausgangsbilder der 4 sowie der bandpass- und hochpassgefilterten Ausgangsbilder der 5;
    • 7 zeigt Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern bei Betrachtung ohne optische Unschärfe;
    • 8 zeigt: links die Zernike-Koeffizienten c n m
      Figure DE102022001541B3_0020
      eines Wellenfrontfehlers des zumindest einen Auges eines Probanden; rechts oben ein 1024 × 1024 Pixel großes Bild der Punktspreizfunktion des unkorrigierten Auges mit einem Radius der Eintrittspupille von 2.52 mm für eine Wellenlänge von 550 nm; und rechts unten eine Vergrößerung des darüberliegenden Bildes.
    • 9 zeigt überlagerte gefilterte Bilder bei unterschiedlichen optisch induzierten Unschärfen;
    • 10 zeigt Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern bei Betrachtung mit einer ersten optischen Unschärfe P1;
    • 11 zeigt Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern bei Betrachtung mit einer zweiten optischen Unschärfe P2;
    • 12 zeigt Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern bei Betrachtung mit einer dritten optischen Unschärfe P3;
    • 13 zeigt Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern bei Betrachtung mit einer vierten optischen Unschärfe P4;
    • 14 zeigt Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern bei Betrachtung mit einer fünften optischen Unschärfe P5;
    • 15 zeigt eine grafische Darstellung der Ähnlichkeiten aus den Tabellen der 7 und 10 bis 14;
  • Detaillierte Beschreibung der Zeichnungen
  • Es wird angemerkt, dass die hierin gezeigten Figuren fotografische Aufnahmen darstellen, die jeweils nicht als Schwarzweiß-Strichzeichnung dargestellt werden können, ohne deren Charakter unerwünscht zu verfälschen.
  • In der 1a ist ein beispielhaftes erstes Ausgangsbild dargestellt. Dieses erste Ausgangsbild B1 zeigt ein Foto von „Kermit“, einer Comicfigur aus der bekannten „Muppet Show“. In der 1b ist ein beispielhaftes zweites Ausgangsbild dargestellt. Dieses zweite Ausgangsbild B2 zeigt ein Foto von „Miss Piggy“, einer weiteren Comicfigur aus der „Muppet Show“. Beide Ausgangsbilder bzw. Fotos sind ungefiltert und entsprechen somit jeweils einem ursprünglichen Bild.
  • In der 2a ist ein mit einem ersten Filter bzw. einer ersten Filterfunktion F1 versehenes erstes gefiltertes Bild F1(B1) gezeigt. Dieses erste gefilterte Bild F1(B1) basiert auf dem ersten Ausgangsbild B1 bzw. repräsentiert das erste Ausgangsbild B1. Insbesondere stellt das erste gefilterte Bild F1(B1) das erste Ausgangsbild B1, auf das ein erster Filter bzw. eine erste Filterfunktion F1 angewendet wurde, dar. Der erste Filter F1 ist derart gewählt, dass das erste gefilterte Bild F1(B1) bei Betrachtung mit einer ersten optisch induzierten (sphärischen) Unschärfe P1, die beispielsweise einem ersten Powervektor P1 = (1.5 dpt, 0, 0) entspricht, eine relativ hohe Ähnlichkeit mit dem ersten Ausgangsbild B1 aufweist. Wird das gefilterte Bild F1(B1) jedoch mit einer zweiten optisch induzierten Unschärfe P2, die sich von der ersten optisch induzierten Unschärfe P1 (insbesondere um einen bestimmten bzw. minimalen Wert) unterscheidet, betrachtet, so erscheint das erste gefilterte Bild F1(B1) undeutlich bzw. unscharf und/oder weist eine geringere Ähnlichkeit mit dem ersten Ausgangsbild auf als bei Betrachtung mit der ersten optisch induzierten Unschärfe, für die der erste Filter F1 spezifisch ist. Wie anhand der 2a erkennbar ist, erscheint das darin gezeigte gefilterte Bild F1(B1) bei Betrachtung ohne optisch induzierter (sphärischer) Unschärfe, die einem zweiten Powervektor P2 = (0 dpt, 0, 0) entspricht, undeutlich bzw. unscharf. Der Filter F1 ist somit ein für die erste optisch induzierte Unschärfe spezifischer Filter, da er bei Betrachtung mit der ersten optisch induzierten Unschärfe, das Ausgangsbild B1 gut erkennen lässt, während er bei Betrachtung mit einer anderen optisch induzierten Unschärfe (beispielsweise mit der zweiten optisch induzierten Unschärfe P2) das Ausgangsbild B1 weniger gut, schlecht(er) oder gar nicht erkennen (bzw. nur noch als einen Hintergrund) lässt.
  • In der 2b ist ein mit einem zweiten Filter bzw. einer zweiten Filterfunktion F1 versehenes zweites gefiltertes Bild F2(B2) gezeigt. Dieses zweite gefilterte Bild F2(B2) basiert auf dem zweiten Ausgangsbild B2 bzw. repräsentiert das zweite Ausgangsbild B2. Insbesondere stellt das zweite gefilterte Bild F2(B2) das zweite Ausgangsbild B2, auf das ein zweiter Filter bzw. eine zweite Filterfunktion F2 angewendet wurde, dar. Der zweite Filter F2 ist derart gewählt, dass das zweite gefilterte Bild F2(B2) bei Betrachtung mit der zweiten optisch induzierten Unschärfe P2, die dem Powervektor P2 = (0 dpt, 0, 0) entspricht, eine relativ hohe Ähnlichkeit mit dem zweiten Ausgangsbild B2 aufweist. Wird das gefilterte Bild F2(B2) jedoch mit einer anderen optisch induzierten Unschärfe, die sich von der zweiten optisch induzierten Unschärfe P2 (insbesondere um einen bestimmten bzw. minimalen Wert) unterscheidet, betrachtet, so erscheint das gefilterte Bild F2(B2) undeutlich bzw. unscharf und/oder weist eine geringere Ähnlichkeit mit dem zweiten Ausgangsbild B2 auf als bei Betrachtung mit der zweiten optisch induzierten Unschärfe P2, für die der zweite Filter F2 spezifisch ist. Wie anhand der 2b erkennbar ist, erscheint das darin gezeigte gefilterte Bild F2(B2) bei Betrachtung ohne optisch induzierter (sphärischer) Unschärfe P2, die dem zweiten Powervektor P2 = (0 dpt, 0, 0) entspricht, gut erkennbar. Der Filter F2 ist somit ein für die zweite optisch induzierte Unschärfe P2 spezifischer Filter, da er bei Betrachtung mit der zweiten optisch induzierten Unschärfe P2 das Ausgangsbild B2 gut erkennen lässt, während er bei Betrachtung mit einer anderen optisch induzierten Unschärfe (beispielsweise mit der ersten optisch induzierten Unschärfe P1) das Ausgangsbild B2 weniger gut, schlecht(er) oder gar nicht (bzw. nur noch als einen Hintergrund) erkennen lässt.
  • Im gezeigten Ausführungsbeispiel ist der verwendete Filter F1 ein Tiefpassfilter, d.h. das in der 2a gezeigte gefilterte Bild F1(B1) ist ein tiefpassgefiltertes Bild. Dagegen ist der im gezeigten Ausführungsbeispiel verwendete Filter F2 ein Hochpassfilter, d.h. das in der 2b gezeigte gefilterte Bild F2(B2) ist ein hochpassgefiltertes Bild.
  • In der 3 ist ein visuelles Objekt bzw. ein Testbild 100 gemäß einer bevorzugten Ausführungsform der Erfindung gezeigt. In dem dargestellten visuellen Objekt 100 bzw. in dem Testbild sind das in der 2a gezeigte erste gefilterte Bild F1(B1) und das in der 2b gezeigte zweite gefilterte Bild F2(B2) vereint. Dabei sind in dem gezeigten Ausführungsbeispiel das erste gefilterte Bild F1(B1) von 2a und das zweite gefilterte Bild F2(B2) von 2b überlagert. Mit anderen Worten überlappen sich das erste gefilterte Bild F1(B1) und das zweite gefilterte Bild F1(B1) vollständig.
  • Das visuelle Objekt bzw. Testbild 100, dargestellt mit einer 8 Grad entsprechenden Kantenlänge in einer Proximität von 0 dpt, ist mit der ersten sphärischen Unschärfe P2 = (0 dpt, 0, 0) betrachtet als „Miss Piggy“ (also als das zweite Ausgangsbild B2) zu erkennen. Wird das visuelle Objekt bzw. Testbild 100 dagegen mit der zweiten sphärischen Unschärfe P2 = (1.5 dpt, 0, 0) betrachtet, so ist es als „Kermit“ (also als das erste Ausgangsbild B1) zu erkennen. Die Information, welches Ausgangsbild ein Proband auf dem dargestellten Testbild erkennt, kann verwendet werden, um Seheigenschaften des Probanden (z.B. eine Ametropie) zu ermitteln bzw. zu bestimmen. Beispielsweise können dem Probanden eine Vielzahl von erfindungsgemäßen visuellen Objekten bzw. Testbilder 100 präsentiert werden, um auf diese Weise durch eine entsprechende Reaktion bzw. Antwort des Probanden sukzessive auf bestimmte Seheigenschaften des Probanden zu schließen.
  • Jedes der gefilterten Bilder F1(B1) und F2(B2) ist somit mit einem zu seinem repräsentierten Ausgangsbild B1 bzw. F1(B1) zugehörigen und für eine vorgegebene optisch induzierte Unschärfe spezifischen Filter derart versehen, dass auf dem Testbild bei Betrachtung mit einer ersten vorgegebenen optisch induzierten Unschärfe ein erstes der zumindest zwei Ausgangsbilder (hier: „Kermit“) besser erkennbar ist als jedes der restlichen Ausgangsbilder (hier: „Miss Piggy“), wobei bei Betrachtung mit einer zweiten vorgegebenen optisch induzierten Unschärfe ein zweites der zumindest zwei Ausgangsbilder (hier: „Miss Piggy“) besser erkennbar ist als jedes der restlichen Ausgangsbilder (hier: „Kermit“).
  • Im Rahmen der vorliegenden Erfindung wird insbesondere ein Verfahren zum Erstellen eines Testbilds aus zwei oder mehr Ausgangsbildern, die z.B. Symbole, Sehzeichen oder andere leicht und eindeutig zu erkennende Objekte beinhalten, vorgeschlagen. Jedes Bild Bi wird mit einer Filterfunktion Fi gefiltert. Das gefilterte Bild Fi(Bi) hat bei der optisch induzierten Unschärfe Pj eine Ähnlichkeit Sijk mit dem Ausgangsbild Bk. Zumindest ein Teil der gefilterten Bilder kann danach überlagert (z.B. addiert) werden und das durch die Überlagerung erstellte Bild kann z.B. auf einem Bildschirm dargestellt werden oder aber auch gedruckt werden. Die dargestellten gefilterten Bilder können nebeneinander (z. B. in einer Reihe, einer Spalte, einer Matrix oder anderweitig nicht überlappend) angeordnet werden, und alternativ oder zusätzlich auch übereinander angeordnet werden. Im letzteren Fall erzeugen die überlappenden, bei Unschärfe Pi nicht scharf erscheinenden Bilder Fj(Bj) mit j ≠ i einen Hintergrund, von dem sich das gut zu erkennende Bild Fi(Bi) mit dem ursprünglichen Bild Bi abhebt, so dass eine Entscheidung für die Klassifizierung des Seheindrucks als Bild Bi der betrachtenden Person leichtfällt.
  • Die erfindungsgemäßen visuellen Objekte bzw. Testbilder sind insbesondere so geartet, dass sie bei unterschiedlicher optisch induzierter Unschärfe jeweils unterschiedliche vom Probanden einfach erkennbare Objekte darstellen, die einfach und sicher benannt werden können. Zum Beispiel kann die untersuchte Person ein Objekt A ohne optisch induzierte Unschärfe (als Powervektor P = (0, 0, 0)) erkennen, jedoch ein Objekt B bei einer von Null verschiedenen optisch induzierten Unschärfe (z.B. Powervektor P = (M, 0, 0)). Bei den erfindungsgemäßen Testbildern kann ein Proband also insbesondere abhängig von der optisch induzierten Unschärfe ein jeweils anderes Objekt erkennen. Dadurch fällt die Entscheidung der getesteten Person für ein bestimmtes Objekt schneller und ist eindeutiger.
  • Um die erfindungsgemäßen Testbilder zu erzeugen, können die Bilder Bi zunächst auf geeignete Weise mit der Filterfunktion Fi gefiltert werden, um eine gute Erkennbarkeit bei der gewünschten optischen Unschärfe Pi zu erzeugen. Die Filterung kann dabei zumindest teilweiser Phasenumkehr und/oder Phasenrektifizierung entsprechen. Dazu ist es nötig, die „Optical Transfer Function“ (d.h. die Fourier-Transformierte der „Point Spread Function“) für die jeweilige optisch induzierte Unschärfe Pi zu berechnen. Es können auch andere Filter verwendet werden. So können z.B. für die Erzeugung eines gefilterten Bildes zumindest zwei Filter aus den Filterkategorien Tiefpassfilter, Bandpassfilter und Hochpassfilter verwendet werden. Die Filter können dabei auch an die individuellen oder durchschnittlichen Aberrationen höherer Ordnung des Auges angepasst werden, um die Erkennbarkeit individuell oder zumindest durchschnittlich zu verbessern.
  • Zu besonders guten Ergebnissen kommt man, wenn man eine Vielzahl von unterschiedlichen Bildern Bi, mit 1 ≤ i ≤ N, für die optisch induzierten Unschärfen Pj, mit 1 ≤ j ≤ M filtert, wobei M < N ist, und anschließend die gefilterten Bilder Fi(Bi) auswählt, deren Ähnlichkeit Sii zu den ursprünglichen Bildern Bi bei Betrachtung mit der Unschärfe Pi möglichst hoch ist, und gleichzeitig deren Ähnlichkeit Sij zu den anderen Bildern Bj mit j ≠ i bei Betrachtung mit der Unschärfe Pi möglichst niedrig ist. Dies kann als Optimierung über alle Teilmengen mit M Bildern aufgefasst werden, wobei die Optimierung durch Maximierung einer Zielfunktion gelöst werden kann.
  • Mögliche Anwendungen der Erfindung sind insbesondere:
    • - die Bestimmung der Ametropie, ohne optisch induzierte Unschärfe erzeugen zu müssen;
    • - die Bestimmung der Sensitivität gegenüber optisch induzierter Unschärfe; und/oder
    • - die Bestimmung einer Filterung bei fester, aber unbekannter optisch induzierter Unschärfe, bei der die erfindungsgemäßen Testbilder verwendet werden, mit dem Ziel, eine Filterung zu finden, die eine möglichst gute Erkennbarkeit eines mit dem Filter gefilterten Bildes auf einem Bildschirm zu finden.
  • Bei der Verwendung der Testbilder ist, wie auch bei Sehzeichen nach dem Stand der Technik enthaltenden Testbildern, selbstverständlich darauf zu achten, dass neben der optisch induzierten Unschärfe die Entfernung zwischen Testbild und Auge der zu testenden Person eine große Rolle spielt. Es ist ebenfalls darauf zu achten, dass mit den erfindungsgemäßen Testbildern bestimmte optometrische Parameter (z.B. die Sehschärfe) nicht notwendigerweise denselben Parametern entsprechen, die mit Hilfe von Sehzeichen nach dem Stand der Technik enthaltenden Testbildern bestimmt wurden, und dass gegebenenfalls eine Kalibrierung der erfindungsgemäßen Messmethode auf eine Standard-Messmethode notwendig ist.
  • Nachfolgend werden anhand der 4 bis 14 weitere Beispiele für Ausgangsbilder, gefilterte Bilder, vereinte bzw. überlagerte Bilder sowie deren Ähnlichkeit mit den Ausgangsbildern präsentiert.
  • Die 4 zeigt in der oberen Zeile sechs beispielhafte Ausgangsbilder B1 bis B6. Dabei stellt das Ausgangsbild B1 einen Elefanten, das Ausgangsbild B2 eine Katze, das Ausgangsbild B3 einen Menschen, das Ausgangsbild B4 einen Mond, das Ausgangsbild B5 einen Schirm und das Ausgangsbild B6 eine Sonne dar. In der mittleren Zeile der 4 sind jeweils zu den in der Zeile darüber gezeigten Ausgangsbildern B1 bis B6 zugehörige Masken dargestellt, welche durch Anwenden eines Tiefpass-Filters auf die jeweils darüberliegenden Ausgangsbilder erzeugt wurden. Diese Masken dienen dazu, die Ausgangsbilder B1 bis B6 jeweils mit einem hochfrequenten Hintergrund zu versehen. In der unteren Zeile der 4 sind die mit einem hochfrequenten Hintergrund versehenen Ausgangsbilder B1 bis B6 gezeigt, wobei der hochfrequente Hintergrund jeweils durch Anwenden der Masken auf die Ausgangsbilder hinzugefügt wurde. Insbesondere wurde jeweils in einem durch die Masken vorgegebenen Bildbereich (in den Masken schwarz dargestellt) ein hochfrequenter Hintergrund hinzugefügt. Der hochfrequente Hintergrund dient insbesondere dazu, die Aufmerksamkeit des Betrachters auf hochfrequente Strukturen des kombinierten Bildes zu lenken, sofern sie mit einer gegebenen optisch induzierten Unschärfe wahrgenommen werden können.
  • In der 5 sind gefilterte Ausgangsbilder dargestellt, wobei in der oberen Zeile von 5 die Ausgangsbilder B1 bis B6 jeweils mit einem Bandpassfilter F1 gefiltert wurden, während in der unteren Zeile von 5 die Ausgangsbilder B1 bis B6 jeweils mit einem Hochpassfilter F2 gefiltert wurden. So ist beispielsweise das linke obere Bild mit der Bezeichnung F1(B1) das mit dem Bandpassfilter F1 gefilterte Ausgangsbild B1. Das rechte untere Bild mit der Bezeichnung F2(B6) ist beispielsweise das mit dem Hochpassfilter F2 gefilterte Ausgangsbild B6.
  • In der 6 ist eine Matrix mit kombinierten (bzw. überlagerten) gefilterten Bildern gezeigt. Die in der Matrix dargestellten Bilder können durch zwei Zahlen identifiziert werden, wobei die erste Zahl die Zeile und die zweite Zahl die Spalte der Matrix angibt. Die in der Diagonalen der in 6 dargestellten Matrix enthaltenen Bilder, d.h. die Bilder „11“, „22“, „33“, „44“, „55“ und „66“, entsprechen den Ausgangsbildern B1 bis B6. In den Nichtdiagonalelementen der Matrix sind Bilder enthalten, die eine Kombination bzw. Überlagerung von bandpass- und hochpassgefilterten Ausgangsbildern darstellen. In jeder Zeile wurde für die Kombination dasselbe bandpassgefilterte Bild verwendet, und in jeder Spalte dasselbe hochpassgefilterte Bild. Die Kombination der bandpass- und hochpassgefilterten Ausgangsbilder erfolgte durch eine gewichtete Addition der gefilterten Bilder, wobei die bandpassgefilterten Bilder mit dem Faktor 0.2 und die hochpassgefilterten Bilder mit dem Faktor 0.8 gewichtet wurden. In diesem Beispiel soll bei Betrachtung die Kantenlänge der einzelnen Bilder 580 Bogenminuten entsprechen.
  • Die 7 zeigt Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern bei Betrachtung ohne optische Unschärfe. So zeigt z.B. die obere linke Tabelle der 7 die auf diese Weise berechneten Werte für die Ähnlichkeit der in 6 dargestellten kombinierten Bilder mit dem Ausgangsbild B1. Entsprechend zeigt z.B. die untere rechte Tabelle der 7 die berechneten Werte für die Ähnlichkeit der in 6 dargestellten kombinierten Bilder mit dem Ausgangsbild B6. Wie beispielsweise aus der linken oberen Tabelle der 7 hervorgeht, ist die berechnete Ähnlichkeit des Bildes „12“ (Zeile 1, Spalte 2) mit dem Ausgangsbild B1 gleich 0.013, während z.B. die berechnete Ähnlichkeit des Bildes „21“ (Zeile 2, Spalte 1) mit dem Ausgangsbild B1 0.098 beträgt. Erwartungsgemäß ist die berechnete Ähnlichkeit des Bildes „11“ (Zeile 1, Spalte 1) mit dem Ausgangsbild B1 gleich 1.000. Die Werte in den anderen Tabellen der 7 sind entsprechend zu lesen. Die höchsten Werte einer Zeile bzw. Spalte sind in den Tabellen kursiv bzw. unterstrichen dargestellt. Die Berechnung der in den Tabellen der 7 angegebenen Ähnlichkeiten erfolgte beispielhaft mit Hilfe einer korrelationsbasierten Ähnlichkeitsfunktion. Dabei wurde die Ähnlichkeitsfunktion jeweils auf ein Ausgangsbild und ein kombiniertes gefiltertes Bild angewendet, um so die Ähnlichkeit dieser beiden Bilder quantitativ zu ermitteln. Ein Ausführungsbeispiel für die Definition bzw. Bestimmung einer Ähnlichkeit unter Verwendung einer Ähnlichkeitsfunktion ist weiter unten beschrieben.
  • Auf der linken Seite der 8 sind zum Zwecke der im Folgenden beschriebenen Beispiele die Zernike-Koeffizienten c n m
    Figure DE102022001541B3_0021
    eines beispielhaften Wellenfrontfehlers des zumindest einen Auges eines Probanden angegeben. Ferner ist auf der rechten Seite von 8 oben ein 1024 x 1024 Pixel großes Bild der Punktspreizfunktion des unkorrigierten Auges mit einem Radius der Eintrittspupille von 2.52 mm für eine Wellenlänge von 550 nm gezeigt. Eine Vergrößerung dieses Bildes ist unmittelbar unter dem Bild gezeigt. Die Intensität der Punktspreizfunktion wurde zur besseren Darstellung normalisiert. Zur Simulation können auch alle Ordnungen mit n ≤ 1 gleich Null gesetzt werden. Die Fehlsichtigkeit des Auges beträgt in dem gezeigten Beispiel M = -3.94 dpt, J0 = -0.03 dpt und J45 = -0.27 dpt. Die Punktspreizfunktion ist aus der Perspektive der Person mit besagten Wellenfrontfehlern gezeigt und entspricht dem Seheindruck einer Punktlichtquelle.
  • Die 9 zeigt überlagerte gefilterte Bilder bei unterschiedlichen optisch induzierten Unschärfen. In jeder der fünf Spalten der 9 sind zwei überlagerte gefilterte Bilder dargestellt, jeweils betrachtet bei einer bestimmten optisch induzierte Unschärfe Pi (mit i = 1, 2, 3, 4, 5). Die M-Komponente ist wie unter den jeweiligen Bildern angegeben. Die gezeigten Beispiele basieren auf ein Auge mit den in der 8 angegebenen Zernike-Koeffizienten. Dieses Auge mit einem beispielhaften Pupillenradius von 2.52 mm hat eine Fehlsichtigkeit von M = -3.94 dpt, J0 = -0.03 dpt und J45 = -0.27 dpt. Die Aberrationen höherer Ordnung sind wie in der Tabelle von 8 angegeben. Wird diese Fehlsichtigkeit jeweils mit einer Korrektion des Auges, die eine Wirkung von M1 = -6 dpt, M2 = -5 dpt, M3 = -4 dpt, M4 = -3 dpt und M5 = -2 dpt mit astigmatischen Komponenten von jeweils J0 = 0 dpt und J45 = -0.25 dpt bei einem Hornhautscheitelabstand von -3.5 mm (Position der Eintrittspupille) aufweist, ergeben sich die optisch induzierten Unschärfen P1 bis P5 mit den in 9 angegebenen M-Werten. Eines der zwei überlagerten gefilterten Bilder der 9 basiert auf dem Ausgangsbild B1 („Elefant“), und das andere der zwei überlagerten gefilterten Bilder der 9 basiert auf dem Ausgangsbild B2 („Katze“). Dabei sind die Bilder der oberen Zeile der 9 jeweils eine Überlagerung der Bilder F1(B1) und F2(B2) von 5, während die Bilder der unteren Zeile der 9 jeweils eine Überlagerung der Bilder F2(B1) und F1(B2) von 5 darstellen. Wie aus der 9 erkennbar ist, ist in Abhängigkeit davon, mit welchen Filtern das überlagerte gefilterte Bild versehen ist und mit welcher optischen Unschärfe das überlagerte Bild betrachtet wird, das überlagerte Bild dem Ausgangsbild B1 („Elefant“) oder dem Ausgangsbild B2 („Katze“) ähnlicher. Alle auf den „neuen Symbolen“ (Katze, Elefant, etc.) basierenden Bilder und berechneten Werte der Ähnlichkeiten beziehen sich auf eine Betrachtung, bei der die Seitenlänge der Bilder 580 Bogenminuten Sehwinkel entspricht.
  • Die 10 zeigt, ähnlich wie die 7, Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern. Anders als in den Tabellen der 7 beziehen sich die in den Tabellen der 10 enthaltenen Ähnlichkeitswerte jedoch auf eine Betrachtung mit der optischen Unschärfe P1 (M = -1.93 dpt, J0 = -0.03 dpt, J45 = -0.02 dpt). Die höchsten Werte einer Zeile bzw. Spalte sind auch in den Tabellen der 10 kursiv bzw. unterstrichen dargestellt.
  • Die 11 zeigt, ähnlich wie die 7, Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern. Anders als in den Tabellen der 7 beziehen sich die in den Tabellen der 11 enthaltenen Ähnlichkeitswerte jedoch auf eine Betrachtung mit der optischen Unschärfe P2 (M = -0.93 dpt, J0 = -0.03 dpt, J45 = -0.02 dpt). Die höchsten Werte einer Zeile bzw. Spalte sind auch in den Tabellen der 11 kursiv bzw. unterstrichen dargestellt.
  • Die 12 zeigt, ähnlich wie die 7, Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern. Anders als in den Tabellen der 7 beziehen sich die in den Tabellen der 12 enthaltenen Ähnlichkeitswerte jedoch auf eine Betrachtung mit der optischen Unschärfe P3 (M = 0.06 dpt, J0 = -0.03 dpt, J45 = -0.02 dpt). Die höchsten Werte einer Zeile bzw. Spalte sind auch in den Tabellen der 12 kursiv bzw. unterstrichen dargestellt.
  • Die 13 zeigt, ähnlich wie die 7, Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern. Anders als in den Tabellen der 7 beziehen sich die in den Tabellen der 13 enthaltenen Ähnlichkeitswerte jedoch auf eine Betrachtung mit der optischen Unschärfe P4 (M = 1.06 dpt, J0 = -0.03 dpt, J45 = -0.02 dpt). Die höchsten Werte einer Zeile bzw. Spalte sind auch in den Tabellen der 13 kursiv bzw. unterstrichen dargestellt.
  • Die 14 zeigt, ähnlich wie die 7, Tabellen mit berechneten Ähnlichkeiten der Ausgangsbilder B1 bis B6 mit den in der 6 gezeigten kombinierten Bildern. Anders als in den Tabellen der 7 beziehen sich die in den Tabellen der 14 enthaltenen Ähnlichkeitswerte jedoch auf eine Betrachtung mit der optischen Unschärfe P5 (M = 2.06 dpt, J0 = -0.03 dpt, J45 = -0.02 dpt). Die höchsten Werte einer Zeile bzw. Spalte sind auch in den Tabellen der 14 kursiv bzw. unterstrichen dargestellt.
  • Die 15 zeigt eine grafische Darstellung der Ähnlichkeiten aus den vorigen Tabellen der 7 und 10 bis 14. In jedem Teilbild der 15 ist die Ähnlichkeit des jeweils im Titel des Teilbilds angegebenen Ausgangsbilds („Mond“, „Schirm“, „Sonne“, „Elefant“, „Katze“, „Mensch“) mit den kombinierten gefilterten Bildern gezeigt, welche durch unterschiedliche optisch induzierte Unschärfen betrachtet werden (nur die Abhängigkeit vom sphärischen Äquivalent ist dargestellt). Dreiecke bzw. Kreise stellen kombinierte gefilterte Bilder dar, zu deren Erzeugen das jeweilige Ausgangsbild hochpass- bzw. bandpassgefiltert wurde. Kreuze stellen kombinierte gefilterte Bilder dar, zu deren Erzeugen das Ausgangsbild nicht verwendet wurde. Die Ähnlichkeit des Ausgangsbilds fällt mit von 0 abweichendem sphärischen Äquivalent schnell bzw. weniger schnell ab, wenn zur Erzeugung des gefilterten kombinierten Bilds das jeweilige Ausgangsbild hochpass- bzw. bandpassgefiltert wurde.
  • Ausführungsbeispiel für die Definition bzw. Bestimmung einer Ähnlichkeit:
  • Wie bereits weiter oben erwähnt, kann die Ähnlichkeit insbesondere durch eine Ähnlichkeitsfunktion S(B1, B2) zweier Bilder B1 und B2 angegeben werden. Eine solche Ähnlichkeitsfunktion S(B1, B2) kann z.B. aus dem Verhältnis des mittleren Abfalls der Kreuzkorrelationsfunktion der Bilder (nach Hintergrund-Abzug), DCF(B1, B2), und dem Mittelwert des mittleren Abfalls der Autokorrelationsfunktion der jeweiligen Bilder (ebenfalls nach Hintergrund-Abzug), DCF(B1, B1) und DCF(B2, B2) bestimmt werden. Die Ähnlichkeitsfunktion S(B1, B2) kann somit beispielsweise wie folgt definiert werden: S ( B 1 , B 2 ) = 2 D C F ( B 1 , B 2 ) D C F ( B 1 , B 1 ) + D C F ( B 2 , B 2 )
    Figure DE102022001541B3_0022
  • Es wird angemerkt, dass in der oben angegeben Formel mit B1 und B2 Bilder im Allgemeinen bezeichnet werden. B1 und B2 müssen also keine Ausgangsbilder sein, sondern können beliebige Bilder sein, u.a. auch gefilterte Bilder. Der mittlere Abfall der Kreuzkorrelationsfunktion, DCF(B1, B2), bzw. der Autokorrelationsfunktionen DCF(B1, B1) und DCF(B2,B2), für eine Verschiebung von jeweils einem Pixel nach oben, unten, rechts und links kann dabei folgendermaßen berechnet werden: D C F ( B i , B j ) = 1 4 { C F ( B i , B j ) [ x 0 + 1, y 0 ] + C F ( B i , B j ) [ x 0 1, y 0 ] + C F ( B i , B j ) [ x 0 , y 0 + 1 ] + C F ( B i , B j ) [ x 0 , y 0 1 ] 4 C F ( B i , B j ) [ x 0 , y 0 ] } ,
    Figure DE102022001541B3_0023
    wobei x0 und y0 das zweidimensionale Pixel des Maximums der Korrelationsfunktion CF(Bi, Bj) beschreiben, welche durch C F ( B i , B j ) [ k , l ] = 1 ( M | k | ) ( N | l | ) m , n ( B i [ m , n ] B ¯ i ) ( B j [ m + k , n + l ] B ¯ j )
    Figure DE102022001541B3_0024
    definiert ist. Die Summation findet dabei über alle Pixel des Bildes mit den Positionen (m, n) statt. Dabei bezeichnet Bi[m,n] die Intensität des i-ten Bilds an der Position (m, n) und B i den Mittelwert der Intensität über alle Pixel des i-ten Bildes. Anstatt des Maximums x0 und y0 der Korrelationsfuntkion CF(Pi, Pj) kann stattdessen auch das Pixel ohne Verschiebung gewählt werden, d.h. x0 = 0 und y0 = 0. M und N beziehen sich hier auf die Größe der Bilder in Pixeln (M x N Pixel).
  • Ausführungsbeispiel für die Definition bzw. Quantifizierung einer Ähnlichkeit zweier Bilder anhand der Klassifizierungswahrscheinlichkeit eines Klassifikators (z.B. neuronales Netzwerk oder anderweitiges „machine-learnino“-Modell):
  • Ein Klassifikator zur Quantifizierung der Ähnlichkeit zweier Bilder könnte z.B. ein tiefes „convolutional neural network“ sein, welches z.B. anhand bereits bestehender Bilderdatenbanken (z.B. „ImageNet“) vortrainiert wurde, und dessen letzte Schichten mit Hilfe eines Datensatzes, welcher die Ausgangsbilder mit ihren korrekten Zuordnungen (sog. „labels“) enthält, trainiert wurden, um die Ausgangsbilder korrekt zuzuordnen. Im Ausführungsbeispiel der 1a bis 3 wären das also z.B. das Originalbild von Kermit mit dem Label „Kermit“ und das Originalbild von Ms. Piggy mit dem Label „Ms. Piggy“, sowie typischerweise weitere Ausgangsbilder. Das künstliche neuronale Netzwerk wird mit dem Ziel trainiert, aus den Ausgangsbildern das Label vorherzusagen, also eine typische Klassifikationsaufgabe zu lösen. Im gezeigten Ausführungsbeispiel der 1a bis 3 wären die verschiedenen möglichen Klassen, unter denen sich „Kermit“ und „Ms. Piggy“ befinden, in einer sogenannten „one-hot“ Darstellung vorhanden, d.h. z.B. „Kermit“ = (1, 0, 0, ...) und „Ms. Piggy“ = (0, 1, 0, 0, ...). Der vom künstlichen neuronalen Netzwerk ausgegebene Vektor kann also mit Hilfe der während des Trainings verwendeten „Loss-function“ (typischerweise ist das die „categorical cross-entropy“) als Vektor der Wahrscheinlichkeiten für die Klassifikation des in die Eingabeschicht eingespeisten Bildes in die in Frage kommenden Klassen (als „one-hot“ Darstellung) interpretiert werden.
  • Wird z.B. das Ausgangsbild von Kermit in das Netzwerk eingespeist, dann kann z.B. ein Ausgabevektor (0.96, 0.05, 0.06, 0.01, ...) ausgegeben werden. Wird das Ausgangsbild von Ms. Piggy in das Netzwerk eingespeist, dann ergibt sich z.B. der Ausgabevektor (0.03, 0.92, 0.08, 0.02, ...). Die hier verwendeten Zahlenwerte dienen lediglich als Beispiel. Wird ein beliebiges anders Bild in das Netzwerk eingespeist, dann gibt das Netzwerk einen Ausgabevektor aus, dessen k-tes Element als Ähnlichkeit des k-ten Ausgangsbilds mit dem gefilterten Bild, bzw. die Erkennbarkeit des k-ten Ausgangsbilds in dem gefilterten Bild aufgefasst werden kann. Das beliebige andere Bild kann dabei ein zu einer ersten optisch induzierten Unschärfe zugeordnetes gefiltertes Bild sein, bei welchem zusätzlich zur Filterung mit einer Filterfunktion der Effekt der Betrachtung durch eine zweite optisch induzierte Unschärfe simuliert wurde. Das k-te Element des Ausgabevektors kann als die Erkennbarkeit des k-ten Ausgangsbilds im zur ersten optisch induzierten Unschärfe zugeordneten gefilterten Bild bei Betrachtung durch die zweite optisch induzierte Unschärfe aufgefasst werden.

Claims (14)

  1. Visuelles Objekt (100) zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden, umfassend zumindest zwei unterschiedliche, zu einem Testbild vereinte, gefilterte Bilder, wobei jedes der gefilterten Bilder eines von zumindest zwei vorgegebenen unterschiedlichen Ausgangsbildern repräsentiert und mit einem für eine vorgegebene optisch induzierte Unschärfe spezifischen Filter versehen ist, wobei die zumindest zwei gefilterten Bilder ein erstes gefiltertes Bild F1(B1) und ein zweites gefiltertes Bild F2(B2) umfassen, wobei das erste gefilterte Bild F1(B1) ein mit einem ersten Filter F1 gefiltertes erstes Ausgangsbild B1 darstellt, wobei das zweite gefilterte Bild F2(B2) ein mit einem zweiten Filter F2 gefiltertes zweites Ausgangsbild B2, welches sich vom ersten Ausgangsbild B1 unterscheidet, darstellt, und wobei eine Ähnlichkeit S111 des ersten gefilterten Bildes F1(B1) mit seinem Ausgangsbild B1 bei Betrachtung mit einer ersten Unschärfe P1 größer ist als eine Ähnlichkeit S212 des bei der ersten Unschärfe P1 betrachteten zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2.
  2. Visuelles Objekt (100) nach Anspruch 1, wobei jedes der gefilterten Bilder mit einem für eine vorgegebene optisch induzierte Unschärfe spezifischen Filter derart versehen ist, dass auf dem Testbild - bei Betrachtung mit einer ersten vorgegebenen optisch induzierten Unschärfe ein erstes der zumindest zwei Ausgangsbilder besser erkennbar ist als jedes der restlichen Ausgangsbilder, welches sich vom ersten Ausgangsbild unterscheidet, und - bei Betrachtung mit einer zweiten vorgegebenen optisch induzierten Unschärfe ein zweites der zumindest zwei Ausgangsbilder besser erkennbar ist als jedes der restlichen Ausgangsbilder, welches sich vom zweiten Ausgangsbild unterscheidet.
  3. Visuelles Objekt (100) nach Anspruch 1 oder 2, wobei jedes der gefilterten Bilder mit einem für eine vorgegebene optisch induzierte Unschärfe spezifischen Filter derart versehen ist, dass das gefilterte Bild bei Betrachtung mit der vorgegebenen spezifischen optisch induzierten Unschärfe mit seinem repräsentierten Ausgangsbild eine vorgegebene Ähnlichkeit und/oder eine vorgegebene Erkennbarkeit, insbesondere eine vorgegebene minimale Ähnlichkeit und/oder eine vorgegebene minimale Erkennbarkeit, aufweist.
  4. Visuelles Objekt (100) nach einem der vorangehenden Ansprüche, wobei gilt: S 111 > S 121 ;
    Figure DE102022001541B3_0025
    und/oder S 222 > S 121 ;
    Figure DE102022001541B3_0026
    und/oder S 222 > S 212 ;
    Figure DE102022001541B3_0027
    wobei S111 die Ähnlichkeit des bei der ersten Unschärfe P1 betrachteten ersten gefilterten Bildes F1(B1) mit dessen Ausgangsbild B1 ist, wobei S222 die Ähnlichkeit des bei einer zweiten Unschärfe P2 betrachteten zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2 ist, wobei S121 die Ähnlichkeit des bei der zweiten Unschärfe P2 betrachteten ersten gefilterten Bildes F1(B1) mit dessen Ausgangsbild B1 ist, und wobei S212 die Ähnlichkeit des bei der ersten Unschärfe P1 betrachteten zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2 ist.
  5. Visuelles Objekt (100) nach einem der vorangehenden Ansprüche, wobei ferner gilt: S 112 < S 111  und S 112 < S 222 ;
    Figure DE102022001541B3_0028
    und/oder S 122 < S 111  und S 122 < S 222 ;
    Figure DE102022001541B3_0029
    wobei S111 die Ähnlichkeit des bei der ersten Unschärfe P1 betrachteten ersten gefilterten Bildes F1(B1) mit dessen Ausgangsbild B1 ist, wobei S222 die Ähnlichkeit des bei einer zweiten Unschärfe P2 betrachteten zweiten gefilterten Bildes F2(B2) mit dessen Ausgangsbild B2 ist, wobei S112 die Ähnlichkeit des bei der ersten Unschärfe P1 betrachteten ersten gefilterten Bildes F1(B1) mit dem Ausgangsbild B2 ist, und wobei S122 die Ähnlichkeit des bei der zweiten Unschärfe P2 betrachteten ersten gefilterten Bildes F1(B1) mit dem Ausgangsbild B2 ist.
  6. Visuelles Objekt (100) nach einem der vorangehenden Ansprüche, wobei die zumindest zwei gefilterten Bilder nebeneinander und/oder überlappend, insbesondere zumindest teilweise übereinander liegend, angeordnet sind.
  7. Visuelles Objekt (100) nach einem der vorangehenden Ansprüche, wobei die Filter an durchschnittliche Aberrationen höherer Ordnung eines Auges angepasst sind; oder wobei die Filter an individuelle Aberrationen höherer Ordnung zumindest eines Auges des Probanden angepasst sind.
  8. Verfahren zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden, umfassend: - Bereitstellen eines visuellen Objekts (100) gemäß einem der vorangehenden Ansprüche, wobei das Bereitstellen des visuellen Objekts ein Darstellen des visuellen Objekts umfasst, und/oder wobei das visuelle Objekt dem Probanden präsentiert wird.
  9. Verfahren nach Anspruch 8, wobei das Bereitstellen eines visuellen Objekts (100) umfasst: - Bereitstellen von zumindest zwei Ausgangsbildern (B1, B2); - Erzeugen von zumindest zwei gefilterten Erkennungsbildern durch Anwenden von für eine vorgegebene optisch induzierte Unschärfe spezifische Filter auf die zumindest zwei Ausgangsbilder derart, dass jedes gefilterte Erkennungsbild einem der zumindest zwei Ausgangsbilder zugeordnet ist, und dass bei Betrachtung der gefilterten Erkennungsbilder mit der vorgegebenen optisch induzierten Unschärfe jedes gefilterte Erkennungsbild eine vorgegebene Ähnlichkeit, insbesondere eine vorgegebene minimale Ähnlichkeit, mit seinem zugeordneten Ausgangsbild aufweist.
  10. Verfahren nach Anspruch 8 oder 9, wobei das Bereitstellen des visuellen Objekts (100) ein Bestimmen des für eine vorgegebene optisch induzierte Unschärfe spezifischen Filters für jedes Ausgangsbild umfasst, und wobei das Bestimmen des für eine vorgegebene optisch induzierte Unschärfe spezifischen Filters für jedes Ausgangsbild ein Berechnen einer für die jeweilige optisch induzierte Unschärfe zugehörige optische Übertragungsfunktion umfasst.
  11. Verfahren nach einem der Ansprüche 8 bis 10, wobei das Bereitstellen des visuellen Objekts (100) folgende Schritte umfasst: - Filtern einer Vielzahl N von unterschiedlichen Ausgangsbildern Bi mit 1 ≤ i ≤ N, für eine Vielzahl M von optisch induzierten Unschärfen Pj mit 1 ≤ j ≤ M, wobei M und N jeweils eine positive ganze Zahl mit M < N ist, und - Auswählen derjenigen gefilterten Bilder Fj(Bi), deren Ähnlichkeit Sii zu den Ausgangsbildern Bi bei Betrachtung mit einer optisch induzierten Unschärfe Pi einen ersten Schwellenwert überschreitet, und deren Ähnlichkeit Sij zu den anderen Ausgangsbildern Bj mit j ≠ i bei Betrachtung mit einer optisch induzierten Unschärfe Pi einen zweiten Schwellenwert unterschreitet.
  12. Verfahren nach Anspruch 11, wobei das Auswählen von gefilterten Bildern eine Optimierung über alle Teilmengen mit M Ausgangsbildern darstellt, wobei die Optimierung vorzugsweise durch ein Maximieren einer Zielfunktion durchgeführt wird, und wobei die Zielfunktion insbesondere wie folgt definiert ist: i j k w i j k ( 2 δ i j δ i k 1 ) S i j k ,
    Figure DE102022001541B3_0030
    wobei δ das Kronecker-Symbol darstellt und wijk Gewichte sind mit wijk ≥ 0 und Σijkwijk > 0.
  13. Verfahren nach einem der Ansprüche 8 bis 12, ferner umfassend: - Auswerten einer Reaktion des Probanden auf das visuelle Objekt (100), wobei das Auswerten insbesondere -- ein Bestimmen einer Ametropie des Probanden, und/oder -- ein Bestimmen der Sensitivität des Probanden gegenüber einer optisch induzierten Unschärfe, und/oder -- ein Bestimmen eines für den Probanden optimalen Filters umfasst.
  14. Computerprogrammprodukt umfassend computerlesbare Anweisungen, welche, wenn geladen in einen Speicher eines Computers und ausgeführt von dem Computer, bewirken, dass der Computer ein Verfahren gemäß einem der Ansprüche 8 bis 13 durchführt.
DE102022001541.2A 2022-05-03 2022-05-03 Visuelles Objekt, Verfahren und Computerprogrammprodukt zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden Active DE102022001541B3 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022001541.2A DE102022001541B3 (de) 2022-05-03 2022-05-03 Visuelles Objekt, Verfahren und Computerprogrammprodukt zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden
PCT/EP2023/060955 WO2023213645A1 (de) 2022-05-03 2023-04-26 Visuelles objekt, verfahren und computerprogrammprodukt zum ermitteln einer oder mehrerer seheigenschaften eines probanden

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022001541.2A DE102022001541B3 (de) 2022-05-03 2022-05-03 Visuelles Objekt, Verfahren und Computerprogrammprodukt zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden

Publications (1)

Publication Number Publication Date
DE102022001541B3 true DE102022001541B3 (de) 2023-08-24

Family

ID=86382734

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022001541.2A Active DE102022001541B3 (de) 2022-05-03 2022-05-03 Visuelles Objekt, Verfahren und Computerprogrammprodukt zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden

Country Status (2)

Country Link
DE (1) DE102022001541B3 (de)
WO (1) WO2023213645A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6493023B1 (en) 1999-03-12 2002-12-10 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for evaluating the visual quality of processed digital video sequences
WO2006079115A2 (en) 2005-01-24 2006-07-27 Usa As Represented By The Administration Of The Nasa Spatial standard observer
EP2243419B1 (de) 2009-04-24 2012-08-15 Ignaz Alois Stuetz Integrale und differentiale visuelle Objekte zur Erhebung und Optimierung des Sehvermögens
WO2013087212A1 (de) 2011-12-13 2013-06-20 Rodenstock Gmbh Helligkeitsabhängige anpassung eines brillenglases
JP2015043967A (ja) 2013-08-27 2015-03-12 ジョンソン・アンド・ジョンソン・ビジョン・ケア・インコーポレイテッド 低円柱乱視矯正の効果を実証するための手段及び方法
WO2019034525A1 (de) 2017-08-14 2019-02-21 Rodenstock Gmbh Optimierung eines brillenglases unter berücksichtigung eines visusmodells

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4863759B2 (ja) * 2006-04-28 2012-01-25 株式会社ニデック 検眼装置
EP3744227A1 (de) * 2019-05-31 2020-12-02 Essilor International Instrument zur binokularen refraktion, satz aus testbildern, verfahren zur binokularen refraktion und computerprogramm im zusammenhang damit

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6493023B1 (en) 1999-03-12 2002-12-10 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method and apparatus for evaluating the visual quality of processed digital video sequences
WO2006079115A2 (en) 2005-01-24 2006-07-27 Usa As Represented By The Administration Of The Nasa Spatial standard observer
US7783130B2 (en) 2005-01-24 2010-08-24 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Spatial standard observer
EP2243419B1 (de) 2009-04-24 2012-08-15 Ignaz Alois Stuetz Integrale und differentiale visuelle Objekte zur Erhebung und Optimierung des Sehvermögens
WO2013087212A1 (de) 2011-12-13 2013-06-20 Rodenstock Gmbh Helligkeitsabhängige anpassung eines brillenglases
JP2015043967A (ja) 2013-08-27 2015-03-12 ジョンソン・アンド・ジョンソン・ビジョン・ケア・インコーポレイテッド 低円柱乱視矯正の効果を実証するための手段及び方法
WO2019034525A1 (de) 2017-08-14 2019-02-21 Rodenstock Gmbh Optimierung eines brillenglases unter berücksichtigung eines visusmodells

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
A. B. Watson et al: „A standard model for foveal detection of spatial contrast", Journal of Vision (2005) 5, Seiten 717-740
A. B. Watson et al: „Blur clarified: A review and synthesis of blur discrimination", Journal of Vision (2011) 11(5):10, Seiten 1-23
A. B. Watson et al: „Modeling acuity for optotypes varying in complexity", Journal of Vision (2012) 12(10):19, Seiten 1-19
A. B. Watson et al: „Predicting visual acuity from wavefront aberrations", Journal of Vision (2008) 8 (4): 17, Seiten 1-19
D. Kordek, L.K. Young und J. Kremláček: „Comparison between optical and digital blur using near visual acuity", Scientific Reports 11, 3437 (2021)
Fu-Chung Huang: „A Computational Light Field Display for Correcting Visual Aberrations", EECS Department, University of California, Berkeley, 2013
S. Ravikumar et al: „Phase changes induced by optical aberrations degrade letter and face acuity", Journal of Vision (2010) 10(14): 18, Seiten 1-12

Also Published As

Publication number Publication date
WO2023213645A1 (de) 2023-11-09

Similar Documents

Publication Publication Date Title
EP3168783B1 (de) Verfahren und vorrichtung zum auswerten von ergebnissen einer blickerfassung
EP2157903B1 (de) Verfahren zur wahrnehmungsmessung
EP3730998A1 (de) Bestimmung mindestens eines optischen parameters eines brillenglases
WO2017153354A1 (de) Verfahren und vorrichtung zum bewerten von blickabbildungen
EP3955800B1 (de) Bestimmung eines refraktionsfehlers eines auges
DE102018205561A1 (de) Vorrichtung zur Klassifizierung von Signalen
Brigden A tachistoscopic study of the differentiation of perception.
DE102022001541B3 (de) Visuelles Objekt, Verfahren und Computerprogrammprodukt zum Ermitteln einer oder mehrerer Seheigenschaften eines Probanden
EP3586721B1 (de) Verfahren zum optimieren eines optischen hilfsmittels mittels automatischer bestimmung subjektiver sehleistung
EP3873322B1 (de) Ortsbezogene quantifizierung von halo- und streulicht-beeinträchtigung
EP0060986A1 (de) Sehprobe zur Prüfung der binokularen Lesefähigkeit
DE112019001404T5 (de) Gesichtsfeld-untersuchungsvorrichtung, verfahren zu deren steuerung und gesichtsfeld-untersuchungsprogramm
DE10317142A1 (de) Automatische Trefferzählung bei der numerischen Röntgenologie, insbesondere bei der Mammografie
DE212022000122U1 (de) Stereoskopische Anzeigevorrichtung auf Basis einer Strahlenteilungsvorrichtung und Testvorrichtung
EP3830754B1 (de) Verfahren und vorrichtung zum ermitteln einer erklärungskarte
DE102005054691A1 (de) Verfahren und Vorrichtung zur Bestimmung der Sehschärfe eines Auges
DE102022101108B4 (de) Verfahren zum Ermitteln mindestens einer Eigenschaft von mindestens einem Auge einer Person
AT503741B1 (de) Verfahren zur analytischen erfassung einer macula degeneration
DE102021128808B4 (de) Computerprogramm und Trainingsverfahren zur Nutzung eines dezentralen retinalen Fixationsortes
EP3830752B1 (de) Verfahren und vorrichtung zum ermitteln einer erklärungskarte
AT506572B1 (de) Verfahren zur messung der visuellen aufmerksamkeit bei der betrachtung von statischen und dynamischen visuellen szenen
DE102021131406A1 (de) Verfahren zur Steuerung von Blickpfaden eines Betrachters
DE202021106061U1 (de) System und Computerprogramm zur Nutzung eines dezentralen retinalen Fixationsortes
Jenßen et al. Early Childhood Teacher Students’ Mathematics Anxiety: Relevant for Professional Knowledge and Perception of Mathematics in Preschool?
DE4131799A1 (de) Verfahren, testzeichen und vorrichtung zur durchfuehrung einer rechnergesteuerten subjektiven refraktionsbestimmung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division