ES2881340T3 - Dispositivo, método y sistema oftálmico - Google Patents

Dispositivo, método y sistema oftálmico Download PDF

Info

Publication number
ES2881340T3
ES2881340T3 ES15751443T ES15751443T ES2881340T3 ES 2881340 T3 ES2881340 T3 ES 2881340T3 ES 15751443 T ES15751443 T ES 15751443T ES 15751443 T ES15751443 T ES 15751443T ES 2881340 T3 ES2881340 T3 ES 2881340T3
Authority
ES
Spain
Prior art keywords
eye
light
image
matrix
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15751443T
Other languages
English (en)
Inventor
Richard Gordon Walmsley
David James Lockwood
Michael Andrew Coote
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INGENEUS Pty Ltd
Original Assignee
INGENEUS Pty Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2014900549A external-priority patent/AU2014900549A0/en
Application filed by INGENEUS Pty Ltd filed Critical INGENEUS Pty Ltd
Application granted granted Critical
Publication of ES2881340T3 publication Critical patent/ES2881340T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/032Devices for presenting test symbols or characters, e.g. test chart projectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0008Apparatus for testing the eyes; Instruments for examining the eyes provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0083Apparatus for testing the eyes; Instruments for examining the eyes provided with means for patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/024Subjective types, i.e. testing apparatus requiring the active assistance of the patient for determining the visual field, e.g. perimeter types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/13Ophthalmic microscopes
    • A61B3/135Slit-lamp microscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Un dispositivo (100) de captura de imágenes y pruebas oculares para analizar y examinar un ojo (192), que comprende: un dispositivo (106) de visualización de imágenes para visualizar una imagen con el fin de que sea vista por un ojo que ha de ser analizado; un dispositivo (102) de captura de imágenes para capturar una imagen (108) del ojo (192) que ha de ser examinado; un divisor (110) de haz posicionado para dividir la luz entre el dispositivo (102) de captura de imágenes y el dispositivo (106) de visualización de imágenes; y una matriz (126) de iluminación para iluminar el ojo (192) que ha de ser analizado y del que se han de obtener imágenes, comprendiendo la matriz (126) de iluminación una primera matriz (128) posicionada en un primer ángulo con respecto al ojo (192) y una segunda matriz (130) posicionada en un segundo ángulo con respecto al ojo (192), y comprendiendo la primera matriz (128) y la segunda matriz (130) dos o más tipos de luz diferentes, estando incluidas la primera matriz (128) y la segunda matriz (130) en cada caso en un alojamiento (142) de iluminación respectivo, comprendiendo cada uno de los dos o más tipos de luz diferentes fuentes (137a, 139a) de luz inferiores y fuentes (137b, 139b) de luz superiores respectivas que se pueden iluminar individualmente de forma complementaria en una serie de imágenes capturadas para poder eliminar o al menos reducir un artefacto de luz.

Description

DESCRIPCIÓN
Dispositivo, método y sistema oftálmico
Campo de la invención
La presente invención se refiere a un dispositivo, un método y un sistema oftálmico. Más particularmente, esta invención se refiere a un dispositivo, un método y un sistema oftálmico para obtener una imagen del ojo y datos oftálmicos adecuados para la comunicación a través de una red.
Antecedentes de la invención
En Australia y muchos otros países, las áreas rurales y remotas adolecen de una falta de cobertura de servicios oftálmicos.
El número de lesiones oculares, si bien tiene un resultado grave, solo constituye un pequeño porcentaje de las presentaciones en el Servicio de Urgencias. Por lo tanto, dotar de recursos a los Servicios de Urgencias para este tipo de especialidad es difícil y no es rentable.
La oftalmología es una de las especialidades más caras para establecer una consulta debido al costo de los equipos y dispositivos. Además, el equipo que utilizan los oftalmólogos para el diagnóstico es complejo y difícil de usar. Aunque los médicos en formación reciben cierta orientación en relación con estos equipos complejos, normalmente la formación es breve y se olvida rápidamente. Además, pocos oftalmólogos están disponibles para los Servicios de Urgencias o para los pacientes públicos.
Clínicamente, el ojo es algo en lo que los clínicos de origen no oftálmico son reticentes a trabajar. Esto se debe a que los ojos se perciben como sensibles y fácilmente alterables.
Otra complicación del tratamiento de los pacientes oftálmicos cosiste en que, desde la perspectiva del paciente, el dolor de una lesión ocular puede no estar directamente relacionado con la gravedad del problema subyacente. Esto se suma a la complejidad de cualquier diagnóstico y tratamiento. El estado de la técnica más cercano, el documento US 2005/0203422 A1, enseña la combinación de un reflectómetro de baja coherencia acoplado para iluminar un ojo; un interferómetro de baja coherencia acoplado para iluminar el ojo; un sistema de cámara y LED acoplado para medir una imagen virtual de los LED reflejados por el ojo; y un procesador acoplado para recibir datos del reflectómetro de baja coherencia, el interferómetro de baja coherencia y el sistema de cámara, y para calcular al menos un parámetro del ojo. Dicho documento simplemente combina algunas tecnologías conocidas para dar a conocer un único aparato compacto para medir todos los parámetros requeridos tanto por cirugías refractivas como por cirugías de cataratas. En los documentos US 2005/110951A1 y US 2007/031002A1 se describen otros dispositivos de examen y prueba ocular de la técnica anterior.
Compendio de la invención
La presente invención se refiere en líneas generales a un método y dispositivo para obtener datos oftálmicos que pueden ser utilizados para realizar una evaluación de una enfermedad, lesión o afección ocular o sospecha de enfermedad, lesión o afección ocular de forma remota.
En otra forma en líneas generales, la invención se refiere a un dispositivo para capturar una o más imágenes de un ojo y realizar una o más evaluaciones del ojo. La imagen capturada y la evaluación se pueden comunicar a una ubicación remota mediante una red para permitir la evaluación remota del ojo. La imagen capturada puede ser obtenida por un usuario que opera el dispositivo de forma local o remota. Una ventaja preferida del dispositivo, el método y el sistema de la presente invención consiste en que el dispositivo es fácil de usar y el sistema y el método hacen un uso eficiente de la experiencia oftalmológica.
En un primer aspecto, la invención proporciona un dispositivo de prueba ocular y captura de imágenes para analizar y examinar un ojo, que comprende:
un dispositivo de visualización de imágenes para visualizar una imagen con el fin de que sea vista por un ojo que ha de ser analizado;
un dispositivo de captura de imágenes para capturar una imagen del ojo que ha de ser examinado;
un divisor de haz posicionado para dividir la luz entre el dispositivo de captura de imágenes y el dispositivo de visualización de imágenes; y
una matriz de iluminación para iluminar el ojo que ha de ser analizado y del que se han de obtener imágenes, comprendiendo la matriz de iluminación una primera matriz posicionada en un primer ángulo con respecto al ojo y una segunda matriz posicionada en un segundo ángulo con respecto al ojo, y comprendiendo la primera matriz y la segunda matriz dos o más tipos de luz diferentes, estando incluidas la primera matriz y la segunda matriz en cada caso en un alojamiento de iluminación respectivo, comprendiendo cada uno de los dos o más tipos de luz diferentes fuentes de luz inferiores y fuentes de luz superiores respectivas que se pueden iluminar individualmente de forma complementaria en una serie de imágenes capturadas para poder eliminar o al menos reducir sustancialmente un artefacto de luz. En una realización del primer aspecto, la imagen visualizada es vista por el ojo o es visible para el ojo al mismo tiempo que se captura la imagen capturada.
Según otra realización del primer aspecto, los dos o más tipos de luz comprenden luz blanca y luz con una longitud de onda definida.
En una realización del primer aspecto, los dos o más tipos de luz pueden comprender una fuente de luz de hendidura. Según otra realización del primer aspecto, la luz con una longitud de onda definida puede comprender luz coloreada. La luz coloreada puede comprender o consistir en luz azul.
En otra realización más del primer aspecto, los tipos de luz comprenden una fuente de luz azul, una fuente de luz blanca y una fuente de luz de hendidura.
La intensidad de la luz iluminada de una cualquiera de las fuentes de luz se puede variar de forma independiente. Cuando la fuente de luz comprende un LED, la intensidad se puede variar variando la corriente.
Las fuentes de luz iluminadas de forma complementaria pueden comprender los pares complementarios de una fuente de luz inferior en la primera matriz y una fuente de luz superior en la segunda matriz, o una fuente de luz superior en la primera matriz y una fuente de luz inferior en la segunda matriz.
Cada uno de los dos o más tipos de luz diferentes se puede iluminar de forma independiente.
La fuente de luz azul puede comprender uno o más LED azules y la fuente de luz blanca puede comprender uno o más LED blancos.
El o los LED azules pueden comprender uno o más LED azules inferiores y uno o más LED azules superiores. El o los LED blancos pueden comprender uno o más LED blancos inferiores y uno o más LED blancos superiores. El o los LED azules pueden comprender dos o más LED azules en alineación paralela.
El o los LED blancos pueden comprender dos o más LED blancos en alineación paralela.
Los pares complementarios de fuentes de luz pueden funcionar para iluminar el ojo en una serie de imágenes capturadas de modo que un artefacto de luz se produzca en un lugar diferente en diferentes imágenes de la serie. La primera matriz y la segunda matriz pueden estar opuestas diagonalmente.
El dispositivo puede comprender además un dispositivo de captura de imágenes para capturar la serie de imágenes. El dispositivo puede comprender además un procesador de imágenes para procesar la serie de imágenes con el fin de producir una imagen compuesta con eliminación o eliminación sustancial del artefacto de luz.
El dispositivo puede comprender además una pantalla de vista previa. La pantalla de vista previa puede estar incluida en un dispositivo de visualización conectado de forma inalámbrica al dispositivo.
El dispositivo puede comprender además un controlador para controlar la imagen visualizada en el dispositivo de visualización de imágenes y/o controlar la captura de imágenes por el dispositivo de captura de imágenes.
El controlador también puede controlar la iluminación de la matriz de iluminación.
El dispositivo de visualización de imágenes puede mostrar uno o más estímulos de prueba de función visual.
Los estímulos de prueba de función visual pueden comprender una o más de una prueba de agudeza visual, una prueba de campo, una prueba de distorsión, una prueba de visión de colores, una prueba de sensibilidad de contraste y/o una prueba de fusión de parpadeo. La prueba de distorsión puede comprender una rejilla de Amsler.
El dispositivo de captura de imágenes puede comprender una o más matrices de sensores CMOS o CCD.
El dispositivo comprende además un espejo dispuesto entre el divisor de haz y uno o más del dispositivo de captura de imágenes y el dispositivo de visualización de imágenes.
El dispositivo también comprende una o más lentes. La o las lentes pueden estar situadas entre el ojo y el divisor de haz; entre el divisor de haz y el dispositivo de captura de imágenes; y/o entre el divisor de haz y el dispositivo de visualización de imágenes.
El dispositivo puede comprender además una o más entradas para introducir detalles del operador, datos del paciente y/o datos de respuesta de la prueba ocular.
Según otra realización más del primer aspecto, el dispositivo está conectado a una red para la comunicación de datos de exploración oftálmica a una ubicación remota y, opcionalmente, para recibir una determinación basada en una revisión de los datos de exploración oftálmica en la ubicación remota.
Los datos de exploración oftálmica pueden comprender una o más imágenes capturadas y, opcionalmente, uno o más de los detalles del operador; datos del paciente y datos de respuesta de la prueba ocular.
En otra realización del primer aspecto, el procesador de imágenes también puede procesar la serie de imágenes o la imagen compuesta usando un algoritmo para detectar una enfermedad o afección que requiera derivación y/o tratamiento.
En realizaciones del primer aspecto en las que se detecta una enfermedad o afección que requiere derivación y/o tratamiento, el dispositivo se puede conectar a un ordenador remoto en el que se puede realizar la derivación y/o el tratamiento.
Según otra realización del primer aspecto, el dispositivo comprende un aparato quirúrgico o terapéutico que es controlado a través de la red por un usuario en un ordenador remoto.
El aparato quirúrgico o terapéutico puede comprender un láser que puede ser controlado por un usuario utilizando un ordenador remoto para aplicar luz láser al ojo. Preferiblemente, el aparato quirúrgico o terapéutico es uno que no entra en contacto físico con el ojo.
En un segundo aspecto, la invención proporciona un método para obtener datos de prueba ocular y una o más imágenes de un ojo, comprendiendo el método:
iluminar el ojo que ha de ser analizado y del que se han de obtener imágenes con un dispositivo de iluminación que comprende una primera matriz de iluminación posicionada en un primer ángulo con respecto al ojo y una segunda matriz de iluminación posicionada en un segundo ángulo con respecto al ojo, comprendiendo la primera matriz de iluminación y la segunda matriz de iluminación dos o más tipos de luz diferentes, y estando incluidas la primera matriz y la segunda matriz en cada caso en un alojamiento de iluminación respectivo, comprendiendo cada uno de los dos o más tipos de luz diferentes fuentes de luz inferiores y fuentes de luz superiores respectivas, y comprendiendo el método además iluminar individualmente de forma complementaria las fuentes de luz inferiores y fuentes de luz superiores respectivas en una serie de imágenes capturadas de tal modo que un artefacto de luz se elimine o al menos se reduzca sustancialmente;
visualizar una imagen para que la vea el ojo en un dispositivo de visualización de imágenes;
capturar una imagen del ojo con un dispositivo de captura de imágenes; y
dividir la luz entre el dispositivo de captura de imágenes y el dispositivo de visualización de imágenes, siendo vista por el ojo la imagen visualizada al mismo tiempo que se captura la imagen capturada.
El método puede comprender además visualizar la imagen para que sea vista por el ojo al mismo tiempo que se captura la imagen capturada.
Según una realización del segundo aspecto, los dos o más tipos de luz comprenden luz blanca y luz con una longitud de onda definida.
En una realización del segundo aspecto, los dos o más tipos de luz pueden comprender además una fuente de luz de hendidura.
En otra realización del segundo aspecto, los tipos de luz comprenden una fuente de luz azul, una fuente de luz blanca y una fuente de luz de hendidura.
La luz con una longitud de onda definida puede comprender luz coloreada. La luz coloreada puede comprender o consistir en luz azul.
Cada uno de los dos o más tipos de luz diferentes se puede iluminar de forma independiente.
La intensidad de la luz iluminada de cualquiera de las fuentes de luz se puede variar de forma independiente. Cuando la fuente de luz comprende un LED, la intensidad se puede variar variando la corriente.
Las fuentes de luz iluminadas de forma complementaria pueden comprender los pares complementarios de una fuente de luz inferior en la primera matriz y una fuente de luz superior en la segunda matriz, o una fuente de luz superior en la primera matriz y una fuente de luz inferior en la segunda matriz.
Cuando se captura una serie de imágenes, el método puede comprender además ver dos o más imágenes de la serie para ver la totalidad del objeto.
El método puede comprender además procesar la serie de imágenes para producir una imagen compuesta que no comprende o no comprende sustancialmente un artefacto de luz.
La fuente de luz azul puede comprender uno o más LED azules y la fuente de luz blanca puede comprender uno o más LED blancos.
El o los LED azules pueden comprender uno o más LED azules inferiores y uno o más LED azules superiores. El o los LED blancos pueden comprender uno o más LED blancos inferiores y uno o más LED blancos superiores. El o los LED azules pueden comprender dos o más LED azules en alineación paralela.
El o los LED blancos pueden comprender dos o más LED blancos en alineación paralela.
Los pares complementarios de fuentes de luz pueden iluminar el ojo en una serie de imágenes capturadas de modo que un artefacto de luz se produzca en un lugar diferente en diferentes imágenes de la serie.
El par complementario de fuentes de luz puede comprender una fuente de luz inferior en la primera matriz y una fuente de luz superior en la segunda matriz, o una fuente de luz superior en la primera matriz y una fuente de luz inferior en la segunda matriz.
La primera matriz y la segunda matriz pueden estar opuestas diagonalmente.
Cada uno de los dos o más tipos de luz diferentes puede comprender fuentes de luz inferiores y fuentes de luz superiores respectivas que se pueden iluminar individualmente de forma complementaria en las diferentes imágenes de la serie.
El método del primer aspecto puede comprender además capturar la serie de imágenes con un dispositivo de captura de imágenes.
El método del segundo aspecto puede comprender además procesar la serie de imágenes con un procesador de imágenes para producir una imagen compuesta con eliminación o eliminación sustancial del artefacto de luz.
El método puede comprender además visualizar una pantalla de vista previa que muestra una imagen digital generada por el dispositivo de captura de imágenes. La pantalla de vista previa puede estar incluida en un dispositivo de visualización conectado de forma inalámbrica al dispositivo.
El método puede comprender además controlar con un controlador la imagen visualizada en el dispositivo de visualización de imágenes y/o la captura de imágenes por el dispositivo de captura de imágenes.
El método puede comprender además controlar la iluminación de la matriz de iluminación con el controlador.
El método puede comprender además visualizar uno o más estímulos de prueba de función visual en el dispositivo de visualización de imágenes.
Los estímulos de prueba de función visual pueden comprender uno o más de una prueba de agudeza visual, una prueba de campo, una prueba de distorsión, una prueba de visión del color, una prueba de sensibilidad de contraste y/o una prueba de fusión de parpadeo. La prueba de distorsión puede comprender una rejilla de Amsler.
El método puede comprender además introducir uno o más detalles del operador, datos del paciente y/o datos de respuesta de la prueba ocular.
Según otra realización del segundo aspecto, el método comprende además comunicar datos de exploración oftálmica a una ubicación remota a través de una red y, opcionalmente, recibir una determinación basada en la revisión de los datos de exploración oftálmica en la ubicación remota a través de la red.
En otra realización del segundo aspecto, el método comprende además procesar la serie de imágenes o la imagen compuesta usando un algoritmo para detectar una enfermedad o afección que requiera derivación y/o tratamiento. Cuando se detecta una enfermedad o afección que requiere derivación y/o tratamiento, el método puede comprender además la conexión a un ordenador remoto en el que se puede realizar la derivación y/o el tratamiento.
Según otra realización del segundo aspecto, el método comprende un usuario que controla un aparato quirúrgico o terapéutico que está alojado en el dispositivo, con un ordenador remoto a través de una red.
El aparato quirúrgico o terapéutico comprende un láser que se puede controlar usando un ordenador remoto para aplicar luz láser al ojo.
En un tercer aspecto, la invención proporciona un sistema para explorar a un paciente, comprendiendo el sistema: una entrada en la que se introducen los datos de respuesta de la prueba ocular y, opcionalmente, detalles del operador y/o datos del paciente, comprendiendo la entrada información de la prueba ocular;
un dispositivo de captura de imágenes para capturar una o más imágenes de un ojo del paciente, comprendiendo la o las imágenes capturadas información de la imagen del ojo;
un ordenador para proporcionar la información de la prueba ocular y la información de la imagen del ojo obtenidas a un ordenador remoto a través de una red;
el ordenador remoto para revisar la información de la prueba ocular y la información de la imagen del ojo obtenidas en una ubicación remota con respecto al ordenador y para introducir una determinación de una próxima línea de actuación basada en la revisión;
recibir en el ordenador a través de la red la próxima línea de actuación determinada.
En una realización del tercer aspecto, el dispositivo de captura de imágenes comprende el dispositivo del primer aspecto.
El sistema puede comprender además comunicar datos de exploración oftálmica a una ubicación remota a través de una red y, opcionalmente, recibir una determinación basada en la revisión de los datos de exploración oftálmica en la ubicación remota a través de la red.
Se puede aplicar un método para explorar a un paciente, comprendiendo el método:
introducir datos de respuesta de la prueba ocular y, opcionalmente, detalles del operador y/o datos del paciente en un ordenador, comprendiendo los datos de entrada información de la prueba ocular;
capturar con un dispositivo de captura de imágenes una o más imágenes de un ojo del paciente, comprendiendo la o las imágenes capturadas información de la imagen del ojo;
proporcionar con un ordenador la información de la prueba ocular y la información de la imagen del ojo obtenidas a un ordenador remoto a través de una red;
visualizar en un ordenador remoto la información de la prueba ocular y la información de la imagen del ojo obtenidas en una ubicación remota con respecto al ordenador para su revisión;
introducir en el ordenador remoto una determinación de una próxima línea de actuación basada en la revisión; y recibir en el ordenador a través de la red la próxima línea de actuación determinada.
La introducción y/o la captura se pueden realizar mediante el método del segundo aspecto.
Se puede prever un dispositivo de posicionamiento que comprenda:
una sección de recepción de cabeza separada de una base y dispuesta en ángulo con respecto a la misma; uno o más brazos de ajuste en el eje x, a lo largo del cual se puede mover un dispositivo acoplado para cambiar la posición del dispositivo acoplado con respecto a la sección de recepción de cabeza;
uno o más brazos de ajuste en el eje y, a lo largo del cual se puede mover el dispositivo acoplado para cambiar la posición del dispositivo acoplado con respecto a la sección de recepción de cabeza; y
uno o más brazos de ajuste en el eje z, a lo largo del cual se puede mover un dispositivo acoplado para cambiar la posición del dispositivo acoplado con respecto a la sección de recepción de cabeza.
El dispositivo acoplado puede comprender el dispositivo de prueba ocular y captura de imágenes del primer aspecto o el sistema para explorar a un paciente del tercer aspecto.
El dispositivo de posicionamiento puede estar motorizado para impulsar el movimiento a lo largo de uno o más ejes. En la realización motorizada, el dispositivo acoplado se puede posicionar en respuesta a una orden del usuario. La sección de recepción de cabeza puede estar dispuesta en un ángulo entre 5 y 35 grados; 10 y 30 grados; 15 y 25 grados; o a 20 grados.
Uno o más de los brazos de ajuste pueden comprender un ajuste fino y aproximado.
Se puede proporcionar una imagen o una serie de imágenes capturadas por el dispositivo del primer aspecto o el sistema del tercer aspecto.
Se puede proporcionar una imagen o una serie de imágenes capturadas mediante el método del segundo aspecto o del cuarto aspecto.
Cuando en esta memoria descriptiva se utilizan los términos "comprenden", "comprende", "que comprende", "incluyen", "incluye", "incluido" o "incluyendo", éstos deben interpretarse como una especificación de la presencia de las características indicadas, números enteros, etapas o componentes a los que se hace referencia, pero sin excluir la presencia o adición de otra u otras características, números enteros, etapas, componentes o grupos de los mismos. Además, cualquier referencia o afirmación de la técnica anterior proporcionada en la memoria descriptiva no debe considerarse como una admisión de que dicha técnica constituye, o debe entenderse que constituye, parte del conocimiento general común.
Breve descripción de las figuras
Para que la presente invención se pueda entender y poner en práctica fácilmente, ahora se hará referencia a las ilustraciones adjuntas, en las que los números de referencia similares se refieren a características similares y en las que:
La Figura 1A: muestra un diagrama esquemático que muestra una vista lateral de una realización de un dispositivo de prueba ocular y de captura de imágenes según una realización de la invención.
La Figura 1B: muestra un diagrama esquemático que muestra una realización en vista lateral de otra realización de un dispositivo de prueba ocular y captura de imágenes según la invención.
La Figura 2: muestra una vista frontal de un dispositivo según una realización de la invención.
La Figura 3A: es una fotografía que muestra un artefacto de luz LED que se extiende desde la parte inferior izquierda hasta la parte superior derecha.
La Figura 3B: es una fotografía que muestra un artefacto de luz LED que se extiende desde la parte superior izquierda hasta la parte inferior derecha.
La Figura 3C: es la misma fotografía mostrada en la Figura 3A con una línea superpuesta para ilustrar el ángulo del artificio de luz LED.
La Figura 3D: es la misma fotografía mostrada en la Figura 3B con una línea superpuesta para ilustrar el ángulo del artificio de luz LED.
La Figura 4: es una vista en perspectiva de un dispositivo según una realización de la invención.
La Figura 5: es una vista en planta de un dispositivo según una realización de la invención.
La Figura 6: es una vista lateral de un dispositivo según una realización de la invención.
La Figura 7A: es una vista frontal que muestra una sección A-A.
La Figura 7B: es una vista en sección a través de la sección A-A mostrada en la Figura 7A.
La Figura 8A y la Figura 8B: son diagramas esquemáticos de una realización de un ordenador de uso general adecuado para utilizarlo en una realización de la invención.
La Figura 9: es un diagrama de bloques que resume los componentes electrónicos en una realización de la invención. La Figura 10: muestra otra realización de un dispositivo según la invención.
La Figura 11A y la Figura 11B: muestran una realización de un dispositivo de posicionamiento según la invención. Descripción detallada de la invención
La siguiente descripción se refiere a realizaciones específicas de la presente invención y no pretende limitar en modo alguno el alcance de la presente invención a estas realizaciones específicas.
En la Figura 1A se muestra una realización de un dispositivo 100 de prueba ocular y captura de imágenes. Se muestra que el dispositivo 100 comprende un divisor 110 de haz posicionado entre una ventana 116 de visualización, en un lado, y un dispositivo 106 de visualización de imágenes y un dispositivo 102 de captura de imágenes, en el otro lado del divisor 110 de haz.
El dispositivo 106 de visualización de imágenes comprende una Pantalla de Cristal Líquido (LCD, por sus siglas en inglés) para presentar una imagen visualizada 104 (no mostrada) para verla con el ojo 192. En otras realizaciones, el dispositivo 106 de visualización de imágenes puede comprender otras pantallas adecuadas, por ejemplo, un diodo orgánico emisor de luz (OLED, por sus siglas en inglés) o un proyector. A partir de las enseñanzas de la presente memoria, un experto en la materia puede seleccionar fácilmente otros dispositivos 106 de visualización adecuados.
La imagen visualizada 104 puede comprender estímulos de prueba de función visual, por ejemplo una prueba de agudeza visual, una prueba de campo, una prueba de distorsión, una prueba de visión del color, una prueba de sensibilidad de contraste y/o una prueba de fusión de parpadeo. La prueba de agudeza visual puede comprender un optotipo aleatorio o una o más series de optotipos, o un gráfico tal como un gráfico logMAR, un gráfico de Snellen, un gráfico de Landolt C, una prueba de Lea y un gráfico de Jaeger. La prueba de agudeza puede comprender optotipos tales como una letra del alfabeto, un número, un símbolo geométrico, una imagen o símbolo simple. La prueba de distorsión puede comprender una rejilla de Amsler. Un experto en la materia puede seleccionar fácilmente otras imágenes visualizadas 104 adecuadas.
La imagen visualizada 104 es una imagen de alta resolución que se amplifica y proyecta con una lente 132 de visualización.
La imagen visualizada 104 se puede proyectar con un enfoque infinito. El enfoque infinito se logra mediante una lente 132 de visualización. En la realización mostrada en la Figura 1A, la lente 132 de visualización comprende una única lente. En otras realizaciones, la lente 132 comprende una serie de dos o más lentes.
El dispositivo 102 de captura de imágenes comprende una cámara en color de alta resolución DFK72AUC02-F para obtener imágenes digitales de alta resolución del ojo 192. El dispositivo 102 comprende una cámara digital que incluye una pluralidad de dispositivos de carga acoplada (CCD, por sus siglas en inglés). A partir de las enseñanzas del presente documento, un experto comprenderá fácilmente que se pueden usar otros dispositivos de captura de imágenes, incluidos los que comprenden uno o más sensores o conjuntos de sensores semiconductores de óxido metálico complementarios (CMOS, por sus siglas en inglés). A partir de las enseñanzas de la presente memoria, un experto en la materia puede seleccionar fácilmente otros dispositivos 102 de captura adecuados.
Entre el divisor 110 de haz y el dispositivo 102 de captura se encuentra la serie 134 de lentes de formación de imágenes. En la realización mostrada en la Figura 1A, la serie 134 de lentes de formación de imágenes comprende dos lentes. En otras realizaciones, la serie 134 de lentes de formación de imágenes comprende 1, 3, 4, 5, 6, 7, 8, 9, 10 o más lentes.
La serie 134 de lentes de formación de imágenes se dispone delante del dispositivo 102 de captura para cambiar el tamaño del ojo 192 en la imagen capturada 108 (no mostrada) de modo que se capture una imagen útil e informativa. La serie 134 de lentes de formación de imágenes también se puede utilizar para controlar si la imagen capturada 108 comprende una imagen retiniana o una imagen anterior.
El divisor 110 de haz divide la luz dentro de la cavidad óptica 118. La división de la luz mediante el divisor 110 de haz asegura que la luz dentro de la cavidad óptica 118 se desplaza de modo que una imagen visualizada en el dispositivo 106 de visualización de imágenes, la imagen visualizada 104, puede ser vista por el ojo 192 que está siendo examinado al mismo tiempo que se captura una imagen del ojo 192 mediante el dispositivo 102 de captura de imágenes, la imagen capturada 108.
El divisor 110 de haz se posiciona de modo que la luz incidente en el divisor 110 de haz del dispositivo 106 de visualización sea transmitida hacia el ojo 192 y la luz incidente del ojo 192 se refleje al dispositivo 102 de captura. En otras realizaciones, el divisor 110 de haz se dispone de modo que la luz del dispositivo 106 de visualización se refleje y la luz del ojo 192 se transmita. Es esta división de la luz incidente en luz reflejada y transmitida lo que permite que el ojo 192 vea la imagen visualizada 104 al mismo tiempo que se obtiene la imagen capturada 108 por medio del dispositivo 102 de captura.
Como se muestra en la Figura 7B el divisor 110 de haz comprende un revestimiento reflectante 111 que es parcialmente transmisivo a otras longitudes de onda de luz para permitir pruebas de visión usando el dispositivo 106 de visualización simultáneamente con la captura de una imagen capturada 108.
El divisor 110 de haz es un IBX-N-03871-01. A partir de las enseñanzas del presente documento, un experto en la materia puede seleccionar fácilmente un divisor de haz adecuado y situar el mismo correctamente en el dispositivo 100.
El dispositivo 100 de las Figuras 1B, 2, 4-6 y 7A-7B muestra otra realización del dispositivo 100 en la que el dispositivo 106 de visualización de imágenes y el dispositivo 102 de captura de imágenes comprenden en cada caso sistemas ópticos separados que están integrados entre sí por el divisor 110 de haz. Es decir, en la realización de las Figuras 2, 4-6 y 7A-7B, entre el divisor 110 de haz y el ojo que está siendo examinado no hay lentes, solo hay ópticas planas.
La Figura 1B, que muestra una sección transversal a través del dispositivo 100, muestra que el dispositivo 106 de visualización de imágenes es coaxial con el ojo 192 que ha de ser observado. Mediante la adición de un espejo 109 detrás del divisor 110 de haz, el dispositivo 102 de captura de imágenes se puede disponer en el mismo plano vertical que el dispositivo 106 de visualización de imágenes. En la realización mostrada en la Figura 1B el dispositivo 102 de captura de imágenes está por debajo del dispositivo 106 de visualización de imágenes. En otra realización, el dispositivo 102 de captura de imágenes está por encima del dispositivo 106 de visualización de imágenes.
Como comprenderá fácilmente el experto en la técnica, si no se usa ningún espejo, la cámara grabará el ojo 192 en la orientación correcta. Si se usa un espejo, la cámara grabará y la imagen visualizada 104 será una imagen especular. El uso de dos espejos dará como resultado la orientación correcta en ambos casos.
En la primera realización mostrada en la Figura 1A y la segunda realización mostrada en las Figuras 1B, 2, 4-6 y 7B, el divisor 110 de haz está inclinado para proporcionar luz reflejada y transmitida en la dirección apropiada. A partir de las enseñanzas de la presente memoria, un experto en la materia puede seleccionar fácilmente un divisor de haz adecuado y posicionar e inclinar el divisor de haz de manera apropiada.
Las ubicaciones del dispositivo 106 de visualización de imágenes y del dispositivo 102 de captura de imágenes se pueden intercambiar. Dependiendo de su composición, también puede ser necesario intercambiar la lente 132 de visualización y la serie 134 de lentes de formación de imágenes.
En la realización de la Figura 1A, una lente 124 de objetivo está posicionada entre la ventana 116 de visualización y el divisor 110 de haz. La lente 124 de objetivo comprende una sola lente, sin embargo, en otras realizaciones, la lente 124 de objetivo puede comprender una serie de dos o más lentes.
La lente 124 del objetivo recoge luz del ojo 192. Cuando se obtiene la imagen del segmento anterior del ojo 192, la lente 124 del objetivo proyecta el objeto al infinito.
Como se muestra en las Figuras 1A, 1B, 2, 4-6 y 7A-B, la cavidad óptica 118 está definida por el alojamiento 120 que encierra los componentes ópticos del dispositivo 100, a saber: el dispositivo 106 de visualización de imágenes; el dispositivo 102 de captura de imágenes; el divisor 110 de haz; y las lentes 124 (sólo Figura 1A), 132, 134. El alojamiento 120 también comprende el controlador 112, que se describe más abajo. En la realización mostrada en la Figura 1A, la carcasa 120 está hecha de plástico duro. En otras realizaciones, la carcasa 120 puede estar hecha de aluminio o acero.
El ojo 192 que está siendo examinado se posiciona, usando el dispositivo 122 de posicionamiento, para mirar a través de la ventana 116 de visualización al interior de la cavidad óptica 118. Como puede verse en las Figuras 2, 4, 5 y 7A, la ventana 116 de visualización está en la parte delantera del dispositivo 100 y un usuario mira a través de ella para ver la imagen visualizada en el dispositivo 116 de visualización de imágenes.
El dispositivo 122 de posicionamiento comprende una mentonera 146, un reposafrente 148 y un ajuste 150 hacia adentro y hacia afuera que se puede girar para mover el dispositivo 122 de posicionamiento hacia adentro o hacia afuera del dispositivo 100. Cualquier ajuste hacia arriba y hacia abajo se puede realizar haciendo que el paciente 190 se siente en una silla ajustable, como por ejemplo una silla con ajuste de altura por muelle de gas. A partir de las enseñanzas del presente documento, un experto en la materia puede seleccionar o diseñar fácilmente otros dispositivos de posicionamiento del paciente adecuados, incluidos los otros dispositivos de posicionamiento del paciente que se describen más abajo.
También se incluye en el dispositivo 100 una matriz 126 de iluminación para iluminar el ojo 192. Aunque la iluminación ambiental proporciona la iluminación difusa general del ojo 192, la matriz 126 de iluminación proporciona iluminación adicional que permite que el dispositivo 106 de captura capture tipos de imagen específicos. La matriz 126 de iluminación comprende preferiblemente dos o más tipos de luz tales como luz blanca, luz con una longitud de onda definida y una fuente de luz de hendidura.
Como se muestra mejor en la Figura 2, la matriz 126 de iluminación comprende una primera matriz 128 posicionada en un primer ángulo con respecto al ojo 192 y una segunda matriz 130 posicionada en un segundo ángulo diferente con respecto al ojo 192. Cada matriz está incluida en un alojamiento 142 de iluminación respectivo. Como se muestra en la Figura 5, este posicionamiento se lleva a cabo uniendo las matrices 128, 130 al alojamiento 120 por medio de brazos 144. En la realización mostrada en la Figura 1, los brazos 144 están fijos. En otras realizaciones, los brazos 144 pueden ser ajustables en posición y/o ángulo con respecto al ojo 192. El ajuste puede ser manual o controlado por el controlador 112.
La Figura 2 también muestra que tanto la primera matriz 128 como la segunda matriz 130 comprenden una luz azul 136, una luz blanca 138 y una fuente 140 de luz de hendidura. En la realización mostrada, la fuente 140 de luz de hendidura comprende una lámpara de hendidura convencional. En otras realizaciones se pueden usar otras fuentes de luz de hendidura que comprenden una fuente de luz de alta intensidad que se puede enfocar para irradiar una lámina fina de luz dentro del ojo.
En la realización mostrada en la Figura 2, la fuente 140 de luz de hendidura comprende un filtro 141. En otras realizaciones, la fuente 140 de luz de hendidura puede comprender uno o más filtros 141 tales como un polarizador, un difusor u otro filtro. El o los filtros 141 se pueden utilizar para resaltar varias partes y/o estructuras del ojo 192 en la imagen capturada 108. La fuente 140 de luz de hendidura se puede ajustar para proporcionar un haz de luz que va desde una hendidura delgada hasta un gran campo circular de luz para resaltar varias partes y estructuras del ojo 192.
La luz azul 136 comprende dos fuentes de luz, un LED azul inferior 137a y un LED azul superior 137b, comprendiendo ambos XPEBLU-L1-B50-M3-0-01 Blue 470-480 nm 45,7 Lumen @ 350mA -CUT1130. De manera similar, la luz blanca 138 comprende las dos fuentes de luz de un LED blanco inferior 139a y un LED blanco superior 139b, comprendiendo ambos CREE XPG-2 White LEDs 3000 - CUT937. Los LED inferiores 137a, 139a están situados directamente por debajo de los LED superiores 137b, 139b. En esta disposición, la fuente 136 de luz azul comprende dos o más LED azules 137a, 137b en alineación paralela y la fuente 138 de luz blanca comprende dos o más LED blancos paralelos 139a, 139b en alineación paralela. En otras realizaciones, los LED inferiores 137a, 139a y superiores 137b, 139b no están alineados en paralelo.
Aunque la luz azul 136 y la luz blanca 138 comprenden dos fuentes 137a, 137b y 139a, 139b de luz, respectivamente, en otras realizaciones estas fuentes 136, 138 de luz comprenden 3, 4, 5, 6, 7, 8, 9, 10 o más fuentes de luz.
La luz azul 136 y la luz blanca 138 utilizan LED como fuente de luz para producir iluminación. En otras realizaciones se utilizan fuentes de iluminación alternativas, tales como otras fuentes electroluminiscentes, fuentes incandescentes y fuentes de descarga de gas. A partir de las enseñanzas de la presente memoria, un experto en la materia puede seleccionar fácilmente una fuente de luz adecuada para el dispositivo 100.
Los LED individuales en la luz azul 136 o la luz blanca 138 se pueden iluminar alternativamente en una serie de imágenes capturadas, de modo que el artefacto de luz LED se produzca en un lugar diferente en diferentes imágenes de la serie. Las Figuras 3A-3D ilustran cómo se puede usar la matriz 126 de iluminación para dirigir la luz incidente en una pluralidad de ángulos. La Figura 3A muestra la imagen 108a de captura que se ha obtenido con un artefacto de luz LED que se extiende desde la parte inferior izquierda hasta la parte superior derecha de la imagen 108a (la imagen 108a es de un ojo izquierdo y el artefacto de luz se extiende desde la parte inferior derecha de la imagen del ojo izquierdo hasta la parte superior izquierda). Por otro lado, la Figura 3B muestra la imagen 108b de captura que se ha obtenido con un artefacto de luz LED que se extiende desde la parte superior izquierda hasta la parte inferior derecha de la imagen 108b (la imagen 108 es del mismo ojo izquierdo y el artefacto de luz se extiende desde la parte superior derecha de la imagen del ojo izquierdo hasta la parte inferior izquierda). La Figura 3C muestra la imagen 108a de captura de la Figura 3A con la única adición de una línea de puntos superpuesta para mostrar el ángulo del artefacto de luz. La Figura 3D muestra la imagen 108b de captura de la Figura 3a con la única adición de una línea de puntos superpuesta para mostrar el ángulo del artefacto de luz.
Las diferentes imágenes 108a y 108b de captura se obtuvieron iluminando diferentes LED blancos en la fuente 138 de luz blanca. La imagen 108a de captura se obtuvo mientras se iluminaba el LED blanco inferior 139a en la segunda matriz 130 y el LED blanco superior 139b en la primera matriz 128. Por otro lado, la imagen 108b de captura se obtuvo mientras se iluminaba el LED blanco superior 139b en la segunda matriz y el LED blanco inferior 139a en la primera matriz.
Los pares de fuentes de luz iluminados en diferentes miembros de una serie de imágenes que permiten la eliminación de un artefacto de luz se pueden designar como pares complementarios. Usando la realización mostrada en la Figura 1 A, y con referencia únicamente a la luz blanca, los pares complementarios comprenden un LED blanco inferior 139a en la segunda matriz 130 y un LED blanco superior 139b en la primera matriz 128 como un primer par; y un LED blanco superior 139b en la segunda matriz y un LED blanco inferior 139a en la primera matriz como un segundo par.
Se puede decir que estos dos pares son complementarios entre sí y, por lo tanto, se puede decir que la fuente de luz está iluminada de forma complementaria para proporcionar este conjunto de dos imágenes que permiten la eliminación del artefacto de luz.
La adquisición de la imagen 108a y 108b de captura, con el artefacto de luz en diferentes lugares de la córnea, permite visualizar el área por debajo de los artefactos mirando ambas imágenes 108a y 108b que tienen el artefacto en diferentes lugares o construyendo una imagen compuesta.
El conjunto de imágenes para la eliminación del artefacto de luz puede comprender dos o más imágenes. En una realización, el conjunto comprende dos imágenes. Una primera imagen obtenida con iluminación del primer par y una segunda imagen obtenida con iluminación del segundo par. En otras realizaciones, el conjunto comprende 2, 3, 4, 5, 6, 7, 8, 9, 10 o más imágenes.
Se puede obtener una serie de imágenes 108a, 108b de captura similar que permita la eliminación del artefacto de luz con iluminación alternativa selectiva de los pares complementarios de LED azules 137a, 137b en la primera matriz 128 y la segunda 130 matriz.
La eliminación del artefacto de luz es significativamente ventajosa, porque permite la deducción de cualquier patología ocular oscurecida por el artefacto que de otro modo se habría pasado por alto.
La fuente 138 de luz blanca se puede utilizar para proporcionar luz de haz estrecho y ancho. La fuente 136 de luz azul se puede utilizar para proporcionar luz para la formación de imágenes con fluoresceína.
La matriz 136 de iluminación se puede utilizar para proporcionar iluminación LED de bajo nivel o iluminación LED de alta intensidad que puede ser estroboscópica con el dispositivo 106 de captura de imágenes. Cuando es estroboscópica, los pulsos de luz se sincronizan con las señales de activación del dispositivo 106 de captura de imágenes.
Significativamente, la luz azul 136 y la luz blanca 138 se pueden iluminar simultáneamente para la captura de imágenes.
Además, la intensidad de la luz iluminada desde cualquiera de las fuentes de luz se puede variar de forma independiente. Cuando la fuente de luz comprende un LED, la intensidad se puede variar variando la corriente.
Como se muestra en la Figura 1, el dispositivo 100 también puede comprender un panel táctil 153 inalámbrico que muestra una pantalla 152 de vista previa que comprende la imagen digital generada por el dispositivo 106 de captura de imágenes. El panel táctil 153 inalámbrico está conectado al controlador 112 mediante una conexión 151 inalámbrica.
La pantalla 152 de vista previa se puede utilizar para visualizar una vista previa en vivo de la imagen 108 capturada, de manera que la visualización en la pantalla 152 de vista previa es la imagen en vivo que está generando el dispositivo 106 de captura de imágenes. La pantalla 152 de vista previa también se puede designar como visor electrónico.
El panel táctil 153 también puede mostrar una interfaz gráfica de usuario (GUI, por sus siglas en inglés) con la que puede interactuar un usuario para controlar el dispositivo 100.
El panel táctil 153 puede comprender una pantalla transparente 154 sensible al tacto superpuesta sobre la pantalla de visualización. Cuando se toca la pantalla, se envía una señal al controlador 112. La pantalla táctil puede registrar múltiples eventos táctiles (como un contacto simultáneo con dos o más dedos) y proporcionar información de seguimiento para los dos puntos táctiles a medida que los dedos se mueven sobre la superficie de la pantalla táctil.
El panel táctil 153 inalámbrico es una tableta Apple iPad conectada a través de WiFi, aunque se pueden utilizar otros tipos de tableta, teléfono inteligente u ordenador y otros tipos de conexión inalámbrica. En otras realizaciones, la pantalla 152 de vista previa y la GUI se pueden visualizar alternativa o adicionalmente en una pantalla de video convencional incluida en un sistema informático convencional tal como un monitor de ordenador convencional, como la pantalla 214 de video descrita más abajo. A partir de las enseñanzas del presente documento, un experto en la materia puede seleccionar fácilmente un medio adecuado para la visualización de la pantalla 152 de vista previa.
En la realización mostrada en la Figura 1, el controlador 112 comprende un ordenador integrado 114 que comprende un procesador 156, una placa 115 de circuito impreso, una memoria 158, un dispositivo 163 de red y una fuente 164 de alimentación. El procesador 156 y la placa 115 de circuito impreso están compuestos por una placa EPIA-p900 y el ordenador 114 también comprende una memoria de acceso aleatorio (RAM, por sus siglas en inglés) que comprende ME-NB-DDR3-1333-4G y funciona con Windows 7. En otras realizaciones, el controlador 114 puede comprender otros dispositivos de control tales como el módulo informático 201 de uso general descrito más abajo.
En la realización mostrada en la Figura 1A, el controlador 112 está situado en el alojamiento 120. En otras realizaciones, el controlador 120 está situado fuera del alojamiento 120.
El dispositivo 163 de red puede comprender una tarjeta de red, módem u otro dispositivo adecuado que permita que el controlador 112 se conecte a una red para comunicarse con otros dispositivos informáticos.
El procesador 156 funciona de manera similar al procesador 205 descrito más abajo para realizar las diversas operaciones del dispositivo 100 y los métodos de la invención.
Cualquiera de los dos procesadores puede procesar la serie de imágenes o la imagen compuesta utilizando un algoritmo para detectar una enfermedad o afección que requiera derivación y/o tratamiento. Cuando se detecta una enfermedad o afección que requiere derivación y/o tratamiento, el dispositivo se puede conectar a un ordenador remoto en el que se puede realizar la derivación y/o el tratamiento.
Aunque no se muestra que el controlador 114 de ordenador integrado esté conectado a ninguna red, aparte de la conexión local al panel táctil 153, de modo similar al descrito con referencia al módulo informático 201, el controlador 114 de ordenador integrado también puede estar conectado a una red, tal como una red 220 de área amplia y/o una red informática local 222.
El ordenador integrado 114 se construyó con la función dedicada de operar el dispositivo 100. El dispositivo 100 también se puede operar con otros tipos de controladores 114, incluyendo, por ejemplo, un ordenador de uso general o un sistema informático de uso general como el módulo informático 201 y el sistema 200 mostrados en las Figuras 8A y 8B.
El sistema informático 200 está formado por un controlador 114 que comprende un módulo informático 201 de uso general que incluye dispositivos de entrada tales como un teclado 202, un dispositivo 203 de puntero de ratón, un dispositivo 106 de captura de imágenes, un disco duro externo 227 y un micrófono 280; y dispositivos de salida que incluyen un dispositivo 102 de visualización, una matriz 126 de iluminación, unas lentes 124, 132 y una serie 134 de lentes, una pantalla 214 de video y unos altavoces 217. La pantalla 214 de video consiste en un monitor de ordenador convencional, como una pantalla de panel LCD de transistor de película delgada (TFT-LCD, por sus siglas en inglés) que puede comprender una pantalla táctil.
El módulo informático 201 puede usar un dispositivo transceptor modulador-demodulador (módem) 216 para comunicarse hacia y desde una red 220 de comunicaciones a través de una conexión 221. La red 220 puede ser una red de área amplia (WAN, por sus siglas en inglés) como Internet, una red de telecomunicaciones celulares o una WAN privada. El módulo informático 201 se puede conectar a otros módulos informáticos 290 y 291 similares a través de la WAN 220. Cuando la conexión 221 consiste en una línea telefónica, el módem 216 puede ser un módem tradicional de "acceso telefónico". Alternativamente, cuando la conexión 221 es una conexión de alta capacidad, por ejemplo una conexión por cable, el módem 216 puede ser un módem de banda ancha. También se puede utilizar un módem inalámbrico para la conexión inalámbrica a la red 220.
Por regla general, el módulo informático 201 incluye al menos un procesador 205 y una memoria 206 formada, por ejemplo, a partir de una memoria de acceso aleatorio (RAM) de semiconductores y una memoria de sólo lectura (ROM, por sus siglas en inglés) de semiconductores. El módulo 201 también incluye una serie de interfaces de entrada/salida (E/S), que incluyen: una interfaz 207 de audio y vídeo que se acopla al dispositivo 102 de visualización de imágenes, la pantalla 214 de vídeo, los altavoces 217 y el micrófono 280; una interfaz 213 de E/S para el teclado 202, el ratón 203, el dispositivo 106 de captura y el disco duro externo 227; y una interfaz 208 para el módem externo 216 y la matriz 126 de iluminación, la lente 124, la lente 132 y el sistema 134 de lentes. En algunas implementaciones, el módem 216 se puede incorporar dentro del módulo informático 201, por ejemplo dentro de la interfaz 208. El módulo informático 201 también tiene una interfaz 211 de red local que, a través de una conexión 223, permite el acoplamiento del sistema informático 200 a una red informática local 222, conocida como Red de Área Local (LAN, por sus siglas en inglés).
La Figura 8A también muestra que el módulo informático 201 se puede conectar a la pantalla 152 de vista previa a través de la LAN local 222. En otras realizaciones, esta conexión tiene lugar a través de un protocolo inalámbrico como Bluetooth, Airplay u otro protocolo de red local similar.
Como también se ilustra, la red local 222 también se puede acoplar a la red amplia 220 a través de una conexión 224, que por regla general incluiría un dispositivo denominado "cortafuegos" o un dispositivo de funcionalidad similar. La interfaz 211 puede estar formada por una tarjeta de circuito Ethernet, una disposición inalámbrica por Bluetooth o una disposición inalámbrica IEEE 802.11 u otra interfaz adecuada.
Las interfaces 208 y 213 de E/S pueden permitir una conectividad en serie o en paralelo o ambas, implementándose la primera por regla general de acuerdo con los estándares de Bus Serie Universal (USB, por sus siglas en inglés) y teniendo la misma conectores USB correspondientes (no ilustrados).
Están previstos dispositivos 209 de almacenamiento que, por regla general, incluyen una unidad 210 de disco duro (HDD, por sus siglas en inglés). También se pueden usar otros dispositivos de almacenamiento tales como una unidad de disco HD 227 externo (no mostrada) y una unidad de cinta magnética (no mostrada). Normalmente está prevista una unidad 212 de disco óptico para que actúe como una fuente de datos no volátil. Como fuentes de datos apropiadas para el módulo informático 201 se pueden utilizar dispositivos de memoria portátiles, tales como discos ópticos (por ejemplo: CD-ROM, DVD, Blu-Ray Disc), USB-RAM, discos duros externos y disquetes, por ejemplo.
Los componentes 205 a 213 del módulo informático 201 se comunican por regla general a través de un bus 204 interconectado en un modo de funcionamiento convencional del sistema informático 200. En la realización mostrada en las Figuras 8A y 8B, el procesador 205 está acoplado al bus 204 de sistema a través de conexiones 218. De manera similar, la memoria 206 y la unidad 212 de disco óptico están acopladas al bus 204 de sistema por medio de conexiones 219. Algunos ejemplos de ordenadores en los que se pueden poner en práctica las disposiciones descritas incluyen IBM-PC y compatibles, estaciones Sun Sparc, Apple Mac o un sistema informático similar.
Los métodos de la invención se pueden implementar usando un sistema informático integrado 114 o un módulo informático 201. Las etapas o procesos de los métodos de la invención se pueden implementar como uno o más programas 233 de aplicación de software ejecutables con el módulo informático 114 o 201.
La Figura 8B es un diagrama de bloques esquemático detallado del procesador 205 y una memoria 234. El procesador 156 puede funcionar de una manera convencional similar. La memoria 234 representa una agregación lógica de todos los módulos de memoria, incluido el dispositivo 209 de almacenamiento y la memoria semiconductora 206, a la que se puede acceder mediante el módulo informático 201 de la Figura 8A.
Los métodos de la invención se pueden implementar utilizando el sistema informático 200, pudiendo implementarse los métodos como uno o más programas 233 de aplicación de software ejecutables dentro del módulo informático 201. En particular, las etapas de los métodos de la invención se pueden efectuar mediante las instrucciones 231 en el software ejecutado dentro del módulo informático 201.
Las instrucciones 231 de software se pueden formar como uno o más módulos de código, cada uno para realizar una o más tareas particulares. El software también se puede dividir en dos partes separadas, en las que una primera parte y los módulos de código correspondientes realizan los métodos de la invención y una segunda parte y los módulos de código correspondientes gestionan una GUI entre la primera parte y un usuario.
El software se puede almacenar en un medio legible por ordenador, incluyendo un dispositivo de almacenamiento del tipo descrito en la presente memoria. El software se carga en el sistema informático 200 desde el medio legible por ordenador, y luego se ejecuta mediante el sistema informático 200. Un medio legible por ordenador que tiene dicho software o programa informático grabado en el mismo es un producto de programa informático. El uso del producto de programa informático en el sistema informático 200 influye preferiblemente en un aparato ventajoso para implementar los métodos de la invención.
Por regla general, el software 233 se almacena en el HDD 210 y/o en la memoria 206. El software se carga en el sistema informático 200 desde un medio legible por ordenador y luego se ejecuta mediante el módulo informático 201. Por lo tanto, por ejemplo el software 233 se puede almacenar en el medio 225 de almacenamiento, que es leído por la unidad 212 de disco óptico. El uso del producto de programa informático en el módulo informático 201 o en el sistema 200 efectúa preferiblemente un aparato ventajoso para implementar los métodos de la invención.
En algunos casos, los programas 233 de aplicación se pueden suministrar al usuario codificados en uno o más medios 225 de almacenamiento en disco, como un CD-ROM, DVD o Blu-ray Disc, y se pueden leer a través de la unidad 212 correspondiente, o alternativamente pueden ser leídos por el usuario desde las redes 220 o 222. Además, el software también se puede cargar en el sistema informático 200 desde otros medios legibles por ordenador. Los medios de almacenamiento legibles por ordenador se refieren a cualquier medio de almacenamiento tangible no transitorio que proporcione instrucciones grabadas y/o datos al módulo informático 201 o al sistema 200 para su ejecución y/o procesamiento. Los ejemplos de dichos medios de almacenamiento incluyen disquetes, cintas magnéticas, CD-ROM, DVD, Blu-ray Disc, una unidad de disco duro, una ROM o circuito integrado, una memoria USB, un disco magnetoóptico o una tarjeta legible por ordenador tal como una tarjeta PCMCIA y similares, sean o no dichos dispositivos internos o externos del módulo informático 201. Los ejemplos de medios de transmisión legibles por ordenador transitorios o no tangibles que también pueden participar en la provisión de software, programas de aplicación, instrucciones y/o datos al módulo informático 201 incluyen canales de transmisión de radio o infrarrojos, así como una conexión de red a otro ordenador o dispositivo en red, e Internet o una Intranet que incluyen transmisiones de correo electrónico e información registrada en sitios web y similares.
La segunda parte de los programas 233 de aplicación y los módulos de código correspondientes arriba mencionados se pueden ejecutar para implementar una o más GUI para reproducirlas o representarlas de otra manera en el panel táctil 153 y/o la pantalla 214 o para implementar la presentación de la imagen visualizada 104. Mediante la manipulación de, por regla general, el teclado 202, el ratón 203, la pantalla 152 y/o la pantalla 214, un usuario del sistema informático 200 y los métodos de la invención puede manipular la interfaz de una manera funcionalmente adaptable para proporcionar comandos de control y/o entradas a las aplicaciones asociadas con la(s) GUI. También se pueden implementar otras formas de interfaces de usuario funcionalmente adaptables, como una interfaz de audio que utiliza mensajes de voz emitidos a través de los altavoces 217 y comandos de voz del usuario introducidos a través del micrófono 280. Los mensajes de voz y/o los comandos de voz del usuario se pueden transmitir a través de la red 220 o 222.
Cuando el módulo informático 201 se enciende inicialmente, se ejecuta un programa 250 de autoprueba de encendido (POST, por sus siglas en inglés). Por regla general, el programa POST 250 se almacena en una ROM 249 de la memoria 206 de semiconductores. A veces, un dispositivo de hardware como la ROM 249 se designa como firmware. El programa POST 250 examina el hardware dentro del módulo informático 201 para asegurar el funcionamiento adecuado y, por lo general, verifica el procesador 205, la memoria 234 (209, 206) y un módulo 251 de software de sistemas básicos de entrada y salida (BIOS, por sus siglas en inglés), normalmente también almacenado en la ROM 249, para su correcto funcionamiento. Una vez que el programa POST 250 se ha ejecutado correctamente, BIOS 251 activa la unidad 210 de disco duro. La activación de la unidad 210 de disco duro hace que una rutina 252 de arranque, que reside en la unidad 210 de disco duro, se ejecute a través del procesador 205. Esto carga un sistema operativo 253 en la memoria RAM 206, tras lo cual el sistema operativo 253 comienza a funcionar. El sistema operativo 253 es una aplicación de nivel de sistema, ejecutable por el procesador 205, para cumplir con varias funciones de alto nivel, que incluyen administración de procesador, administración de memoria, administración de dispositivos, administración de almacenamiento, interfaz de aplicación de software e interfaz de usuario genérica.
El sistema operativo 253 gestiona la memoria 234 (209, 206) con el fin de asegurar que cada proceso o aplicación que se ejecuta en el módulo informático 201 tenga suficiente memoria para ejecutarse sin colisionar con la memoria asignada a otro proceso. Además, los diferentes tipos de memoria disponibles en el sistema 200 deben usarse correctamente para que cada proceso pueda ejecutarse de manera eficaz. En consecuencia, la memoria agregada 234 no está destinada a ilustrar cómo se asignan segmentos particulares de memoria, sino más bien a proporcionar una vista general de la memoria accesible por el módulo informático 201 y cómo se usa.
El procesador 205 incluye varios módulos funcionales, incluyendo una unidad 239 de control, una unidad aritmética lógica (ALU, por sus siglas en inglés) 240 y una memoria local o interna 248, a veces denominada memoria caché. Por regla general, la memoria caché 248 incluye varios registros 244, 245, 246 de almacenamiento en una sección de registro. Uno o más buses internos 241 interconectan funcionalmente estos módulos funcionales. Por regla general, el procesador 205 también tiene una o más interfaces 242 para comunicarse con dispositivos externos a través del bus 204 de sistema, usando una conexión 218. La memoria 234 está conectada al bus 204 mediante la conexión 219.
El programa 233 de aplicación incluye una secuencia 231 de instrucciones que pueden incluir instrucciones condicionales de bifurcación y bucle. El programa 233 también puede incluir datos 232 que se utilizan en la ejecución del programa 233. Las instrucciones 231 y los datos 232 se almacenan en las posiciones 228, 229, 230 y 235, 236, 237 de memoria, respectivamente. Dependiendo del tamaño relativo de las instrucciones 231 y las posiciones 228­ 230 de memoria, una instrucción particular se puede almacenar en una única posición de memoria, tal como está representado en la instrucción mostrada en la posición 230 de memoria. Alternativamente, una instrucción puede estar segmentada en varias partes, cada una de las cuales se almacena en una posición de memoria separada, tal como está representado en los segmentos de instrucción mostrados en las posiciones 228 y 229 de memoria.
En general, el procesador 205 recibe un conjunto de instrucciones 243 que se ejecutan en el mismo. Después, el procesador 205 espera una entrada subsiguiente, a la que el procesador 205 reacciona ejecutando otro conjunto de instrucciones. Cada entrada se puede proporcionar desde una o más de una serie de fuentes, incluyendo datos generados por uno o más de los dispositivos 202, 106 de entrada, datos recibidos desde una fuente externa a través de una de las redes 220, 222, datos recuperados de uno de los dispositivos 206, 209 de almacenamiento o datos recuperados de un medio 225 de almacenamiento insertado en el lector 212 correspondiente. En algunos casos, la ejecución de un conjunto de instrucciones puede dar como resultado una salida de datos. La ejecución también puede implicar el almacenamiento de datos o variables en la memoria 234.
Las disposiciones descritas utilizan variables 254 de entrada, que se almacenan en la memoria 234 en posiciones 255, 256, 257, 258 de memoria correspondientes. Las disposiciones descritas producen variables 261 de salida que se almacenan en la memoria 234 en posiciones 262, 263, 264, 265 de memoria correspondientes. Las variables intermedias 268 se pueden almacenar en posiciones 259, 260, 266 y 267 de memoria.
La sección 244, 245, 246 de registro, la unidad aritmética lógica (ALU) 240 y la unidad 239 de control del procesador 205 trabajan juntas para realizar secuencias de microoperaciones necesarias para llevar a cabo ciclos de "búsqueda, descodificación y ejecución" para cada instrucción del conjunto de instrucciones que compone el programa 233. Cada ciclo de búsqueda, descodificación y ejecución comprende:
(a) una operación de búsqueda, que busca o lee una instrucción 231 de la posición 228, 229, 230 de memoria;
(b) una operación de descodificación en la que la unidad 239 de control determina qué instrucción se ha buscado; y
(c) una operación de ejecución en la que la unidad 239 de control y/o la ALU 240 ejecutan la instrucción.
A continuación se puede ejecutar otro ciclo de búsqueda, descodificación y ejecución para la siguiente instrucción. De manera similar, se puede realizar un ciclo de almacenamiento mediante el cual la unidad 239 de control almacena o escribe un valor en una posición 232 de memoria.
Cada etapa o subproceso en los métodos de la invención puede estar asociado con uno o más segmentos del programa 233, y puede ser realizado por la sección 244-247 de registro, la ALU 240 y la unidad 239 de control en el procesador 205 en cooperación para realizar los ciclos de búsqueda, descodificación y ejecución para cada instrucción en el conjunto de instrucciones para los segmentos anotados del programa 233.
Los métodos de la invención se pueden implementar alternativamente en hardware dedicado, tal como uno o más circuitos integrados que realizan las funciones o subfunciones de los métodos descritos. Dicho hardware dedicado puede incluir procesadores gráficos, procesadores de señales digitales o uno o más microprocesadores y memorias asociadas.
El dispositivo 100 también puede comprender un conmutador duro para seleccionar una interfaz de operador deseada (sistema operativo) entre dos o más interfaces que están previstas para la portabilidad a través de diferentes sistemas informáticos.
El controlador 112 puede realizar operaciones que incluyen: control y captura del dispositivo 106 de captura de imágenes; grado y tipo de iluminación mediante la matriz 126 de iluminación; procesamiento de imágenes; un algoritmo de enfoque automático; conectividad de red, incluida la inalámbrica; cifrado y descifrado de datos; presentación y cambio de estímulos de prueba de función visual; gestión de errores; diagnóstico de sistema remoto y registro de eventos; y sistema de facturación automatizado.
El controlador 112 se puede usar para controlar el dispositivo 106 de captura de imágenes con el fin de obtener una o más imágenes capturadas 108 que comprenden imágenes estereoscópicas de la retina del ojo 192; imágenes del segmento anterior del ojo 192; y/o imágenes del segmento posterior del ojo 192. La o las imágenes capturadas 108 pueden ser imágenes en color de alta resolución. En una realización, la o las imágenes 108 de captura pueden ser una imagen HDR. La imagen HDR puede ser una combinación de 2, 3, 4, 5, 6, 7, 8, 9, 10 o más imágenes capturadas El controlador 112 también se usa para controlar la iluminación de la matriz de iluminación que incluye los componentes compuestos que comprenden la fuente 136 de luz azul, los LED azules 137a, 137b, la fuente 138 de luz blanca, los LED blancos 139a, 139b y la fuente 140 de luz de hendidura. Esta iluminación controlada puede lograr iluminación por luz de inundación blanca, luz de hendidura estrecha y luz azul, y también producir una serie de imágenes capturadas 108 que comprenden diferentes tipos de iluminación para permitir la eliminación del artefacto de luz, por ejemplo, series 108a y 108b de imágenes.
El controlador 112 puede procesar la imagen capturada 108 usando cualquier técnica de procesamiento de imágenes.
El controlador 112 también se puede usar para controlar las lentes 124, 132, 134. Por ejemplo, el procesador 156 puede cambiar el enfoque de la lente 132 de visualización para lograr el enfoque infinito arriba detallado. El procesador 156 también se puede usar para cambiar el enfoque de la lente 124 de objetivo con el fin de proyectar el ojo 192 al infinito cuando se forma una imagen del segmento anterior del ojo 192.
El controlador 112 también se puede usar para almacenar en la memoria 158 las imágenes capturadas. La memoria 158 también puede almacenar cualquier entrada o datos obtenidos del paciente, datos del operador o una parte de los mismos.
El controlador 112 se puede usar para optimizar el dispositivo 106 de captura de imágenes, para optimizar la iluminación mediante la matriz 126 de iluminación y para optimizar el rendimiento de las lentes 126, 132, 134. El controlador 112 también se usa para controlar el dispositivo 102 de visualización de imágenes con el fin de seleccionar y cambiar la imagen visualizada 104.
El controlador 112 puede ser compatible con Web 2.0 y puede comprender una dirección IP de máquina.
Como se muestra en la Figura 8A, el controlador 112 se puede conectar a una red para poder transmitir una o más imágenes capturadas 108, datos del paciente y/o datos del operador a un sitio remoto.
La Figura 9 muestra un diagrama de bloques del sistema que resume los componentes electrónicos y sus funciones en una realización del dispositivo 100.
El dispositivo 100 también puede obtener y/o almacenar datos 160 del paciente. Parte de los datos 160 del paciente o todos ellos pueden ser introducidos por el paciente u otro usuario usando la pantalla 152 u otra pantalla 152 similar o idéntica, o usando una de las entradas al módulo informático 201, es decir, como el teclado 202, el ratón 203, la pantalla 214 y el micrófono 280. Los datos 160 del paciente que se introducen en el dispositivo 100 se pueden designar como datos 160a de entrada del paciente. En otra realización, parte de los datos 160 del paciente o todos ellos se pueden obtener de un ordenador o servidor remoto tal como los ordenadores 290, 291 a través de una red como la red 220. Los datos del paciente que se obtienen se pueden designar como datos 160b obtenidos del paciente. Es posible que se cifren parte de los datos del paciente o todos ellos, independientemente de la ubicación o el estado de transmisión.
Los datos 160a de entrada del paciente pueden comprender la entrada de datos demográficos y de salud relacionados a través de la GUI.
Un dispositivo de operación de usuario 100 también puede introducir detalles 161 del operador, tales como su nombre, ubicación y número de identificación usando una entrada, como la pantalla 152 u otra pantalla 152 similar o idéntica o usando una entrada conectada al módulo informático 201. Parte de los detalles del operador o todos ellos pueden estar cifrados, independientemente de la ubicación o el estado de transmisión.
El usuario o paciente 190 también puede introducir una respuesta a la imagen visualizada 104 como datos 162 de respuesta de la prueba ocular. Los datos 162 de respuesta de la prueba ocular pueden comprender información tal como la letra/número/imagen más pequeña que se pueda leer en un gráfico de Snellen; la fila más baja en un gráfico de Landolt C; respuesta de la Prueba de Rejilla de Amsler normal o percepción de áreas de apariencia faltantes, curvadas o distorsionadas. Los datos de respuesta de la prueba ocular se pueden introducir en una entrada tal como la pantalla 152, el ratón 203, la pantalla 214, el micrófono 280 o el teclado 202. Parte de los datos 162 de respuesta de la prueba ocular o todos ellos pueden estar cifrados, independientemente de la ubicación o el estado de transmisión.
Los datos 160 del paciente, los detalles 161 del operador, los datos 162 de respuesta de la prueba ocular se pueden almacenar durante un período de tiempo corto o largo en el dispositivo 100 en una o más de las memorias 158, 206 o 209.
Cuando se envían datos cifrados a un ordenador remoto, como los ordenadores 290, 291, el software del ordenador remoto incluirá un algoritmo de descifrado.
Los datos obtenidos y/o almacenados en el dispositivo 100 se pueden designar como datos 165 de exploración oftálmica. Los datos 165 de exploración oftálmica pueden comprender una o más imágenes capturadas 108, opcionalmente junto con uno o más de los datos 160 del paciente, detalles 161 del operador y datos 162 de respuesta de la prueba ocular.
El controlador 112 también puede incluir software que recopila datos 165 de exploración oftálmica y transmite datos 165 a una ubicación remota a través de una red.
Utilizando la red 220, los datos 165 de exploración oftálmica se pueden transmitir a un ordenador remoto, como el ordenador 290, 291. Los ordenadores remotos pueden estar situados en un servicio oftálmico terciario o en otra ubicación en la que un oftalmólogo u otra persona con formación especializada pueda revisar los datos 165 de exploración para determinar una línea de actuación. La línea de actuación puede consistir en que no se requiera tratamiento adicional, en la programación de una cita o en el traslado a un centro de tratamiento terciario. La línea de actuación se puede comunicar a través de la red 220 al controlador 114 para que se visualice en la pantalla 214 o 153.
El dispositivo 100 puede incluir una función de biomicroscopio de lámpara de hendidura.
El dispositivo 100 también puede incluir una o más herramientas oftalmológicas adicionales, tales como un perímetro, una cámara retiniana y/o una herramienta de exploración retiniana. La Figura 10 muestra una realización del dispositivo 100 en la que el perímetro 166, una cámara retiniana 167 y una herramienta 168 de exploración retiniana están conectados al dispositivo 100 y pueden ser controlados por el controlador 114 usando la GUI. El perímetro 166, la cámara retiniana 167 y la herramienta 168 de exploración de retina también se pueden conectar al módulo informático 201 a través de una de las interfaces 208, 213 de E/S o mediante una interfaz de E/S adicional.
El dispositivo 100 también puede incluir un dispositivo 169 de tratamiento con láser que se puede conectar al controlador 114 y controlar mediante el mismo usando la GUI. El dispositivo 169 de tratamiento con láser también puede ser controlado por un usuario que se encuentre en un lugar remoto utilizando un ordenador en red, tal como los ordenadores 290, 291.
Las Figuras 11A y 11B muestran vistas desde diferentes ángulos de otro dispositivo 170 de posicionamiento que se puede usar con el dispositivo 100 y métodos de la invención en lugar del dispositivo 122 de posicionamiento. El dispositivo 170 de posicionamiento comprende un cuerpo 171 que incluye una sección 172 de recepción de cabeza, una base 173, un brazo 174 de ajuste en el eje x, un brazo 175 de ajuste en el eje y, y un brazo 176 de ajuste en el eje z. La sección 172 de recepción de cabeza comprende un reposafrente 177 y una mentonera 178.
El brazo 174 de ajuste en el eje x permite tanto un ajuste fino para centrar el ojo 192 en el campo de visión del dispositivo 102 de captura de imágenes como un ajuste aproximado para cambiar de un ojo al otro ojo.
El brazo 175 de ajuste en el eje y permite un ajuste fino hacia arriba y hacia abajo para centrar el ojo 192 en el campo de visión del dispositivo 102 de captura de imágenes.
El brazo 176 de ajuste en el eje z permite el movimiento para efectuar un ajuste de enfoque aproximado. El dispositivo 102 de captura de imágenes proporciona el enfoque fino.
Se puede ayudar al ajuste del enfoque mediante la sustitución de la mentonera 170 por una mentonera doble 180 (no mostrada). En este caso, el paciente puede completar el ajuste aproximado moviendo la barbilla de una mentonera a la otra y el ajuste fino puede ser realizado mediante el brazo de ajuste en el eje x.
Aunque no se muestra, en otras realizaciones el dispositivo 170 de posicionamiento puede comprender un motor para impulsar el movimiento a lo largo de uno o más ejes. En estas realizaciones motorizadas, el dispositivo 170 de posicionamiento puede centrar automáticamente el dispositivo 100 sobre el ojo 192 en respuesta a un algoritmo de autoenfoque o un comando tal como un toque del usuario en el centro del ojo como se muestra en el panel táctil 153.
El algoritmo de autoenfoque se puede implementar mediante el controlador 112, que dirige el movimiento del 170 dispositivo de posicionamiento. El algoritmo de autoenfoque puede seleccionar y localizar una región de interés en la imagen visualizada 104 y usar un algoritmo para enfocar el ojo 192. La región de interés puede comprender una o más de: pestaña(s); párpados; córnea o iris.
En la realización mostrada en las Figuras 11A y 11B, el dispositivo 170 de posicionamiento se dispone en un ángulo de 20 grados para ayudar a la posición de la cabeza del paciente en la sección 172 de recepción de cabeza. En otras realizaciones, el ángulo puede ser de 5 a 35 grados; de 10 a 30 grados; o de 15 a 25 grados. El ángulo puede ser de 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21,22, 23, 24, 25, 26, 27, 28, 29, 30, 31,32, 33, 34 o 35 grados. En la realización mostrada, esta inclinación se logra orientando el brazo 175 de ajuste en el eje x alejándolo de la vertical.
Aunque la invención se ha descrito con referencia al ojo 192, se entiende que se pueden examinar los dos ojos del paciente de uno en uno.
De manera significativa, la presente invención permite la integración de funciones de prueba de visión en una plataforma lista para el uso. La presente invención también es muy ventajosa debido a su simplicidad de uso tanto en la ubicación del usuario como en extremos remotos. Esta simplicidad da la capacidad de capturar imágenes de buena calidad con una complejidad mínima y con poca formación. La invención también permite la transmisión a alta velocidad con un retraso mínimo a través de portales de red y telemedicina estándar junto con la transferencia entre sitios distantes de registros médicos de pacientes, imágenes médicas y datos de salida de dispositivos médicos.
Otra ventaja de la invención consiste en que el dispositivo 100 tiene un costo comparativamente bajo y un tamaño y peso reducidos en comparación con otros instrumentos.
La presente invención es el primer sistema teleoftálmico integrado que proporciona captura de imágenes anterior y posterior, pruebas de visión y almacenamiento y transmisión de datos cifrados del paciente.

Claims (20)

REIVINDICACIONES
1. Un dispositivo (100) de captura de imágenes y pruebas oculares para analizar y examinar un ojo (192), que comprende:
un dispositivo (106) de visualización de imágenes para visualizar una imagen con el fin de que sea vista por un ojo que ha de ser analizado;
un dispositivo (102) de captura de imágenes para capturar una imagen (108) del ojo (192) que ha de ser examinado; un divisor (110) de haz posicionado para dividir la luz entre el dispositivo (102) de captura de imágenes y el dispositivo (106) de visualización de imágenes; y
una matriz (126) de iluminación para iluminar el ojo (192) que ha de ser analizado y del que se han de obtener imágenes, comprendiendo la matriz (126) de iluminación una primera matriz (128) posicionada en un primer ángulo con respecto al ojo (192) y una segunda matriz (130) posicionada en un segundo ángulo con respecto al ojo (192), y comprendiendo la primera matriz (128) y la segunda matriz (130) dos o más tipos de luz diferentes, estando incluidas la primera matriz (128) y la segunda matriz (130) en cada caso en un alojamiento (142) de iluminación respectivo, comprendiendo cada uno de los dos o más tipos de luz diferentes fuentes (137a, 139a) de luz inferiores y fuentes (137b, 139b) de luz superiores respectivas que se pueden iluminar individualmente de forma complementaria en una serie de imágenes capturadas para poder eliminar o al menos reducir un artefacto de luz.
2. El dispositivo (100) de la reivindicación 1, en el que la imagen visualizada (104) es vista por el ojo o es visible para el ojo al mismo tiempo que se captura la imagen capturada (108).
3. El dispositivo (100) según la reivindicación 1 o la reivindicación 2, en el que los dos o más tipos de luz comprenden luz blanca y luz con una longitud de onda definida.
4. El dispositivo (100) de una cualquiera de las reivindicaciones precedentes, en el que los dos o más tipos de luz comprenden una fuente (140) de luz de hendidura.
5. El dispositivo (100) de la reivindicación 3 o la reivindicación 4, en el que la luz con una longitud de onda definida comprende luz coloreada.
6. El dispositivo (100) de una cualquiera de las reivindicaciones precedentes, en el que los tipos de luz comprenden una fuente (136) de luz azul, una fuente (138) de luz blanca y una fuente (140) de luz de hendidura.
7. El dispositivo (100) de una cualquiera de las reivindicaciones precedentes, estando el dispositivo (100) conectado a una red (220) para la comunicación de datos de exploración oftálmica a una ubicación remota y, opcionalmente, para recibir una determinación basada en una revisión de los datos de exploración oftálmica en la ubicación remota.
8. El dispositivo (100) de una cualquiera de las reivindicaciones precedentes, en el que el procesador de imágenes también puede procesar la serie de imágenes o la imagen compuesta usando un algoritmo para detectar una enfermedad o afección que requiera derivación y/o tratamiento.
9. El dispositivo (100) de la reivindicación 8, en el que, cuando se detecta una enfermedad o afección que requiere derivación y/o tratamiento, el dispositivo (100) se conecta a un ordenador remoto en el que se realiza la derivación y/o el tratamiento.
10. El dispositivo (100) de una cualquiera de las reivindicaciones precedentes, comprendiendo el dispositivo (100) además un aparato quirúrgico o terapéutico que es controlado a través de la red (220) por un usuario en un ordenador remoto.
11. Un método para obtener datos de pruebas oculares y una o más imágenes de un ojo (192), comprendiendo el método:
iluminar el ojo (192) que ha de ser analizado y del que se han de obtener imágenes con un dispositivo de iluminación que comprende una primera matriz (128) de iluminación posicionada en un primer ángulo con respecto al ojo (192) y una segunda matriz (130) de iluminación posicionada en un segundo ángulo con respecto al ojo (192), comprendiendo la primera matriz (128) de iluminación y la segunda matriz (130) de iluminación dos o más tipos de luz diferentes, y estando incluidas la primera matriz (128) y la segunda matriz (130) en cada caso en un alojamiento (142) de iluminación respectivo, comprendiendo cada uno de los dos o más tipos de luz diferentes fuentes de luz inferiores y fuentes de luz superiores respectivas, y comprendiendo el método además iluminar individualmente de forma complementaria las fuentes de luz inferiores y fuentes de luz superiores respectivas en una serie de imágenes capturadas de tal modo que un artefacto de luz se elimine o al menos se reduzca sustancialmente;
visualizar una imagen para que la vea el ojo en un dispositivo (106) de visualización de imágenes;
capturar una imagen del ojo (192) con un dispositivo (102) de captura de imágenes; y
dividir la luz entre el dispositivo (102) de captura de imágenes y el dispositivo (106) de visualización de imágenes, siendo vista por el ojo la imagen visualizada (104) al mismo tiempo que se captura la imagen capturada (108).
12. El método de la reivindicación 11, en el que los dos o más tipos de luz comprenden luz blanca y luz con una longitud de onda definida.
13. El método de la reivindicación 11 o la reivindicación 12, en el que los dos o más tipos de luz comprenden además una fuente (140) de luz de hendidura.
14. El método de una cualquiera de las reivindicaciones 11 a 13, en el que los tipos de luz comprenden una fuente (136) de luz azul, una fuente (138) de luz blanca y una fuente (140) de luz de hendidura.
15. El método de una cualquiera de las reivindicaciones 12 a 14, en el que la luz con una longitud de onda definida comprende luz azul.
16. El método de una cualquiera de las reivindicaciones 11 a 15, comprendiendo el método además comunicar datos de exploración oftálmica a una ubicación remota a través de una red (220) y, opcionalmente, recibir una determinación basada en la revisión de los datos de detección oftálmica en la ubicación remota a través de la red (220).
17. El método de una cualquiera de las reivindicaciones 11 a 16, comprendiendo el método además procesar la serie de imágenes o la imagen compuesta usando un algoritmo para detectar una enfermedad o afección que requiera derivación y/o tratamiento.
18. El método de una cualquiera de las reivindicaciones 11 a 17, comprendiendo el método un usuario que controla un aparato quirúrgico o terapéutico que está alojado en el dispositivo, con un ordenador remoto a través de una red (220).
19. Un sistema para explorar a un paciente, comprendiendo el sistema:
una entrada en la que se introducen los datos de respuesta de la prueba ocular y, opcionalmente, detalles del operador y/o datos del paciente, comprendiendo la entrada información de la prueba ocular;
el dispositivo (100) de captura de imágenes de una cualquiera de las reivindicaciones 1 a 10 para capturar una o más imágenes de un ojo (192) del paciente, comprendiendo la o las imágenes capturadas información de la imagen del ojo;
un ordenador para proporcionar la información de la prueba ocular y la información de la imagen del ojo obtenidas a un ordenador remoto a través de una red (220);
el ordenador remoto para revisar la información de la prueba ocular y la información de la imagen del ojo obtenidas en una ubicación remota con respecto al ordenador y para introducir una determinación de una próxima línea de actuación basada en la revisión;
recibir en el ordenador a través de la red (220) la próxima línea de actuación determinada.
20. Un método para explorar a un paciente, comprendiendo el método:
introducir datos de respuesta de la prueba ocular y, opcionalmente, detalles del operador y/o datos del paciente en un ordenador, comprendiendo los datos de entrada información de la prueba ocular;
capturar con el método de una cualquiera de las reivindicaciones 11 a 18 una imagen más de un ojo (192) del paciente, comprendiendo la o las imágenes capturadas información de la imagen del ojo;
proporcionar con un ordenador la información de la prueba ocular y la información de la imagen del ojo obtenidas a un ordenador remoto a través de una red (220);
visualizar en un ordenador remoto la información de la prueba ocular y la información de la imagen del ojo obtenidas en una ubicación remota con respecto al ordenador para su revisión;
introducir una determinación de una próxima línea de actuación basada en la revisión en el ordenador remoto; y recibir en el ordenador a través de la red (220) la próxima línea de actuación determinada.
ES15751443T 2014-02-20 2015-02-20 Dispositivo, método y sistema oftálmico Active ES2881340T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AU2014900549A AU2014900549A0 (en) 2014-02-20 Ophthalmic device, method and system
PCT/AU2015/000091 WO2015123724A1 (en) 2014-02-20 2015-02-20 Ophthalmic device, method and system

Publications (1)

Publication Number Publication Date
ES2881340T3 true ES2881340T3 (es) 2021-11-29

Family

ID=53877435

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15751443T Active ES2881340T3 (es) 2014-02-20 2015-02-20 Dispositivo, método y sistema oftálmico

Country Status (6)

Country Link
US (1) US10016127B2 (es)
EP (1) EP3110306B1 (es)
CN (1) CN106102560B (es)
AU (1) AU2015221416B2 (es)
ES (1) ES2881340T3 (es)
WO (1) WO2015123724A1 (es)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11160447B2 (en) * 2015-08-24 2021-11-02 The Board Of Trustees Of The University Of Illinois Pixelated, full-field multi-protocol stimulus source apparatus, method and system for probing visual pathway function
JP6798287B2 (ja) * 2016-12-01 2020-12-09 株式会社ニデック 自覚式検眼装置
CN117204808A (zh) * 2017-06-14 2023-12-12 苏州四海通仪器有限公司 一种复眼眼底相机
WO2019053739A1 (en) * 2017-09-13 2019-03-21 Bakshe Prashant HIGH RESOLUTION IMAGING AND OBJECT CHARACTERIZATION SYSTEM WITH WIRELESS TRANSFER CAPACITY OF IMAGE AND DATA OVER A LONG DISTANCE
US10413172B2 (en) 2017-12-11 2019-09-17 1-800 Contacts, Inc. Digital visual acuity eye examination for remote physician assessment
US10708473B2 (en) * 2017-12-22 2020-07-07 Verily Life Sciences Llc Ocular imaging with illumination in image path
US10736506B2 (en) * 2018-06-14 2020-08-11 Broadspot Imaging Corp Composite image with cross-channel illumination
SG10201906314PA (en) * 2019-07-08 2021-02-25 Nat Univ Singapore An automated slit lamp with computer program parts and a method of eye screening using the same
CN112618155A (zh) * 2020-12-17 2021-04-09 上海市普陀区中心医院 一种用于眼科激光手术的滤光防护结构

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5848175A (en) 1991-05-27 1998-12-08 Canon Kabushiki Kaisha View point detecting device
US5684561A (en) * 1992-05-26 1997-11-04 Daphne Eye Technologies Device and method for evaluation of refraction of the eye
US5993001A (en) * 1997-06-05 1999-11-30 Joslin Diabetes Center, Inc. Stereoscopic imaging system for retinal examination with remote examination unit
JP4354601B2 (ja) * 1999-12-27 2009-10-28 株式会社トプコン 眼科装置
US6193371B1 (en) 2000-03-27 2001-02-27 Richard Snook Keratometer/pachymeter
US6685317B2 (en) * 2000-06-13 2004-02-03 Massie Research Laboratories, Inc. Digital eye camera
WO2002015818A2 (en) * 2000-08-23 2002-02-28 Philadelphia Ophthalmologic Imaging Systems, Inc. System and method for tele-ophthalmology
US7481535B2 (en) * 2001-08-02 2009-01-27 Daphne Instruments, Inc. Complete autorefractor system in an ultra-compact package
WO2005077256A1 (en) 2004-02-06 2005-08-25 Optovue, Inc. Optical apparatus and methods for performing eye examinations
GB0421215D0 (en) 2004-09-23 2004-10-27 Procyon Instr Ltd Pupillometers
US7174094B2 (en) 2005-02-07 2007-02-06 Peter Norman Steinkamp System and method for reflex-free coaxial illumination
US20070031002A1 (en) 2005-08-04 2007-02-08 Shalini Venkatesh Method and system for reducing artifacts in image detection
US7621636B2 (en) 2007-01-10 2009-11-24 Clarity Medical Systems, Inc. Working distance and alignment sensor for a fundus camera
US7854510B2 (en) 2008-10-16 2010-12-21 Steven Roger Verdooner Apparatus and method for imaging the eye
CN102429634B (zh) * 2011-08-23 2013-12-25 中国科学院光电技术研究所 人眼哈特曼对比敏感度测量仪

Also Published As

Publication number Publication date
US10016127B2 (en) 2018-07-10
EP3110306B1 (en) 2021-04-21
US20170065167A1 (en) 2017-03-09
AU2015221416A1 (en) 2016-09-29
WO2015123724A1 (en) 2015-08-27
EP3110306A4 (en) 2017-12-06
AU2015221416B2 (en) 2019-03-14
CN106102560A (zh) 2016-11-09
CN106102560B (zh) 2019-08-30
EP3110306A1 (en) 2017-01-04

Similar Documents

Publication Publication Date Title
ES2881340T3 (es) Dispositivo, método y sistema oftálmico
US20210169321A1 (en) Smartphone-based handheld ophthalmic examination devices
US11504000B2 (en) Ophthalmologic testing systems and methods
ES2601886T3 (es) Aparato y método para obtener imágenes de un ojo
ES2743618T3 (es) Sistema y método para obtener imágenes de una parte del cuerpo del paciente
ES2963363T3 (es) Sistema de formación de imágenes retinianas de campo amplio
CN109381158B (zh) 适配器、包含适配器的眼底照相系统及其使用方法
US10299674B2 (en) Visual field measuring device and system
FI125445B (fi) Katseenohjausjärjestely
JP2012525949A (ja) 携帯式視力検査装置及びその較正
ES2822148T3 (es) Dispositivo de evaluación de la vista
JP5097966B2 (ja) 眼科用検査装置
KR20190123084A (ko) 혼합 현실 안저카메라
CN202198573U (zh) 一种眼部成像装置
CN202198574U (zh) 一种眼部成像装置
CN202198575U (zh) 一种眼部成像装置
CN202136323U (zh) 一种眼部成像装置
JP2023553241A (ja) 網膜障害を有する見る人の目の視覚を改善するためのシステム及び方法
JP2019103079A (ja) 虹彩撮影装置およびこれを利用した虹彩分析システム
WO2023091660A1 (en) Vision screening systems and methods
CN102885608A (zh) 一种眼部成像的系统和方法
CN102885610A (zh) 一种眼部成像的系统和方法