WO2013057352A1 - Cámara de fondo de ojo multi-perspectiva - Google Patents

Cámara de fondo de ojo multi-perspectiva Download PDF

Info

Publication number
WO2013057352A1
WO2013057352A1 PCT/ES2012/070726 ES2012070726W WO2013057352A1 WO 2013057352 A1 WO2013057352 A1 WO 2013057352A1 ES 2012070726 W ES2012070726 W ES 2012070726W WO 2013057352 A1 WO2013057352 A1 WO 2013057352A1
Authority
WO
WIPO (PCT)
Prior art keywords
matrix
fundus
image
microlenses
microlens
Prior art date
Application number
PCT/ES2012/070726
Other languages
English (en)
French (fr)
Inventor
Manuel MARTÍNEZ CORRAL
Amparo PONS MARTÍ
Genaro Saavedra Tortosa
Héctor NAVARRO FRUCTUOSO
Raúl MARTÍNEZ CUENCA
Ángel TOLOSA RUIZ
Natividad ALCÓN
Original Assignee
Asociación Industrial De Óptica, Color E Imagen - Aido
Universitat De Valencia
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asociación Industrial De Óptica, Color E Imagen - Aido, Universitat De Valencia filed Critical Asociación Industrial De Óptica, Color E Imagen - Aido
Priority to EP12840927.3A priority Critical patent/EP2769666A4/en
Priority to US14/353,192 priority patent/US20140347628A1/en
Publication of WO2013057352A1 publication Critical patent/WO2013057352A1/es

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography

Definitions

  • the present invention belongs to the field of optics and ophthalmology. Specifically it refers to an fundus camera that captures an integral photograph of the fundus. From this integral photograph it is possible to project three-dimensional images of the fundus, generate topographic maps of it and perform an optical section on the image obtained.
  • Fundus is a term used to refer to the posterior pole of the eyeball. This part mainly includes the retina, the macula and the optic nerve, and its examination is common to detect eye diseases, and it is also possible to detect diseases not directly linked to the eye, such as diabetes or hypertension.
  • the most common devices for non-invasive retinal fundus examination are the ophthalmoscope and the fundus chamber. These devices are very useful for a first diagnosis and for the monitoring of retinal pathologies.
  • the proposed fundus camera is capable of generating three-dimensional (3D) images of the posterior pole.
  • 3D three-dimensional
  • the fundus camera such as the one described in US Patent 7,798,642 B2, incorporates a lighting system to illuminate the posterior pole of the eye, a low magnification microscope and a camera attached to it, which allows you to get pictures of the fundus.
  • This device provides flat images without the possibility of making topographic reconstructions of the retinal fundus or 3D projections.
  • the confocal scanning ophthalmoscope based on the concept of confocal microscopy, was proposed by Webb and colleagues in their article "Confocal scanning laser ophthalmoscope", Appl. Opt. 26, 1492-1499 in 1987.
  • This device not widely used due to its high cost, is based on the projection on the retina of a laser point focused by the ocular optics, and the subsequent detection of the rays reflected by the retina after crossing a small hole, or pinhole, which limits the entry into the detector of the most diffuse rays reflected by the retina.
  • the main characteristic of this type of ophthalmoscope is its high optical sectioning capacity, which allows high topographic reconstructions resolution and contrast
  • Its disadvantage is the need for the use of laser lighting, and the need to perform a point-to-point scan throughout the area of the retina that is You want to observe until you get the final three-dimensional image. While the laser illumination gives the images a monochromatic appearance, far from the chromaticity of the images obtained with the retinal background camera, the need for scanning delimits the number of pixels of the final image and requires some time until all the scanned The region of interest.
  • the visual field (area) that can be registered is smaller than that which can be registered with a fundus camera, the resolution being higher.
  • optical coherence tomograph proposed by Huang et al in 1991 in their article “Optical coherence tomography,” Science 254, 1 178-1 181, employs an interferometric technique to obtain tomographic images of biological tissues with high resolution, especially axial .
  • This instrument is based on a point-to-point scanning concept similar to that of the confocal ophthalmoscope, but here the image is obtained by optical sectioning from low coherence interferences between the light reflected by the different layers of the retinal tissue and the light with the That tissue is illuminated. The image is then generated from successive axial measurements by transverse scanning, and is presented as a two-dimensional topographic image.
  • the axial resolution is better than that of the ophthalmoscope, the transverse resolution is worse.
  • the main advantage of the OCT is its optical sectioning capacity, which allows it to obtain high-resolution 3D tomographic maps. Its disadvantages are its high cost, the monochromaticity of the images and the limited number of pixels.
  • This invention describes an fundus chamber that is capable of generating three-dimensional color images of the posterior pole of the eye. And although the fundus includes the retina, the macula and the optic nerve, from now on we will not refer interchangeably to this area of the eyeball with the terms posterior pole, fundus or retina.
  • a matrix of microlenses must be inserted between the retina and the camera sensor used to photograph it, thus constituting an integral imaging system.
  • This technique of Image allows obtaining three-dimensional photographs of the posterior pole with polychromatic light, with high resolution and with full parallax. These images can be projected from an integral image monitor, or used to calculate, with high segmentation capacity, a topographic map of the fundus.
  • the invention advantageously combines the characteristics of the conventional fundus camera and the integral imaging technique to generate 3D images with which the main disadvantage of ophthalmoscopes and stereoscopic fundus cameras is solved: visual fatigue due to conflict convergence - accommodation.
  • the present invention employs integral imaging technology to generate three-dimensional images of the fundus.
  • the integral imaging technique is based on the recording, through a matrix of microlenses, of an array of 2D elementary images of a 3D scene. Each of these elementary images gathers a different perspective of the 3D scene, and as many perspectives (elementary images) as microlenses are recorded in the matrix.
  • One of the advantages of the integral imaging technique over the stereoscopy technique is precisely the number of perspectives that are recorded. In the case of the integral image, there are so many, horizontally and vertically, as microlenses have the matrix in each of these directions, while in stereoscopy only two perspectives are collected horizontally, trying to simulate the perspective perceived with two eyes in binocular vision
  • the elementary images which we jointly call integral photography, store discrete information from the ray map (also called "light field") emitted by the 3D scene. From the ray map it is possible to perform a topographical reconstruction of the fundus or of any element that is part of it. It is also possible from a correct processing of the ray map, to obtain a two-dimensional image of a 3D scene on which it is possible to make Kurss towards planes of the scene that appear out of focus, as well as to establish synthetic openings on the captured image to focus on the region of interest It is what is known as a full-fledged technique, and the two-dimensional image generated full-fledged photography.
  • This projected multi-perspective image is autostereoscopic, has depth, and unlike the projection of stereoscopic pairs, parallax, and it is not necessary to use special glasses for your 3D vision.
  • the present invention is very useful for the diagnosis of retinal disorders, such as glaucoma, diabetic retinopathy, macular degeneration, and any other pathology that can be diagnosed from an examination of the posterior pole, especially those that involve alterations. of the topography of the fundus surface.
  • FIG. 1 shows a simplified scheme of the invention with the most important components.
  • An ophthalmoscopic lens (2) (as an optical equivalent), a lighting mechanism (3,5,4), a matrix of microlenses (6) and a matrix sensor (7) connected to a process unit (1 1) is represented.
  • image processing and with image projection means which include a conventional monitor (9) and an integral image monitor (10).
  • Other optional elements are represented to increase the resolution, namely: a phase modulator (18) and a displacement element (8).
  • FIG. 2 shows how the microlens matrix is sampled.
  • a certain pixel (14) collects the intensity of the beam that carries the appropriate inclination.
  • an electromechanical displacement device (8) for example a piezoelectric device, can be used that transversely displaces the microlens matrix (6), thereby increasing the number of effective microlenses.
  • an electronically tunable linear phase modulator also known as a phase wedge or electro-optical deflector, (eg, a liquid crystal display) can be used. or an acousto-optical phase modulator that, placed on the optical axis before the microlenses, deflects the rays reflected by the retina at a certain angle. With the change of direction of the path of the rays the effect that is achieved on the resolution of the integral image is equivalent to that which can be achieved with the transverse displacement of the microlenses.
  • the integral image captured by the matrix sensor (7) can be processed with the assistance of a process unit (1 1) and project the 3D image of the retina from an integral image monitor (10).
  • the process unit (1 1) can also perform a topographic reconstruction of the fundus (13), or of any of its elements separately, which can be presented in the form of a topographic map or in the form of sections of different planes of the 3D scene on a conventional monitor or screen (9).
  • a topographic reconstruction, section by section, of the fundus (13) can be calculated (processed) from integral photography.
  • the resolution of the topographic sections is equal to the resolution of the integral image.
  • the number of segmented sections is equal to the number of perspectives of synthetic integral photography.
  • a new integral image can be calculated, which we call synthetic integral image, prepared for projection from an integral image monitor (10).
  • This monitor (10) provides the observer with a real three-dimensional reconstruction of the fundus (13).
  • the Projected 3D image is autostereoscopic, with parallax and depth, so it is not necessary to use additional filters for observation.
  • the observer can focus, when looking towards the monitor, at different depths of the 3D image. Being autostereoscopic, in this observation there is no convergence-accommodation conflict, which allows a prolonged observation of the scene without visual fatigue.
  • the camera has at least one ophthalmoscopic lens (2) which, in conjunction with the ocular optical system (1), provides an enlarged image of the retina on the plane of the microlens matrix (6).
  • the matrix sensor (7) is adjusted so that its conjugate through each of the microlenses (7), all of them with the same focal distances, of the ophthalmoscopic lens (2) and of the anterior part of the ocular optical system ( formed by the cornea and aqueous humor) coincides with the plane of the pupil (1) (which constitutes the opening diaphragm of the system).
  • a light source (3) allows to illuminate the retinal region of interest (13).
  • a beam deflector (4) and a collector lens (5) can be used for this.
  • the collector lens (5) together with the ophthalmoscopic lens (2), project on the plane of the pupil the image of the light source (3), thus constituting a retinal lighting system of the Kohler type.
  • This type of lighting regulates the cone of light rays that illuminates the scene, covering the pupil's frontal diameter exactly and homogeneously in its specific numerical aperture, in order to take advantage of the greater amount of the light emitted by the emitting source.
  • This lighting system allows capturing a whole series of elementary images of the fundus (13) that, as we will see below, contain precise information of the light rays emitted by the retina when it is conveniently illuminated.
  • the integral image system composed mainly of the microlenses (6) and the sensor (7), works by capturing a sample of the set of rays emitted by the 3D sample (13).
  • a certain pixel (14) collects the intensity of the ray that, entering through the center of its corresponding microlens (17), carries the appropriate inclination to be registered in the sensor in the corresponding area (12) to that microlens.
  • the information captured by the matrix sensor (integral photography) can be represented in the ray space. In this space the matrix sensor (7) makes a discrete sampling of the ray continuum emitted by the sample.
  • the number of points at which the ray space is sampled is equal to the number of useful pixels of the sensor. To perform an optimal sampling, which allows both a precise reconstruction of the ray space, and at a later stage a faithful reproduction of the 3D scene, it is convenient that the number of microlenses be equal (or approximately equal) to the number of pixels per microlens .
  • the resolution of the system depends on the number of microlenses (17) that are per unit area in the matrix (6), and this is limited by the manufacturing processes of these and the size that each microlens can have (here we must consider the limits imposed by the diffraction of light), to increase the number of effective pixels (and with it, the effective number of microlenses) it is proposed to add a transverse displacement device (8), step by step, of the microlens matrix (6). For each step of this transverse scan, an integral photograph is captured with the sensor (7).
  • Topographic reconstruction of the fundus By having multiple perspectives, and using conventional topographic reconstruction algorithms, it is possible to generate a topographic map of the fundus, such as CAD, which can be seen on a conventional screen. By containing multi-perspective information, this map can be rotated to visualize the perspective of interest of the fundus element that you want to examine in more detail.
  • this pixel sampling algorithm makes it possible to synthetically select the parameters of the microlens matrix (7), such as focal length, size, distance between microlenses (17); also the position of this respect to the monitor and the size of the reconstructed images, including the geometry of the microlenses (circular, hexagonal, square ...), simulating that it has been captured in the same way as it is to be projected.
  • the projection system is not the same as the capture system, the integral photography is adjusted to look like it was recorded with a system of identical characteristics to which it is used to project it.
  • the algorithm is the result of the cascading application of three processes: monitor simulation, virtual capture and homogeneous scaling.
  • the simulation of the monitor the matrix of elementary images captured with the microlenses is used as input of the algorithm.
  • virtual capture the image is transformed to simulate that it has been captured by a matrix of pinhole.
  • the position of this matrix, the spatial period between its elements, the distance between the matrix and the sensor, and the number of pixels are arbitrarily assigned to match the characteristics of the monitor that will serve as a projector.
  • the number of effective pixels of the synthetic integral photograph obtained after the microlens sweep be of the same order as the number of pixels of the monitor.
  • the application of SPOC will allow obtaining an integral image in which the number of elementary images must be significantly greater than the number of pixels per elementary image. While the number of elementary images determines the resolution of the monitor, the number of pixels per elementary image determines the number of perspectives. A number of perspectives between 12 and 16 is considered sufficient, and it is desirable that the resolution of the monitor be much higher.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Se presenta una cámara de fondo de ojo que incorpora un sistema de imagen integral para capturar una fotografía integral del fondo de ojo. Esta fotografía integral hace posible proyectar una imagen tridimensional y generar mapas topográficos del fondo de ojo. La cámara de fondo de ojo puede funcionar en modo plenóptico, y así hacer un zums sobre una imagen de dos dimensiones generada a partir de la fotografía integral. El equipo propuesto se compone de un sistema óptico para iluminar el fondo de ojo, y un sistema óptico que conforma el sistema de captura de imagen integral. Este sistema de captura incluye una lente oftalmoscópica, una matriz de microlentes y un sensor, y permite registrar con un solo disparo muchas perspectivas del fondo ocular. Para mejorar la resolución de la fotografía integral, el sistema de captura posee un dispositivo que permite desplazar la matriz de microlentes unas pocas micras.

Description

CÁMARA DE FONDO DE OJO MULTI-PERSPECTIVA
Sector de la Técnica
La presente invención pertenece al campo de la óptica y la oftalmología. Se refiere concretamente a una cámara de fondo de ojo que captura una fotografía integral del fondo de ojo. A partir de esta fotografía integral es posible proyectar imágenes tridimensionales del fondo de ojo, generar mapas topográficos de él y realizar un seccionado óptico sobre la imagen que se obtiene.
Antecedentes
Fondo de ojo es un término utilizado para referirse al polo posterior del globo ocular. Esta parte comprende, principalmente, la retina, la mácula y el nervio óptico, y su examen es habitual para detectar enfermedades oculares, siendo posible también detectar enfermedades no ligadas directamente al ojo, como la diabetes o la hipertensión.
Los dispositivos más comunes para el examen no invasivo del fondo retiniano son el oftalmoscopio y la cámara de fondo de ojo. Estos dispositivos son muy útiles para un primer diagnóstico y para el monitorizado de patologías retinianas. Para mejorar las prestaciones de estos equipos, la cámara de fondo de ojo que se propone es capaz de generar imágenes tridimensionales (3D) del polo posterior. La principal diferencia con respecto a los oftalmoscopios y cámaras de fondo de ojo convencionales, incluidos las cámaras de fondo y los oftalmoscopios estereoscópicos, radica en que la cámara propuesta registra un gran número de perspectivas, con paralaje horizontal y vertical, que permiten la reconstrucción real de la imagen 3D del fondo retiniano.
Para la proyección de una imagen integral capturada con la cámara preparada para tal fin, otro trabajo relacionado con la presente invención es el algoritmo SPOC, de smart pseudoscopic-to-orthoscopy conversión, propuesto por H. Navarro, R. Martínez-Cuenca, G. Saavedra, M. Martínez-Corral, and B. Javidi en "3D integral imaging display by smart pseudoscopic-to-orthoscopic conversión," Opt. Express 25, 25573-25583 (2010), que permite adaptar las imágenes elementales de la fotografía integral original capturada a las características necesarias para su proyección desde un monitor o pantalla de imagen integral y un correcto visionado en 3D.
En lo que sigue, se hará un repaso de otros dispositivos existentes para la obtención de imágenes de fondo de ojo.
La cámara de fondo de ojo, como por ejemplo la que se describe en la patente estadounidense US 7.798.642 B2, incorpora sistema de iluminación para iluminar el polo posterior del ojo, un microscopio de poco aumento y una cámara acoplada a este, lo que le permite obtener fotografías del fondo de ojo. Este dispositivo proporciona imágenes planas sin posibilidad alguna de hacer reconstrucciones topográficas del fondo retiniano ni proyecciones 3D.
En US 7,290,880 B1 se describe una cámara de fondo de ojo estereoscópica. Estas cámaras permiten la captura de dos fotografías del polo posterior del ojo con perspectiva horizontal diferente. Estas imágenes estereoscópicas son útiles para el cálculo de topografía retiniana, y también para su proyección en monitores estereoscópicos. Sin embargo, al solo disponerse de dos vistas, las reconstrucciones topográficas carecen de segmentado óptico; es decir, no es posible seleccionar en la reconstrucción de la imagen distintos planos en profundidad de la escena. Por otra parte, y dado que la observación estereoscópica es muy sensible a los efectos inherentes al conflicto convergencia-acomodación, la proyección de esta imagen estereoscópica desde un monitor, da lugar a una gran fatiga visual cuando su observación es prolongada.
El oftalmoscopio confocal de barrido, basado en el concepto de la microscopía confocal, fue propuesto por Webb y colaboradores en en su artículo "Confocal scanning láser ophthalmoscope", Appl. Opt. 26, 1492-1499 en 1987. Este aparato, de uso no muy extendido debido a su alto coste, se basa en la proyección sobre la retina de un punto láser focalizado por la óptica ocular, y la posterior detección de los rayos reflejados por la retina tras atravesar un pequeño orificio, o estenope, que limita la entrada en el detector de los rayos más difusos reflejados por la retina.. La principal característica de este tipo de oftalmoscopio es su alta capacidad de seccionado óptico, que permite reconstrucciones topográficas de alta resolución y contraste. Su desventaja es la necesidad del uso de iluminación láser, y la necesidad de realizar un barrido punto a punto por toda el área de la retina que se desea observar hasta obtener la imagen tridimensional final. Mientras que la iluminación láser da a las imágenes un aspecto monocromático, lejos de la cromaticidad de las imágenes obtenidas con la cámara de fondo retiniano, la necesidad de barrido delimita el número de píxeles de la imagen final y requiere de un tiempo hasta haber escaneado toda la región de interés. Además, el campo visual (área) que se puede registrar es menor que el que se puede registrar con una cámara de fondo de ojo, siendo mayor la resolución.
El tomógrafo de coherencia óptica (OCT) propuesto por Huang y colaboradores en 1991 en su artículo "Optical coherence tomography," Science 254, 1 178-1 181 , emplea una técnica interferométrica para obtener imágenes tomográficas de tejidos biológicos con alta resolución, especialmente axial. Este instrumento se basa en un concepto de barrido punto a punto similar al del oftalmoscopio confocal, pero aquí la imagen se obtiene mediante seccionado óptico a partir de interferencias de baja coherencia entre la luz reflejada por las distintas capas del tejido retiniano y la luz con la que se ilumina dicho tejido. La imagen se genera entonces a partir de sucesivas medidas axiales realizando un barrido transversal, y se presenta como una imagen topográfica bidimensional. Mientras que la resolución axial es mejor que la del oftalmoscopio, la resolución transversal es peor. Al igual que en le caso anterior, la principal ventaja del OCT es su capacidad de seccionado óptico, que le permite la obtención de mapas tomográficos retiñíanos 3D de alta resolución. Sus desventajas son su altocoste, la monocromaticidad de las imágenes y el limitado número de píxeles.
Descripción breve de la invención
En esta invención se describe una cámara de fondo de ojo que es capaz de generar imágenes tridimensionales en color del polo posterior del ojo. Y aunque el fondo de ojo comprende la retina, la mácula y el nervio óptico, en adelante no referiremos indistintamente a esta zona del globo ocular con los términos de polo posterior, fondo de ojo o retina.
Para poder generar las imágenes 3D del fondo de ojo, se ha de insertar un matriz de microlentes entre la retina y el sensor de la cámara que se utiliza para fotografiarla, constituyendo así un sistema de imagen integral. Esta técnica de imagen permite la obtención de fotografías tridimensionales del polo posterior con luz policromática, con alta resolución y con paralaje completo. Estas imágenes se pueden proyectar desde un monitor de imagen integral, o utilizar para calcular, con alta capacidad de segmentado, un mapa topográfico del fondo de ojo. La invención combina ventajosamente las características de la cámara de fondo de ojo convencional y de la técnica de imagen integral para generar imágenes 3D con las que se solventa la principal desventaja de los oftalmoscopios y cámaras de fondo de ojo estereoscópicos: la fatiga visual debido al conflicto convergencia- acomodación.
La presente invención emplea la tecnología de imagen integral para generar las imágenes en tres dimensiones del fondo de ojo. La técnica de imagen integral se basa en la grabación, a través de una matriz de microlentes, de una matriz de imágenes elementales 2D de una escena 3D. Cada una de estas imágenes elementales recoge una perspectiva diferente de la escena 3D, y se graban tantas perspectivas (imágenes elementales) como microlentes hay en la matriz. Una de las ventajas de la técnica de imagen integral frente a la técnica de la estereoscopia es precisamente el número de perspectivas que se registran. En el caso de la imagen integral son tantas, en horizontal y en vertical, como microlentes posea la matriz en cada una de estas direcciones, mientras que en estereoscopia tan solo se recogen dos perspectivas en horizontal, tratando de simular la perspectiva que se percibe con sendos ojos en visión binocular
Las imágenes elementales, a las que conjuntamente denominamos fotografía integral, almacenan información discreta del mapa de rayos (también llamado «light field») emitidos por la escena 3D. A partir del mapa de rayos es posible realizar una reconstrucción topográfica del fondo de ojo o de cualquier elemento que forma parte de éste. Es posible también a partir de un correcto procesado del mapa de rayos, obtener una imagen bidimensional de una escena 3D sobre la que es posible hacer zums hacia planos de la escena que aparezcan desenfocados, así como establecer aperturas sintéticas sobre la imagen capturada para centrarnos en la región de interés. Es lo que se conoce como técnica plenoptica, y la imagen bidimensional generada fotografía plenoptica. Y también es posible preparar una imagen integral para su proyección multiperspectiva, con paralaje total, en un monitor de imagen integral. Esta imagen multiperspectiva proyectada es autoestereoscópica, tiene profundidad, y a diferencia de la proyección de pares estereoscópicos, paralaje, y no es necesario el uso de gafas especiales para su visión en 3D.
La presente invención resulta muy útil para el diagnóstico de alteraciones retinianas, como puede ser el glaucoma, la retinopatía diabética, la degeneración macular, y cualquier otra patología que pueda ser diagnosticada a partir de un examen del polo posterior, en especial aquellas que conlleven alteraciones de la topografía de la superficie del fondo de ojo.
Figuras
La figura 1 muestra un esquema simplificado de la invención con los componentes más importantes. Se representa una lente oftalmoscopica (2) (como equivalente óptico), un mecanismo de iluminación (3,5,4), una matriz de microlentes (6) y un sensor matricial (7) conectado con una unidad de proceso (1 1 ) para el procesamiento de imagen y con unos medios de proyección de imagen, que incluyen un monitor convencional (9) y un monitor de imagen integral (10). Se representan otros elementos opcionales para aumentar la resolución, a saber: un modulador de fase (18) y un elemento de desplazamiento (8).
La figura 2 muestra cómo realiza el muestreo la matriz de microlentes. Cada uno de los rayos que parten reflejados en distintas direcciones desde cualquier punto (16) iluminado del fondo de ojo (13) atraviesa su correspondiente microlente (17) de la matriz (6). De este modo, un determinado píxel (14) recoge la intensidad del rayo que lleva la inclinación adecuada.
Descripción detallada de la invención
A continuación, se describe con referencia a las figuras una realización de la invención que no debe ser considerada con carácter limitativo.
La aplicación del concepto de imagen integral a la fotografía retiniana permite que en una sola fotografía (fotografía integral) se graben un gran número de perspectivas del fondo de ojo (13). Como se observa en la figura 1 , una fuente de luz (3) es proyectada sobre el fondo de ojo (13) a través de un sistema óptico (5), (4) y (2) que considera también el del ojo (1 ). La luz reflejada por el fondo pasa a través de las microlentes que componen la matriz (6) incidiendo sobre el sensor (7).
Para aumentar la resolución del sistema de imagen integral se puede emplear un dispositivo electromecánico de desplazamiento (8), por ejemplo un piezoeléctrico, que desplace transversalmente la matriz de microlentes (6), aumentando así el número de microlentes efectivas.
Como alternativa a este dispositivo electromecánico (8), o conjuntamente con éste, se puede emplear un modulador lineal de fase sintonizable electrónicamente (18), también conocido como cuña de fase o deflector electro-óptico, (p.e., una pantalla de cristal líquido) o un modulador de fase acusto-óptico que, colocado en el eje óptico antes de las microlentes, desvíe los rayos reflejados por la retina un determinado ángulo. Con el cambio de dirección de la trayectoria de los rayos el efecto que se consigue sobre la resolución de la imagen integral es equivalente al que se puede conseguir con el desplazamiento transversal de las microlentes.
Una vez grabada la imagen integral captada por el sensor matricial (7) se puede procesar con la asistencia de una unidad de proceso (1 1 ) y proyectar la imagen 3D de la retina desde un monitor de imagen integral (10). La unidad de proceso (1 1 ) puede también realizar una reconstrucción topográfica del fondo de ojo (13), o de cualquiera de sus elementos por separado, que puede ser presentada en forma de mapa topográfico o en forma de secciones de distintos planos de la escena 3D en un monitor o pantalla convencional (9).
Como se ha dicho, a partir de la fotografía integral se puede calcular (procesar) una reconstrucción topográfica, sección a sección, del fondo de ojo (13). La resolución de las secciones topográficas es igual a la resolución de la imagen integral. El número de secciones segmentadas es igual al número de perspectivas de la fotografía integral sintética.
A partir de la fotografía integral capturada se puede calcular una imagen integral nueva, que llamamos imagen integral sintética, preparada para su proyección desde un monitor de imagen integral (10). Este monitor (10) proporciona al observador una reconstrucción real, en tres dimensiones, del fondo de ojo (13). La imagen 3D proyectada es autoestereoscópica, con paralaje y profundidad, por lo que no es necesario el uso de filtros adicionales para su observación.
Mediante acción coordinada de los mecanismos de acomodación y convergencia del ojo, el observador puede enfocar, al mirar hacia el monitor, a diferentes profundidades de la imagen 3D. Al ser autoestereoscópica, en esta observación no se produce conflicto convergencia-acomodación, lo que permite una observación prolongada de la escena sin que aparezca la fatiga visual.
Tal y como se muestra en la Figura 1 , donde se ve un esquema de la invención, la cámara posee al menos una lente oftalmoscópica (2) que, en con el sistema óptico ocular (1 ), proporciona una imagen aumentada de la retina sobre el plano de la matriz de las microlentes (6).
El sensor matricial (7) se ajusta de forma que su conjugado a través de cada una de las microlentes (7), todas ellas con la mismas distancias focales, de la lente oftalmoscópica (2) y de la parte anterior del sistema óptico ocular (formado por la córnea y el humor acuoso) coincida con el plano de la pupila (1 ) (que constituye el diafragma de abertura del sistema).
Una fuente de luz (3) permite iluminar la región retiniana de interés (13). Para esto se puede emplear un deflector de haz (4) y una lente colectora (5). La lente colectora (5) conjuntamente con la lente oftalmoscópica (2), proyectan sobre el plano de la pupila la imagen de la fuente de luz (3), para constituir así un sistema de iluminación retiniana del tipo Kóhler. Este tipo de iluminación regula el cono de rayos de luz que ilumina la escena, cubriendo exacta y homogéneamente el diámetro frontal de la pupila en su apertura numérica específica, para de esta manera poder aprovechar la mayor cantidad de la luz emitida por la fuente emisora. Este sistema de iluminación permite capturar toda una serie de imágenes elementales del fondo de ojo (13) que, como veremos a continuación, contienen información precisa de los rayos de luz emitidos por la retina cuando está convenientemente iluminada.
Tal y como vemos en la Figura 2, el sistema de imagen integral compuesto fundamentalmente por las microlentes (6) y el sensor (7), funciona capturando un muestreo del conjunto de rayos emitidos por la muestra 3D (13). De este modo, un determinado píxel (14) recoge la intensidad del rayo que, entrando por el centro de su correspondiente microlente (17), lleva la inclinación adecuada para quedar registrado en el sensor en el área correspondiente (12) a esa microlente. La información capturada por el sensor matricial (la fotografía integral) puede ser representada en el espacio de rayos. En este espacio el sensor matricial (7) realiza un muestreo discreto del continuo de rayos emitido por la muestra. Cuanto mayor sea el número de microlentes (17), y el de píxeles (14) por microlente, mejor será el muestreo, y más fielmente se reproducirá en una fase posterior la imagen 3D. Nótese que, de acuerdo con lo establecido por la técnica de imagen integral, los rayos que entren por una microlente (17) han de quedar confinados (mediante una barrera óptica) en el área (12) para su correcto procesado.
El número de puntos en que se muestrea el espacio de rayos es igual al número de píxeles útiles del sensor. Para realizar un muestreo óptimo, que permita tanto una reconstrucción precisa del espacio de rayos, como en una fase posterior una reproducción fiel de la escena 3D, es conveniente que el número de microlentes sea igual (o aproximadamente igual) al número de píxeles por microlente.
Dado que la resolución del sistema depende del número microlentes (17) que hay por unidad de superficie en la matriz (6), y esto está limitado por los procesos de fabricación de éstas y el tamaño que puede tener cada microlente (aquí hay que considerar los límites que impone la difracción de la luz), para aumentar el número de píxeles efectivos (y con él, el número efectivo de microlentes) se propone añadir un dispositivo de desplazamiento transversal (8), paso a paso, de la matriz de microlentes (6). Para cada paso de este barrido transversal se captura con el sensor (7) una fotografía integral. Estos desplazamientos tienen una longitud £ = p / N , siendo p el espaciado entre microlentes (distancia entre centros de microlentes consecutivas) y N el número de pasos en cada dirección cartesiana x- y. Esto permite incrementar en un factor Ν la frecuencia de muestreo del espacio de rayos. Este aumento en la resolución también se puede lograr por medios ópticos como, por ejemplo, con una cuña de fase (18).
Tal y como muestra la Figura 1 , mediante la CPU (1 1 ) se produce la necesaria coordinación entre los procesos de barrido de las microlentes, captura y grabación de las fotografías integrales, procesado de las mismas para componer la fotografía integral sintética (que no es estrictamente necesario), y finalmente grabación de la fotografía integral sintética. La fotografía integral, ya sea la original o la sintética, se puede utilizar para tres propósitos:
a) Reconstrucción topográfica del fondo de ojo. Al disponer de múltiples perspectivas, y haciendo uso de algoritmos de reconstrucción topográfica convencionales, es posible generar un mapa topográfico del fondo de ojo, tipo CAD por ejemplo, que puede ser visto en una pantalla convencional. Al contener información multiperspectiva, este mapa puede ser rotado para visualizar la perspectiva de interés del elemento del fondo de ojo que se desea examinar con más detenimiento.
b) Reconstrucción topográfica del fondo de ojo sección a sección. A partir de la función plenóptica es posible realizar un seccionado óptico sobre una fotografía 2D obtenida del procesado de la fotografía integral. La resolución de las secciones topográficas viene determinada por el número de microlentes activas. El número de planos en que se puede segmentar la imagen 3D es igual al número de píxeles por imagen elemental. Por ello, el uso de la técnica de barrido de las microlentes permite incrementar en un factorVN tanto la resolución como la capacidad de segmentado de la topografía retiniana.
c) Proyección de imágenes 3D en un monitor de imagen integral. Mediante el uso del algoritmo SPOC, es posible calcular a partir de la fotografía integral una nueva fotografía integral sintética con el conjunto de imágenes elementales preparadas para su proyección en un monitor de imagen integral. Dado que el funcionamiento del sistema de proyección de imagen integral se fundamenta en el principio de reversibilidad de los rayos, y dado que la configuración del sistema de captura no tiene porqué ser el mismo que el de proyección— por ejemplo que el tamaño de las microlentes empleadas para la captura sean más pequeñas que las que se empleen en la proyección, o que no tengan la misma geometría, o que la distancia entre el sensor y las microlentes durante la captura no sea la misma que entre el monitor y la matriz de microlentes— , con este algoritmo se resuelven las diferencias estructurales entre el sistema de captura y el sistema de proyección, ofreciendo en este caso imágenes tridimensionales que pueden ser vistas una vez proyectadas directamente sin la necesidad de emplear gafas especiales. Concretamente, este algoritmo de muestreo de píxeles permite seleccionar sintéticamente los parámetros de la matriz de microlentes (7), como la distancia focal, el tamaño, la distancia entre las microlentes (17); también la posición de esta respecto del monitor y el tamaño de la imágenes reconstruidas, incluso la geometría de las microlentes (circulares, hexagonales, cuadradas...), simulando que ha sido capturada de la misma manera que como se va a proyectar. De esta manera, si se el sistema de proyección no es el mismo que el de captura, se ajusta la fotografía integral para que parezca que fue grabada con un sistema de idénticas características al que sirve para proyectarla.
El algoritmo es el resultado de la aplicación en cascada de tres procesos: la simulación del monitor, la captura virtual y el escalado homogéneo.
En primer lugar, la simulación del monitor: la matriz de imágenes elementales capturadas con las microlentes se usa como entrada del algoritmo.
En un segundo paso, la captura virtual: la imagen se transforma para simular que ha sido capturada mediante una matriz de estenopes. La posición de esta matriz, el periodo espacial entre sus elementos, la distancia entre la matriz y el sensor, y el número de píxeles se asignan arbitrariamente para que coincidan con las características del monitor que servirá de proyector.
Por último un escalado homogéneo: se adapta el tamaño de las imágenes elementales sintéticas a las características del monitor de imagen integral.
Es conveniente, aunque no necesario, que el número de píxeles efectivos de la fotografía integral sintética obtenida después del barrido de las microlentes sea del mismo orden que el número de píxeles del monitor. La aplicación de SPOC permitirá la obtención de una imagen integral en la que el número de imágenes elementales deberá ser sensiblemente mayor que el número de píxeles por imagen elemental. Mientras que el número de imágenes elementales determina la resolución del monitor, el número de píxeles por imagen elemental determina el número de perspectivas. Un número de perspectivas entre 12 y 16 se considera suficiente, y es conveniente que la resolución del monitor sea mucho mayor.

Claims

Reivindicaciones
1 . - Cámara de fondo de ojo multi-perspectiva que comprende:
- una lente oftalmoscópica (2) configurada para enfocar un plano de interés del fondo de ojo (13) cuando se ilumina con una fuente de luz (3);
- un sensor matricial (7) que comprende una matriz 2D de pixeles configurados para registrar la intensidad y la frecuencia de la luz reflejada por el fondo de ojo (13), con dicho sensor matricial (7) acoplado con unos medios de procesamiento de imágenes (1 1 ) configurados para tratar una pluralidad de imágenes elementales formadas en los pixeles (14) de dicho sensor matricial (7);
caracterizada por que comprende además:
- una matriz de microlentes (6), cuyas microlentes (17) están dispuestas formando un plano transversal al eje óptico y situadas entre la lente oftalmoscópica (2) y el sensor matricial (7) paralelamente a ambos (2,7), con cada microlente (17) configurada para formar una imagen elemental con una perspectiva del fondo de ojo sobre un conjunto de pixeles (14) del sensor matricial (7) asociado con dicha microlente (17); donde la lente oftalmoscópica (2) y la matriz de microlentes (6) están dispuestas de tal manera que la imagen de un plano arbitrario del fondo de ojo (13) se forma sobre la matriz de microlentes (6) y a su vez dicha matriz de microlentes (6) está dispuesta para, en conjunción con el sistema óptico ocular exterior del paciente y la lente oftalmoscópica (2), formar una imagen de la pupila del ojo sobre el sensor matricial (7).
2. - Cámara según reivindicación 1 , caracterizada por que comprende además unos medios de desplazamiento (8) configurados para desplazar transversalmente al eje óptico la matriz de microlentes (6) en coordinación con los medios de procesamiento de imágenes (1 1 ) para adquirir un conjunto de imágenes elementales formadas en los pixeles (14) en cada desplazamiento transversal.
3. - Cámara según reivindicación 2, caracterizada por que los medios de desplazamiento (8) comprenden un mecanismo piezoeléctrico.
4. Cámara según una cualquiera de las reivindicaciones anteriores, caracterizada por que comprende además un modulador lineal de fase (18) acoplado a la matriz de microlentes (6) cuyas características moduladoras de fase son seleccionabas entre electro-ópticas y acusto-ópticas.
5. Cámara según una cualquiera de las reivindicaciones anteriores, caracterizada por que la fuente de luz (3) comprende un deflector de haz (4) y una lente colectora (5), tal que la lente colectora (5) conjuntamente con la lente oftalmoscópica (2) proyectan sobre el plano (1 ) de la pupila del ojo (13) la imagen de la fuente de luz (3).
6. Cámara según una cualquiera de las reivindicaciones anteriores, caracterizada por que el número de microlentes (17) de la matriz (6) es substancialmente igual al número de píxeles (14) por microlente (17).
7. Cámara según una cualquiera de las reivindicaciones anteriores, caracterizada por que la geometría de las microlentes (17) se selecciona entre: circular, hexagonal o cuadrada.
8. Cámara según una cualquiera de las reivindicaciones anteriores, caracterizada por que los medios de procesamiento (1 1 ) están configurados para reconstruir un mapa topográfico del fondo de ojo (13) a partir de la información correspondiente a una pluralidad de perspectivas recogidas por la matriz de microlentes (7).
9. Cámara según la reivindicación 8, caracterizada por que comprende además unos medios de proyección de imagen (10, 1 1 ).
10. Cámara según una cualquiera de las reivindicaciones anteriores 1 a 9, caracterizada por que la fuente de luz (3) emite en el rango de las radiaciones visibles, entre 380 nm y 780 nm.
1 1 . Cámara según una cualquiera de las reivindicaciones anteriores 1 a 9, caracteriada por que la fuente de luz (3) emite radiación infrarroja comprendida entre los 780 nm y los 3.000 nm.
PCT/ES2012/070726 2011-10-20 2012-10-18 Cámara de fondo de ojo multi-perspectiva WO2013057352A1 (es)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP12840927.3A EP2769666A4 (en) 2011-10-20 2012-10-18 FUNDUS CAMERA WITH SEVERAL VIEWS
US14/353,192 US20140347628A1 (en) 2011-10-20 2012-10-18 Multi-view fundus camera

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ES201131683 2011-10-20
ES201131683A ES2442178B2 (es) 2011-10-20 2011-10-20 Cámara de fondo de ojo multi-perspectiva.

Publications (1)

Publication Number Publication Date
WO2013057352A1 true WO2013057352A1 (es) 2013-04-25

Family

ID=48140400

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/ES2012/070726 WO2013057352A1 (es) 2011-10-20 2012-10-18 Cámara de fondo de ojo multi-perspectiva

Country Status (5)

Country Link
US (1) US20140347628A1 (es)
EP (1) EP2769666A4 (es)
JP (1) JP2014530697A (es)
ES (1) ES2442178B2 (es)
WO (1) WO2013057352A1 (es)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015156723A1 (en) * 2014-04-11 2015-10-15 Rolling Optics Ab Thin integral image devices
CN111182238A (zh) * 2019-11-15 2020-05-19 北京超放信息技术有限公司 基于扫描光场的高分辨率移动电子设备的成像装置及方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9655517B2 (en) 2012-02-02 2017-05-23 Visunex Medical Systems Co. Ltd. Portable eye imaging apparatus
US20150021228A1 (en) 2012-02-02 2015-01-22 Visunex Medical Systems Co., Ltd. Eye imaging apparatus and systems
US9351639B2 (en) 2012-03-17 2016-05-31 Visunex Medical Systems Co. Ltd. Eye imaging apparatus with a wide field of view and related methods
US9565996B2 (en) 2013-01-18 2017-02-14 Ricoh Company, Ltd. Plenoptic otoscope
US10327627B2 (en) 2013-01-18 2019-06-25 Ricoh Company, Ltd. Use of plenoptic otoscope data for aiding medical diagnosis
KR20150040173A (ko) * 2013-10-04 2015-04-14 삼성전자주식회사 렌더링 방법 및 장치
US9986908B2 (en) 2014-06-23 2018-06-05 Visunex Medical Systems Co. Ltd. Mechanical features of an eye imaging apparatus
CN104287692B (zh) * 2014-11-06 2017-12-19 苏州微清医疗器械有限公司 一种眼底照相装置
US10117579B2 (en) 2014-11-14 2018-11-06 Ricoh Company, Ltd. Simultaneous capture of filtered images of the eye
US9883798B2 (en) 2014-11-14 2018-02-06 Ricoh Company, Ltd. Simultaneous capture of filtered images of the eye
CN104434028B (zh) * 2014-11-15 2016-04-27 中国科学院光电技术研究所 角膜弹性成像与眼前节结构成像相结合的系统与方法
EP3250106A4 (en) 2015-01-26 2019-01-02 Visunex Medical Systems Co. Ltd. A disposable cap for an eye imaging apparatus and related methods
US20180095275A1 (en) * 2015-03-30 2018-04-05 Nikon Corporation Image-capturing device, multi-lens camera, and method for manufacturing image-capturing device
US10779728B2 (en) 2015-10-16 2020-09-22 Alcon Inc. Ophthalmic surgery using light-field microscopy
US10098529B2 (en) 2015-10-28 2018-10-16 Ricoh Company, Ltd. Optical design of a light field otoscope
US20170119237A1 (en) * 2015-10-28 2017-05-04 Ricoh Company, Ltd. Optical Design of a Light Field Otoscope
RU2734447C2 (ru) * 2016-02-22 2020-10-16 Конинклейке Филипс Н.В. Система для формирования синтезированного двухмерного изображения биологического образца с повышенной глубиной резкости
JP6964250B2 (ja) 2017-02-07 2021-11-10 パナソニックIpマネジメント株式会社 眼球撮影装置および眼球撮影方法
US10296780B2 (en) 2017-03-07 2019-05-21 Ricoh Company, Ltd. Automatic eardrum registration from light field data
JP7171162B2 (ja) * 2017-03-29 2022-11-15 株式会社トプコン 眼科撮影装置
EP3599991A4 (en) * 2017-03-30 2021-03-31 Queensland University Of Technology OPHTHALMIC IMAGING DEVICE AND SYSTEM
GB201800623D0 (en) 2018-01-15 2018-02-28 Ucl Business Plc Ophthalmic imaging system
WO2023177017A1 (ko) * 2022-03-17 2023-09-21 주식회사 어큐노스 라이트필드 현미경 기반 영상 획득방법 및 장치
CN115153422A (zh) * 2022-05-30 2022-10-11 清华大学 基于元成像的眼底成像方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995759A (en) * 1996-12-10 1999-11-30 Canon Kabushiki Kaisha Stereoscopic image apparatus
US20030038921A1 (en) * 2001-03-15 2003-02-27 Neal Daniel R. Tomographic wavefront analysis system and method of mapping an optical system
JP2006087793A (ja) * 2004-09-27 2006-04-06 Kowa Co 眼科撮影装置
US7290880B1 (en) 2005-07-27 2007-11-06 Visionsense Ltd. System and method for producing a stereoscopic image of an eye fundus
US7798642B2 (en) 2008-04-22 2010-09-21 Canon Kabushiki Kaisha Fundus camera

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101613682B1 (ko) * 2009-10-20 2016-04-19 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
AU2011232625B2 (en) * 2010-03-23 2014-01-16 Neurovision Imaging, Inc. Apparatus and method for imaging an eye

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995759A (en) * 1996-12-10 1999-11-30 Canon Kabushiki Kaisha Stereoscopic image apparatus
US20030038921A1 (en) * 2001-03-15 2003-02-27 Neal Daniel R. Tomographic wavefront analysis system and method of mapping an optical system
JP2006087793A (ja) * 2004-09-27 2006-04-06 Kowa Co 眼科撮影装置
US7290880B1 (en) 2005-07-27 2007-11-06 Visionsense Ltd. System and method for producing a stereoscopic image of an eye fundus
US7798642B2 (en) 2008-04-22 2010-09-21 Canon Kabushiki Kaisha Fundus camera

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
H. NAVARRO; R. MARTINEZ-CUENCA; G. SAAVEDRA; M. MARTINEZ-CORRAL; B. JAVIDI: "3D integral imaging display by smart pseudoscopic-to-orthoscopic conversion", OPT. EXPRESS, vol. 25, 2010, pages 25573 - 25583
HUANG ET AL.: "Optical coherence tomography", SCIENCE, vol. 254, 1991, pages 1178 - 1181
MARTINEZ-CUENCA R. ET AL: "Progresses in 3D imaging and display by integral imaging", THREE-DIMENSIONAL IMAGING, VISUALIZATION AND DISPLAY 2009, PROC. OF SPIE, vol. 7329, 2009, pages 73290P-1 - 73290P-7, XP003031133 *
NAVARRO, H. ET AL.: "Optical slicing of large scenes by synthetic aperture integral imaging", THREE-DIMENSIONAL IMAGING, VISUALIZATION AND DISPLAY 2010. PROC. OF SPIE, vol. 7690, 2010, pages 76900M-1 - 76900M-7, XP003031136 *
See also references of EP2769666A4 *
WEBB ET AL.: "Confocal scanning laser ophthalmoscope", APPL. OPT., vol. 26, 1987, pages 1492 - 1499, XP000579927, DOI: doi:10.1364/AO.26.001492

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015156723A1 (en) * 2014-04-11 2015-10-15 Rolling Optics Ab Thin integral image devices
US10222626B2 (en) 2014-04-11 2019-03-05 Rolling Optics Innovation Ab Thin integral image devices
CN111182238A (zh) * 2019-11-15 2020-05-19 北京超放信息技术有限公司 基于扫描光场的高分辨率移动电子设备的成像装置及方法
CN111182238B (zh) * 2019-11-15 2023-04-18 浙江荷湖科技有限公司 基于扫描光场的高分辨率移动电子设备的成像装置及方法

Also Published As

Publication number Publication date
EP2769666A4 (en) 2015-05-13
EP2769666A1 (en) 2014-08-27
ES2442178B2 (es) 2014-07-30
ES2442178A1 (es) 2014-02-10
US20140347628A1 (en) 2014-11-27
JP2014530697A (ja) 2014-11-20

Similar Documents

Publication Publication Date Title
WO2013057352A1 (es) Cámara de fondo de ojo multi-perspectiva
JP6941696B2 (ja) 改善された周波数領域干渉法による撮像システム
JP6354816B2 (ja) プレノプティック・カメラを使った個人の目のモデルの構築
JP4553578B2 (ja) 眼科用装置と眼科用測定方法
CN103750814B (zh) 一种眼底扫描成像装置
JP5928844B2 (ja) 角膜共焦点顕微鏡(ccm)
JP3686589B2 (ja) 眼球網膜の3次元同時映像化装置
JP7195619B2 (ja) 眼科撮像装置およびシステム
ES2905664T3 (es) Dispositivo oftálmico
US8567948B2 (en) Device and method for examining the eye fundus, especially the photoreceptors
JP2021180870A (ja) 眼科用顕微鏡
JP2019052857A (ja) 撮像装置
JP2022091955A (ja) 検眼装置
Zhao et al. Miniaturized light-field endoscope via a GRIN lens array
JP7098370B2 (ja) 眼科用顕微鏡及び機能拡張ユニット
JP2017113134A (ja) 眼科用顕微鏡システム
EP2338407B1 (en) Device for visually examining the ocular fundus of a patient
ES2635064B1 (es) Instrumento para obtener imágenes del ojo y método asociado
JP6577266B2 (ja) 眼科用顕微鏡
JP7216218B2 (ja) 眼科装置
JP6558756B2 (ja) アタッチメント、撮像装置及び撮像方法
US20240070970A1 (en) Visualization system with stereo-volumetric intraoperative oct and stereoscopic camera
Srinath Optical Devices in Medical Imaging and Industrial Automation
JP2022091766A (ja) Oct機能拡張ユニット
Roorda et al. New directions in imaging the retina

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12840927

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014536300

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14353192

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012840927

Country of ref document: EP