WO2016031630A1 - 眼科装置 - Google Patents

眼科装置 Download PDF

Info

Publication number
WO2016031630A1
WO2016031630A1 PCT/JP2015/073147 JP2015073147W WO2016031630A1 WO 2016031630 A1 WO2016031630 A1 WO 2016031630A1 JP 2015073147 W JP2015073147 W JP 2015073147W WO 2016031630 A1 WO2016031630 A1 WO 2016031630A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
optical system
image
unit
alignment
Prior art date
Application number
PCT/JP2015/073147
Other languages
English (en)
French (fr)
Inventor
寛一 徳田
亮太 石合
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to US15/506,544 priority Critical patent/US10080496B2/en
Publication of WO2016031630A1 publication Critical patent/WO2016031630A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • A61B3/0058Operational features thereof characterised by display arrangements for multiple images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/117Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/154Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for spacing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/18Arrangement of plural eye-testing or -examining apparatus

Definitions

  • the present invention relates to an ophthalmologic apparatus for optically inspecting an eye to be examined.
  • the ophthalmologic apparatus includes an ophthalmologic photographing apparatus for obtaining an image of the eye to be examined and an ophthalmologic measuring apparatus for measuring the characteristics of the eye to be examined.
  • an optical coherence tomography (Optical Coherence Tomography, OCT) is used to obtain a tomographic image, a fundus camera for photographing the fundus, and laser scanning using a confocal optical system to scan the fundus.
  • OCT optical Coherence Tomography
  • ophthalmic measuring devices include an ocular refraction examination device (refractometer, keratometer) that measures the refractive characteristics of the eye to be examined, a tonometer, a specular microscope that obtains corneal properties (corneal thickness, cell distribution, etc.), Hartmann -There is a wavefront analyzer that obtains aberration information of the eye to be examined using a shack sensor.
  • refractometer keratometer
  • keratometer keratometer
  • specular microscope that obtains corneal properties (corneal thickness, cell distribution, etc.)
  • the alignment includes an operation for aligning the optical axis of the inspection optical system with the axis of the eye to be examined (xy alignment) and an operation for adjusting the distance between the eye to be examined and the optical system for inspection (z alignment). It is.
  • the fixation target when photographing the central part of the fundus, the fixation target is projected toward the eye to be examined from the direction along the optical axis of the examination optical system, and the line of sight of the eye to be examined is examined. The photo is taken after matching the optical axis.
  • the fixation target when photographing the periphery of the fundus, the fixation target is projected from a direction different from the optical axis of the inspection optical system, and the line of sight of the eye to be examined is directed in a direction different from the optical axis of the inspection optical system. Shoot in the state.
  • the apex of the cornea coincides with the center of the pupil, whereas when it comes to the peripheral part of the fundus, the apex of the cornea and the center of the pupil deviate.
  • the fundus illumination light may be blocked by the iris. Therefore, when photographing the periphery of the fundus, the alignment reference position is changed so that alignment is performed near the center of the pupil.
  • the present invention has been made in view of such circumstances, and manually aligns the inspection optical system with respect to the eye to be examined with the same operation feeling as before without increasing the cost or increasing the size of the apparatus.
  • An object of the present invention is to provide an ophthalmic apparatus that can be easily performed.
  • an ophthalmologic apparatus includes an inspection optical system including an imaging optical system for imaging the fundus of the eye to be examined, and a fundus image of the eye to be inspected acquired by the imaging optical system.
  • a control unit that pseudo-displays on the screen of the display unit two alignment index images whose positions with respect to a reference position of alignment preset in the unit.
  • control unit displays the two alignment index images at the alignment reference position when the inspection optical system is at an appropriate position with respect to the eye to be examined.
  • the positional deviation information includes a positional deviation amount and a positional deviation direction in the optical axis direction of the inspection optical system, and the control unit The interval between the two alignment index images is changed according to the shift amount, and the display mode of the two alignment index images is changed according to the position shift direction.
  • the ophthalmologic apparatus is the ophthalmic apparatus according to the third aspect, wherein the control unit is configured such that the color, shape, size, blinking pattern, pattern, brightness, density, and the like of the two alignment index images according to the displacement direction. At least one display mode of the transparency is changed.
  • the ophthalmologic apparatus according to a fifth aspect of the present invention, according to any one of the first to fourth aspects, further includes a fixation optical system for fixing the eye to be examined, and the control unit includes fixation optics. Regardless of the change in the fixation position of the eye to be examined by the system, the alignment reference position mark is always displayed at a constant reference position.
  • the subject eye position acquisition unit images the anterior eye portion of the subject eye from substantially different directions substantially simultaneously.
  • the present invention it is possible to manually and smoothly align the inspection optical system with respect to the eye to be examined with the same operation feeling as before without increasing the cost or enlarging the apparatus.
  • the ophthalmologic apparatus according to the present invention is used for optical examination of an eye to be examined.
  • an ophthalmologic apparatus includes an ophthalmologic photographing apparatus and an ophthalmologic measurement apparatus.
  • the ophthalmologic photographing apparatus include an optical coherence tomometer, a fundus camera, and a scanning laser ophthalmoscope slit lamp.
  • examples of the ophthalmologic measurement apparatus include an eye refraction inspection apparatus, a tonometer, a specular microscope, and a wave front analyzer.
  • the present invention is applied to an optical coherence tomography will be described in detail, but the present invention can be applied to any other ophthalmologic apparatus.
  • images acquired by OCT may be collectively referred to as OCT images.
  • a measurement operation for forming an OCT image may be referred to as OCT measurement.
  • an optical coherence tomography using a so-called spectral domain type OCT equipped with a low-coherence light source and a spectroscope will be described. It is also possible to apply the present invention to an optical coherence tomography using a type or infra-type OCT technique.
  • the swept source (Swept ⁇ Source) OCT scans the wavelength of the light irradiated to the object to be measured (wavelength sweep), and the interference light obtained by superimposing the reflected light of each wavelength and the reference light. This is a technique for obtaining a spectral intensity distribution by detection and imaging the form of the object to be measured by applying a Fourier transform thereto.
  • in-face OCT is a method of irradiating a measured object with light having a predetermined beam diameter, and analyzing a component of interference light obtained by superimposing the reflected light and reference light.
  • This is a technique for forming an image of an object to be measured in a cross section perpendicular to the traveling direction of light, and is also called a full-field type.
  • an apparatus combining an OCT apparatus and a fundus camera will be described.
  • the application target of the present invention is not limited to such a multi-function apparatus, and an ophthalmic apparatus (for example, a fundus camera alone) It is also possible to apply the present invention to
  • the ophthalmologic apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200.
  • the retinal camera unit 2 has almost the same optical system as a conventional retinal camera.
  • the OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus.
  • the arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.
  • the fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined.
  • the fundus image includes an observation image and a captured image.
  • the observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light.
  • the fundus camera unit 2 can obtain an observation image of the anterior segment Ea.
  • the captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light.
  • the fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.
  • the fundus camera unit 2 is provided with a chin rest and a forehead for supporting the subject's face.
  • the chin rest and the forehead support correspond to the support portion 440 shown in FIGS. 4A and 4B.
  • reference numeral 410 denotes a drive system such as the optical system drive unit 2A and a base in which an arithmetic control circuit is stored.
  • Reference numeral 420 denotes a housing provided on the base 410 and storing an optical system.
  • Reference numeral 430 denotes a lens housing portion that is provided on the front surface of the housing 420 and accommodates the objective lens 22.
  • the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30.
  • the illumination optical system 10 irradiates the fundus oculi Ef with illumination light.
  • the photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38).
  • the imaging optical system 30 guides the signal light from the OCT unit 100 to the fundus oculi Ef and guides the signal light passing through the fundus oculi Ef to the OCT unit 100.
  • the observation light source 11 of the illumination optical system 10 is composed of, for example, a halogen lamp.
  • the light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef.
  • An LED LightLEDEmitting Diode
  • the fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. It is reflected by the mirror 32 via 31. Further, the fundus reflection light passes through the half mirror 39A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens.
  • the CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.
  • the photographing light source 15 is constituted by, for example, a xenon lamp.
  • the light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light.
  • the fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38.
  • An image is formed on the light receiving surface.
  • On the display device 3 an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed.
  • the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different.
  • an infrared captured image is displayed. It is also possible to use an LED as a photographing light source.
  • the LCD 39 displays a fixation target and an eyesight measurement index.
  • the fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT measurement.
  • a part of the light output from the LCD 39 is reflected by the half mirror 39A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and reaches the dichroic.
  • the light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the projection direction of the fixation target with respect to the eye E that is, the fixation position of the eye E can be changed.
  • the fixation position of the eye E for example, a position for acquiring an image centered on the macular portion of the fundus oculi Ef, or a position for acquiring an image centered on the optic disc as in the case of a conventional fundus camera And a position for acquiring an image centered on the fundus center between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.
  • a configuration for fixing the eye E to be examined corresponds to an example of a “fixation optical system”.
  • the means for projecting the fixation target onto the eye E is not limited to this.
  • the fundus camera unit 2 is provided with a focus optical system 60.
  • the focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.
  • the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10.
  • the light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the corneal reflection light of the alignment light.
  • a light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image.
  • the arithmetic and control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing as in the conventional case (autofocus function). Alternatively, focusing may be performed manually while visually checking the split indicator.
  • the dichroic mirror 46 branches the optical path for OCT measurement from the optical path for fundus imaging.
  • the dichroic mirror 46 reflects light in a wavelength band used for OCT measurement and transmits light for fundus photographing.
  • a collimator lens unit 40, an optical path length changing unit 41, a galvano scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side. It has been.
  • the optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the optical path length of the optical path for OCT measurement. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state.
  • the optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.
  • the galvano scanner 42 changes the traveling direction of light (signal light LS) passing through the optical path for OCT measurement. Thereby, the fundus oculi Ef can be scanned with the signal light LS.
  • the galvano scanner 42 includes, for example, a galvano mirror that scans the signal light LS in the x direction, a galvano mirror that scans in the y direction, and a mechanism that drives these independently. Thereby, the signal light LS can be scanned in an arbitrary direction on the xy plane.
  • the fundus camera unit 2 is provided with an anterior eye camera 300.
  • the anterior segment camera 300 images the anterior segment Ea substantially simultaneously from different directions.
  • two cameras are provided on the subject-side surface of the fundus camera unit 2 (see anterior eye cameras 300A and 300B shown in FIG. 4A).
  • the anterior eye cameras 300A and 300B are provided at positions deviated from the optical path of the illumination optical system 10 and the optical path of the imaging optical system 30, respectively.
  • the two anterior eye cameras 300A and 300B may be collectively represented by reference numeral 300.
  • two anterior eye cameras 300A and 300B are provided, but the number of anterior eye cameras in the present invention is an arbitrary number of 2 or more. However, in consideration of the arithmetic processing described later, a configuration that can photograph the anterior segment substantially simultaneously from two different directions is sufficient.
  • the anterior segment camera 300 is provided separately from the illumination optical system 10 and the imaging optical system 30, but at least the imaging optical system 30 can be used to perform similar anterior segment imaging. . That is, one of the two or more anterior segment cameras may be carried by a configuration including the imaging optical system 30.
  • this embodiment should just be comprised so that imaging
  • substantially simultaneously indicates that a photographing timing shift that allows negligible eye movement is allowed in photographing with two or more anterior segment cameras. Thereby, an image when the eye E is substantially at the same position (orientation) can be acquired by two or more anterior segment cameras.
  • shooting with two or more anterior eye cameras may be moving image shooting or still image shooting
  • the case of moving image shooting will be described in detail.
  • the above-described substantially simultaneous anterior ocular shooting can be realized by controlling the shooting start timing to match or by controlling the frame rate and shooting timing of each frame.
  • this can be realized by controlling to match the shooting timing.
  • the alignment (alignment) of the inspection optical system with respect to the eye E can be performed using the two anterior eye cameras 300A and 300B.
  • the OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef.
  • This optical system has the same configuration as a conventional spectral domain type OCT apparatus. That is, this optical system divides low-coherence light into reference light and signal light, and generates interference light by causing interference between the signal light passing through the fundus oculi Ef and the reference light passing through the reference optical path. It is configured to detect spectral components. This detection result (detection signal) is sent to the arithmetic control unit 200.
  • a wavelength swept light source is provided instead of a light source that outputs a low coherence light source, and an optical member that spectrally decomposes interference light is not provided.
  • a known technique corresponding to the type of OCT can be arbitrarily applied.
  • the light source unit 101 outputs a broadband low-coherence light L0.
  • the low coherence light L0 includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a wavelength band invisible to the human eye, for example, a center wavelength of about 1040 to 1060 nm, may be used as the low-coherence light L0.
  • the light source unit 101 includes a light output device such as a super luminescent diode (Super Luminescent Diode: SLD), LED, or SOA (Semiconductor Optical Amplifier).
  • a light output device such as a super luminescent diode (Super Luminescent Diode: SLD), LED, or SOA (Semiconductor Optical Amplifier).
  • the low coherence light L0 output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102, and is divided into the signal light LS and the reference light LR.
  • the reference light LR is guided by the optical fiber 104 and reaches an optical attenuator (attenuator) 105.
  • the optical attenuator 105 automatically adjusts the amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic control unit 200 using a known technique.
  • the reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches the polarization adjuster (polarization controller) 106.
  • the polarization adjuster 106 is, for example, a device that adjusts the polarization state of the reference light LR guided in the optical fiber 104 by applying a stress from the outside to the optical fiber 104 in a loop shape.
  • the configuration of the polarization adjuster 106 is not limited to this, and any known technique can be used.
  • the reference light LR whose polarization state is adjusted by the polarization adjuster 106 reaches the fiber coupler 109.
  • the signal light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 40. Further, the signal light LS reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. The signal light LS is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and is applied to the fundus oculi Ef. The signal light LS is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light of the signal light LS from the fundus oculi Ef travels in the same direction as the forward path in the reverse direction, is guided to the fiber coupler 103, and reaches the fiber coupler 109 via the optical fiber 108.
  • the fiber coupler 109 causes the backscattered light of the signal light LS and the reference light LR that has passed through the optical fiber 104 to interfere with each other.
  • the interference light LC generated thereby is guided by the optical fiber 110 and emitted from the emission end 111. Further, the interference light LC is converted into a parallel light beam by the collimator lens 112, dispersed (spectral decomposition) by the diffraction grating 113, condensed by the condenser lens 114, and projected onto the light receiving surface of the CCD image sensor 115.
  • the diffraction grating 113 shown in FIG. 2 is a transmission type, but other types of spectroscopic elements such as a reflection type diffraction grating can also be used.
  • the CCD image sensor 115 is a line sensor, for example, and detects each spectral component of the split interference light LC and converts it into electric charges.
  • the CCD image sensor 115 accumulates this electric charge, generates a detection signal, and sends it to the arithmetic control unit 200.
  • a Michelson type interferometer is used, but any type of interferometer such as a Mach-Zehnder type can be appropriately used.
  • any type of interferometer such as a Mach-Zehnder type can be appropriately used.
  • CCD image sensor instead of the CCD image sensor, other types of image sensors, for example, CMOS (ComplementaryarMetal Oxide ⁇ ⁇ Semiconductor) image sensors can be used.
  • CMOS ComplementaryarMetal Oxide ⁇ ⁇ Semiconductor
  • the configuration of the arithmetic control unit 200 will be described.
  • the arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image of the fundus oculi Ef.
  • the arithmetic processing for this is the same as that of a conventional spectral domain type OCT apparatus.
  • the arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image of the fundus oculi Ef on the display device 3.
  • the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LED 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, and the movement control of the reflector 67. Further, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvano scanner 42, operation control of the anterior segment camera 300, and the like are performed.
  • the arithmetic control unit 200 performs operation control of the light source unit 101, operation control of the optical attenuator 105, operation control of the polarization adjuster 106, operation control of the CCD image sensor 115, and the like.
  • the arithmetic control unit 200 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, and the like, as in a conventional computer.
  • a computer program for controlling the ophthalmologic apparatus 1 is stored in a storage device such as a hard disk drive.
  • the arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image.
  • the arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.
  • the fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more cases. It may be.
  • Control system The configuration of the control system of the ophthalmologic apparatus 1 will be described with reference to FIG.
  • the control system of the ophthalmologic apparatus 1 is configured around the control unit 210.
  • the control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like.
  • the control unit 210 includes a main control unit 211, a storage unit 212, and an optical system position acquisition unit 213.
  • the main control unit 211 performs the various operation controls described above.
  • the movement control of the focusing lens 31 is to move the focusing lens 31 in the optical axis direction by controlling a focusing drive unit (not shown). Thereby, the focus position of the photographic optical system 30 is changed.
  • the main control unit 211 can control the optical system driving unit 2A to move the optical system provided in the fundus camera unit 2 three-dimensionally.
  • the optical system drive unit 2A of this embodiment moves an optical system mounted on the fundus camera unit 2, but the optical system and the OCT unit 100 mounted on the fundus camera unit 2 by the optical system drive unit 2A. It may be configured to move the optical system mounted on the.
  • the anterior eye camera 300 of this embodiment is provided in the housing of the fundus camera unit 2, the anterior eye camera 300 can be moved by controlling the optical system driving part 2A. Further, it is possible to provide a photographing moving unit that can independently move two or more anterior eye camera 300.
  • the imaging moving unit may include a drive mechanism (an actuator, a power transmission mechanism, etc.) provided for each anterior eye camera 300.
  • the imaging moving unit is configured to move two or more anterior eye cameras 300 by transmitting power generated by a single actuator by a power transmission mechanism provided for each anterior eye camera 300. May be.
  • the main control unit 211 performs a process of writing data to the storage unit 212 and a process of reading data from the storage unit 212.
  • the storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include OCT image image data, fundus image data, and examined eye information.
  • the eye information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information.
  • the storage unit 212 stores various programs and data for operating the ophthalmologic apparatus 1.
  • Aberration information (not shown) is stored in the storage unit 212 in advance.
  • the optical system mounted on the anterior segment camera 300 includes an optical element that generates distortion, such as a lens.
  • the aberration information can be said to be a parameter obtained by quantifying the distortion that these optical elements give to the photographed image.
  • a specific example of the method for generating aberration information is described in, for example, Patent Document 2 by the present applicant.
  • the optical system position acquisition unit 213 acquires the current position of the inspection optical system mounted on the ophthalmologic apparatus 1.
  • the inspection optical system is an optical system used to optically inspect the eye E.
  • An inspection optical system in the ophthalmologic apparatus 1 (a combination machine of a fundus camera and an OCT apparatus) of this embodiment is an optical system for obtaining an image of an eye to be examined, and includes a photographing optical system 30.
  • the optical system position acquisition unit 213 receives, for example, information indicating the content of movement control of the optical system driving unit 2A by the main control unit 211, and acquires the current position of the inspection optical system moved by the optical system driving unit 2A. To do. A specific example of this process will be described.
  • the main control unit 211 controls the optical system driving unit 2A at a predetermined timing (when the apparatus is activated, when patient information is input, etc.) to move the examination optical system to a predetermined initial position. Thereafter, each time the optical system driving unit 2A is controlled, the main control unit 211 records the control contents. Thereby, a history of control contents is obtained.
  • the optical system position acquisition unit 213 acquires the control content up to the present with reference to this history, and obtains the current position of the inspection optical system based on the control content.
  • the control content is transmitted to the optical system position acquisition unit 213, and each time the optical system position acquisition unit 213 receives the control content, the inspection optical system is transmitted.
  • the current position may be obtained sequentially.
  • a position sensor that detects the position of the inspection optical system may be provided in the optical system position acquisition unit 213.
  • the main control unit 211 determines the acquired current position and the eye E to be examined obtained by the analysis unit 231 described later. Based on the three-dimensional position, the positional deviation information of the optical system for inspection with respect to the eye E can be acquired. Specifically, the main control unit 211 recognizes the current position of the inspection optical system based on the acquisition result obtained by the optical system position acquisition unit 213, and recognizes the three-dimensional position of the eye E based on the analysis result obtained by the analysis unit 231.
  • the main control unit 211 determines the x direction (left-right direction) from the appropriate position of the inspection optical system with respect to the eye E based on the current position of the inspection optical system and the three-dimensional position recognized by the analysis unit 231. ), Y-direction (vertical direction), and z-direction (working distance direction), respectively, are acquired. The main control unit 211 then superimposes the pseudo alignment index image and the alignment reference position mark on the observation image at a predetermined position on the screen of the display unit 240A according to the acquired positional deviation amount and positional deviation direction in each direction. indicate.
  • the alignment reference position mark is an image (for example, a bracket-shaped image) indicating a position that is a movement target of the pseudo alignment index image, and is always displayed at a constant reference position regardless of a change in the fixation position of the eye E.
  • the reference position means the center position of the observation image on the display unit 240A.
  • the examiner operates the operation unit 240B to move the inspection optical system in a three-dimensional manner so that the pseudo alignment index image displayed on the screen of the display unit 240A falls within the alignment reference position mark.
  • the inspection optical system is aligned with the optometry E.
  • the image forming unit 220 forms tomographic image data of the fundus oculi Ef based on the detection signal from the CCD image sensor 115.
  • This process includes processes such as noise removal (noise reduction), filter processing, FFT (Fast Fourier Transform), and the like, as in the conventional spectral domain type optical coherence tomography.
  • the image forming unit 220 executes a known process corresponding to the type.
  • the image forming unit 220 includes, for example, the circuit board described above. In the present specification, “image data” and “image” based thereon may be identified.
  • the image processing unit 230 performs various types of image processing and analysis processing on the image formed by the image forming unit 220. For example, the image processing unit 230 executes various correction processes such as image brightness correction and dispersion correction. The image processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.
  • the image processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between tomographic images to form image data of a three-dimensional image of the fundus oculi Ef.
  • image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system.
  • image data of a three-dimensional image there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data.
  • rendering processing volume rendering, MIP (Maximum Intensity Projection), etc.
  • Image data of a pseudo three-dimensional image is formed.
  • the pseudo three-dimensional image is displayed on the display unit 240A.
  • stack data of a plurality of tomographic images is image data of a three-dimensional image.
  • the stack data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, stack data is image data obtained by expressing a plurality of tomographic images originally defined by individual two-dimensional coordinate systems by one three-dimensional coordinate system (that is, by embedding them in one three-dimensional space). is there.
  • the image processing unit 230 is provided with an analysis unit 231.
  • the analysis unit 231 obtains the three-dimensional position of the eye E by analyzing two captured images obtained substantially simultaneously by the anterior segment cameras 300A and 300B.
  • the analysis unit 231 includes an image correction unit 2311, a feature point specification unit 2312, and a three-dimensional position calculation unit 2313.
  • the image correction unit 2311 corrects the distortion of each captured image obtained by the anterior eye camera 300 based on the aberration information stored in the storage unit 212. This process is executed by, for example, a known image processing technique based on a correction coefficient for correcting distortion. Note that the aberration information and the image correction unit 2311 may not be provided when the distortion aberration given to the captured image by the optical system of the anterior segment camera 300 is sufficiently small.
  • the feature point specifying unit 2312 analyzes each captured image (the distortion of which has been corrected by the image correcting unit 2311), thereby analyzing a position (feature point) in the captured image corresponding to a predetermined feature point of the anterior segment Ea. Is called).
  • a predetermined feature point for example, the pupil center or corneal apex of the eye E is applied.
  • the process of specifying the pupil center will be described.
  • the feature point specifying unit 2312 specifies an image region (pupil region) corresponding to the pupil of the eye E based on the distribution of pixel values (such as luminance values) of the captured image.
  • the pupil area can be specified by searching for the low brightness image area.
  • the pupil region may be specified in consideration of the shape of the pupil. That is, the pupil region can be specified by searching for a substantially circular and low luminance image region.
  • the feature point specifying unit 2312 specifies the center position of the specified pupil region. Since the pupil is substantially circular as described above, the contour of the pupil region can be specified, the center position of the approximate ellipse of this contour can be specified, and this can be used as the pupil center. Further, the center of gravity of the pupil region may be obtained, and the center of gravity position may be used as the center of the pupil.
  • the position of the feature points can be specified based on the distribution of pixel values of the captured image in the same manner as described above.
  • the three-dimensional position calculation unit 2313 performs the feature of the eye E based on the positions of the two or more anterior segment cameras 300 and the positions of the feature points in the two or more captured images specified by the feature point specifying unit 2312. The three-dimensional position of the point is calculated. This process will be described with reference to FIGS. 5A and 5B.
  • FIG. 5A is a top view showing the positional relationship between the eye E and the anterior eye cameras 300A and 300B.
  • FIG. 5B is a side view showing the positional relationship between the eye E and the anterior eye cameras 300A and 300B.
  • the distance (baseline length) between the two anterior eye cameras 300A and 300B is represented by “B”.
  • a distance (imaging distance) between the baselines of the two anterior eye cameras 300A and 300B and the feature point P of the eye E is represented by “H”.
  • a distance (screen distance) between each anterior eye camera 300A and 300B and its screen plane is represented by “f”.
  • the resolution of the captured image by the anterior segment cameras 300A and 300B is expressed by the following equation.
  • ⁇ p represents pixel resolution.
  • the three-dimensional position calculation unit 2313 is illustrated in FIGS. 5A and 5B with respect to the positions (known) of the two anterior eye cameras 300A and 300B and the position corresponding to the feature point P in the two captured images.
  • the three-dimensional position of the feature point P that is, the three-dimensional position of the eye E to be examined is calculated.
  • the three-dimensional position of the eye E calculated by the three-dimensional position calculation unit 2313 is sent to the control unit 210.
  • the anterior eye cameras 300A and 300B and the analysis unit 231 are examples of the “eye position acquisition unit to be examined”. That is, in this embodiment, the analysis unit 231 obtains the three-dimensional position of the eye E by analyzing two captured images obtained substantially simultaneously by the anterior eye cameras 300A and 300B.
  • the form of acquiring the three-dimensional position of E is not limited to this.
  • the three-dimensional position of the eye E is obtained from the front image of the eye E (observed image of the anterior segment Ea) using an optical lever method.
  • the three-dimensional position of the eye E to be examined may be acquired from an external device.
  • the image processing unit 230 that functions as described above includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, circuit board, and the like.
  • a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.
  • the user interface 240 includes a display unit 240A and an operation unit 240B.
  • the display unit 240A includes the display device of the arithmetic control unit 200 and the display device 3 described above.
  • the operation unit 240B includes the operation device of the arithmetic control unit 200 described above.
  • the operation unit 240B may include various buttons and keys provided on the housing of the ophthalmologic apparatus 1 or outside.
  • the operation unit 240B may include a joystick, an operation panel, or the like provided on the housing.
  • the display unit 240 ⁇ / b> A may include various display devices such as a touch panel provided on the housing of the fundus camera unit 2.
  • the display unit 240A and the operation unit 240B do not need to be configured as individual devices.
  • a device in which a display function and an operation function are integrated such as a touch panel
  • the operation unit 240B includes the touch panel and a computer program.
  • the operation content for the operation unit 240B is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using a graphical user interface (GUI) displayed on the display unit 240A and the operation unit 240B.
  • GUI graphical user interface
  • Patient information includes patient ID, patient name, and the like.
  • the examination type items include the examination site (fundus center, fundus periphery, optic disc, macular, etc.), eye to be examined (left eye, right eye, both eyes), image capturing pattern (fundus image only, OCT image only, Both), OCT scan patterns (line scan, cross scan, radial scan, circle scan, three-dimensional scan, etc.).
  • the peripheral portion of the fundus oculi Ef is selected as the examination site.
  • a manual alignment start instruction is issued.
  • This start instruction may be automatically issued by the control unit 210 in response to the selection of the examination type shown in step S2, or may be manually given by the user using the operation unit 240B.
  • the control unit 210 starts imaging of the anterior segment Ea by the anterior segment cameras 300A and 300B.
  • This shooting is moving image shooting in which the anterior segment Ea is a shooting target.
  • Each anterior eye camera 300A and 300B shoots a moving image at a predetermined frame rate.
  • the imaging timings of the anterior eye cameras 300A and 300B may be synchronized by the control unit 210.
  • Each anterior eye camera 300A and 300B sequentially sends the acquired frames to the control unit 210 in real time.
  • the controller 210 associates the frames obtained by both anterior eye cameras 300A and 300B according to the photographing timing. That is, the control unit 210 associates frames acquired substantially simultaneously by both anterior eye cameras 300A and 300B. This association is executed, for example, based on the above-described synchronization control or based on the input timing of frames from the anterior eye cameras 300A and 300B.
  • the control unit 210 sends a pair of associated frames to the analysis unit 231.
  • the image correction unit 2311 corrects the distortion of each frame sent from the control unit 210 based on the aberration information stored in the storage unit 212. This correction processing is executed as described above. The pair of frames whose distortion has been corrected is sent to the feature point specifying unit 2312.
  • the feature point specifying unit 2312 analyzes each frame sent from the image correction unit 2311 to execute processing for specifying a position in the frame corresponding to the feature point (pupil center) of the anterior segment Ea. To do.
  • the feature point identification process is executed again after the anterior eye cameras 300A and 300B are moved in the direction away from the support unit 440 and / or the outside of the support unit 440. It is possible to control.
  • the distance between the anterior eye cameras 300A and 300B and the subject (eye E) increases, and the face of the subject It is possible to shoot a wider range. Therefore, the possibility that the eye E is arranged in a suitable imageable range by the anterior eye cameras 300A and 300B increases.
  • the anterior eye cameras 300A and 300B move in the direction of the subject's ear, and the eye to be examined is in a suitable photographing range.
  • the possibility that E is arranged increases.
  • the possibility that the eye E to be examined is arranged in a suitable photographing range is further increased.
  • the movement control of the anterior segment cameras 300A and 300B similar to the above can be performed.
  • the three-dimensional position calculation unit 2313 determines the feature point (pupil center) of the eye E based on the positions of the anterior eye cameras 300A and 300B and the position of the feature point specified for the pair of frames by the feature point specification unit 2312. ) Is calculated. This process is executed as described above.
  • the control unit 210 acquires positional deviation information of the inspection optical system with respect to the eye E.
  • This process is executed as follows, for example.
  • the control unit 210 acquires the current position of the inspection optical system.
  • the current position is acquired from, for example, a control history for the optical system driving unit 2A that moves the fundus camera unit 2.
  • a position sensor that detects the position of the fundus camera unit 2 can be provided, and the current position can be acquired from the detection result of the position sensor. It is assumed that the coordinate system that defines the three-dimensional position (coordinates) of the eye E acquired in step S6 and the coordinate system that defines the current position (coordinates) of the inspection optical system are common. Alternatively, the coordinate transformation between both coordinate systems is known.
  • the positional deviation information is information indicating the displacement (the positional deviation amount and the positional deviation direction) from the appropriate position of the inspection optical system with respect to the eye E.
  • the appropriate position is an alignment target position of a suitable inspection optical system for inspecting the eye E.
  • the axis of the eye E and for inspection are used.
  • the optical axis of the optical system coincides, and in the z direction (front-rear direction, optical axis direction), it is a position away from the eye E by a predetermined working distance. Since the working distance is known and the three-dimensional position of the eye E is acquired in step S6, for example, it is easy to obtain the coordinates of the alignment target position in the common coordinate system.
  • control unit 210 Based on the positional deviation information acquired in step S8, control unit 210 superimposes and displays the pseudo alignment index image and the alignment reference position mark on the observation image at a predetermined position on the screen of display unit 240A.
  • a display example of the pseudo alignment index image and the alignment reference position mark will be described below.
  • FIGS. 7A and 7B show examples of display screens used for alignment adjustment. This display screen corresponds to a screen displayed on the display unit 240A. Although not shown, an observation image (fundus image of the eye E to be examined) by the fundus camera unit 2 is displayed on the display screens shown in FIGS. 7A and 7B.
  • an alignment reference position mark (parenthesis mark) 309 is displayed at the reference position.
  • the reference position means the center position of the observation image.
  • the alignment reference position mark 309 is an image indicating a position that is a movement target of the pseudo alignment index image 310.
  • two pseudo alignment index images 310 and 310 are displayed on the display screen 308. The display positions of the two pseudo alignment index images 310 and 310 change according to the positional deviation information of the inspection optical system with respect to the eye E.
  • the display positions of the two pseudo alignment index images 310 and 310 are controlled by the control unit 210.
  • the pseudo alignment index image 310 is displayed at a position away from the alignment reference position mark 309 as shown in FIG. 7A.
  • the two pseudo alignment index images 310 and 310 are separated from each other at a predetermined interval. Displayed in position.
  • the pseudo alignment index images 310 and 310 are displayed inside the alignment reference position mark 309 so as to overlap each other.
  • the display positions of the pseudo alignment index images 310 and 310 with respect to the alignment reference position mark 309 are the displacement in the xy direction of the inspection optical system with respect to the eye E (the displacement amount and the displacement direction in the xy direction from the appropriate position).
  • the display is controlled so as to change accordingly. Further, the display control is performed so that the interval (distance) between the pseudo alignment index images 310 and 310 changes in accordance with the displacement in the z direction of the inspection optical system with respect to the eye E (the amount of displacement in the z direction from the appropriate position). Is done.
  • the alignment adjustment is manually performed while observing the observation image (fundus image of the eye E to be examined) displayed on the display screen of the display unit 240A with the same operation feeling as before. It becomes possible.
  • the alignment reference position mark is always displayed at a fixed reference position regardless of changes in the examination site (that is, the projected position of the fixation target). can do.
  • the phenomenon that the alignment index image disappears from the screen of the display unit is less likely to occur compared to the conventional ophthalmologic apparatus. It is possible to smoothly perform alignment adjustment based on quantitative information without depending on.
  • FIGS. 8A and 8B show an example of a display screen when the z-direction position shift (alignment shift) of the inspection optical system with respect to the eye E is shifted in the forward direction and the backward direction, respectively.
  • the direction toward the subject is defined as the forward direction
  • the opposite direction is defined as the backward direction.
  • the control unit 210 has the first pseudo-alignment index image 310A of the two pseudo-alignment index images 310A and 310B in the first color (filled).
  • the second pseudo alignment index image 310B is displayed in a second color different from the first color (indicated by a white circle).
  • the control unit 210 displays the first pseudo alignment index image 310A on the left side and the second pseudo alignment index image as shown in FIG. 8A. 310B is displayed on the right side.
  • the displacement in the z direction is the backward direction, as shown in FIG. 8B, the first pseudo alignment index image 310A is displayed on the right side, and the second pseudo alignment index image 310B is displayed on the left side.
  • the interval (distance) between the two pseudo alignment index images 310A and 310B changes according to the amount of positional deviation in the z direction (working distance direction).
  • the two alignment index images are displayed in different display modes, and whether the positional deviation in the z direction of the optical system for inspection with respect to the eye E is the forward direction or the backward direction. Accordingly, the display positions of the two alignment index images are interchanged. Thereby, from the positional relationship between the two pseudo alignment index images 310A and 310B, it is possible to intuitively grasp not only the displacement amount in the z direction but also whether the displacement in the z direction is the front direction or the rear direction. Is possible.
  • the position shift direction in the z direction can be intuitively determined from the positional relationship between the two pseudo alignment index images 310A and 310B. It is difficult to grasp.
  • the form of changing the display mode of the two pseudo alignment index images 310A and 310B is not limited to the above-described example, but other than the color, for example, size, shape, and blinking
  • the pattern may be changed or a combination thereof may be used.
  • any form may be used as long as it is visually distinguishable, such as a pattern, brightness, density, and transparency.
  • FIGS. 9 to 11 show a case where the positional deviation in the z direction is the forward direction.
  • the display positions of the two pseudo alignment index images 310A and 310B are shown. Shall be displayed interchangeably.
  • the shapes of the two pseudo alignment index images 310A and 310B are different from each other.
  • the first pseudo alignment index image 310A is displayed as a square mark
  • the second pseudo alignment index image 310B is displayed as a circle mark. .
  • the sizes of the two pseudo alignment index images 310A and 310B are different from each other. For example, as shown in FIG. 10, among the two pseudo alignment index images 310A and 310B, the first pseudo alignment index image 310A is displayed larger, and the second pseudo alignment index image 310B is displayed smaller.
  • the blinking patterns of the two pseudo alignment index images 310A and 310B are made different from each other.
  • the first alignment index is always displayed (displayed by a solid line)
  • the second pseudo alignment index image 310B is displayed by blinking (indicated by a broken line). Display).
  • a third display example will be described with reference to FIGS. 12A and 12B.
  • FIG. 12A and 12B show an example of a display screen when the positional deviation in the z direction of the inspection optical system with respect to the eye E is the forward direction and the backward direction, respectively.
  • the control unit 210 displays the two pseudo alignment index images 310A and 310B in the first color (indicated by filled circles). To do.
  • the control unit 210 converts the two pseudo alignment index images 310A and 310B into a second color ( (Indicated by a white circle).
  • the two pseudo alignment index images 310A and 310B are displayed in the same display mode, but the position in the z direction (working distance direction) is displayed.
  • the display modes of the two pseudo alignment index images 310A and 310B are made different depending on whether the shift is the forward direction or the backward direction. As a result, it is possible to intuitively grasp whether the displacement in the z direction is the front direction or the rear direction from the display modes of the two pseudo alignment index images 310A and 310B, and the examiner can adjust the alignment. It becomes possible to perform smoothly without hesitation.
  • the form of changing the display mode of the two pseudo alignment index images 310A and 310B is not limited to the above-described example, and in the same way as the second display example,
  • the size, shape, and blinking pattern may be changed, or a combination of these may be used.
  • any form may be used as long as it is visually distinguishable, such as a pattern, brightness, density, and transparency.
  • the user moves the inspection optical system by performing a predetermined operation using the operation unit 240B while confirming the pseudo alignment index image while observing the displayed observation image.
  • control unit 210 can change the display position of the pseudo alignment index image according to the movement content of the inspection optical system. For example, the control unit 210 obtains the positional deviation information again in real time according to the movement contents of the inspection optical system, and updates the display of the pseudo alignment index image in real time according to the new positional deviation information.
  • control unit 210 determines whether or not all the positional deviations in the xyz direction of the inspection optical system with respect to the eye E are within a predetermined allowable range, and when it is determined that the positional deviation is within the allowable range. May display the pseudo alignment index image in a display mode different from the case where the positional deviation is outside the allowable range. For example, in the case of the second display example described above, if the positional deviation is outside the allowable range, the two pseudo alignment index images 310A and 310B are displayed in the first color and the second color, respectively, When the positional deviation is within the allowable range, the two pseudo alignment index images 310A and 310B are displayed in a third color different from the first color and the second color.
  • the mode of changing the display mode of the two pseudo alignment index images when it is determined that the positional deviation is within the allowable range is not limited to the above-described example.
  • the shape and the flashing pattern may be changed, or a combination of these may be used.
  • any form may be used as long as it is visually distinguishable, such as a pattern, brightness, density, and transparency.
  • the eye information is measurement information indicating the characteristics of the eye to be acquired, for example, by an examination performed on the eye E in advance. This measurement information may be acquired by the ophthalmic apparatus or may be acquired by another ophthalmic apparatus. The measurement information is stored in advance in the storage unit 212 in association with the patient ID, for example.
  • the control unit 210 selects measurement information corresponding to the eye E based on the patient ID and the like. Further, the control unit 210 generates positional deviation information based on the selected measurement information and the three-dimensional position of the eye E acquired by the analysis unit 231. As an example of this processing, it is possible to correct the positional deviation information (the positional deviation amount and the positional deviation direction) in the x direction and the y direction based on the corneal shape bias. Further, it is possible to correct the positional deviation information (the positional deviation amount and the positional deviation direction) in the z direction based on the axial length. The latter is particularly effective when examining the fundus.
  • step S10 Start of inspection
  • the ophthalmologic apparatus 1 includes an inspection optical system, a display unit 240A, two anterior eye cameras 300A and 300B (imaging units), an analysis unit 231, and a control unit 210.
  • the inspection optical system is an optical system for inspecting the eye E, and includes an imaging optical system 30 that images the fundus of the eye E.
  • the two anterior eye cameras 300A and 300B photograph the anterior eye part Ea of the eye E from substantially different directions at substantially the same time.
  • the analysis unit 231 obtains the three-dimensional position of the eye E by analyzing the captured image acquired by the anterior eye camera 300.
  • the control unit 210 Based on the three-dimensional position of the eye E obtained by the analysis unit 231, the control unit 210 acquires positional deviation information of the inspection optical system with respect to the eye E, and is preset in the display unit 240 ⁇ / b> A according to the positional deviation information. Two pseudo alignment index images whose positions relative to the alignment reference position being changed are displayed in a pseudo manner on the screen of the display unit 240A.
  • the appropriate position of the inspection optical system with respect to the eye E is determined.
  • Position deviation information is acquired, and two pseudo alignment index images are pseudo-displayed on the screen of the display unit according to the position deviation information. That is, on the screen of the display unit 240A, not the alignment index image (optical alignment index image) projected on the eye E by the alignment optical system but the pseudo alignment index image artificially generated by the control unit 210. Is displayed.
  • the alignment reference position set in advance on the screen of the display unit can always be a constant position without being influenced by the examination site (that is, the fixation position of the eye E).
  • the examination site that is, the fixation position of the eye E.
  • the phenomenon that the alignment index image disappears from the screen of the display unit is less likely to occur compared to the conventional ophthalmologic apparatus. It is possible to smoothly perform alignment adjustment based on quantitative information without depending on. Therefore, the alignment adjustment of the inspection optical system with respect to the eye to be examined can be manually and smoothly performed with the same operation feeling as before.
  • the ophthalmologic apparatus 1 can perform alignment adjustment manually without providing an alignment optical system that projects an alignment index onto the eye E, so that the apparatus is smaller than an apparatus including the alignment optical system.
  • the anterior eye camera 300 (imaging unit) can be arranged below the lens center of the objective lens 22 ( ⁇ y direction). Thereby, it is possible to reduce the possibility that the eyelashes and eyelashes of the subject are reflected in the captured image acquired by the anterior eye camera 300 (imaging unit). Moreover, even if the subject has a deep eye depression (orbit), anterior segment imaging can be suitably performed.
  • two captured images acquired substantially simultaneously by the anterior eye cameras 300A and 300B can be combined by the image processing unit 230, and this combined image can be displayed. Thereby, it is possible to observe the three-dimensional form of the anterior segment Ea. Moreover, the analysis process of the said embodiment can also be performed using this synthesized image.
  • control unit 210 can display at least one of the two captured images obtained substantially simultaneously by the anterior segment cameras 300A and 300B. Thereby, the form of the anterior segment Ea can be observed from different viewpoints (imaging positions).
  • the anterior eye camera 300 may be mounted on the front surface of the housing 420 or may be stored in the housing 420. That is, the anterior eye camera 300 may be disposed so as to protrude from the front surface of the housing 420 or may be disposed substantially flush with the front surface of the housing 420. Note that the anterior eye camera 300 may be provided so that the front surface is disposed at a position depressed with respect to the front surface of the housing 420.
  • the anterior eye camera 300A is provided so as not to protrude from the front surface of the housing 420, there are advantages such as not obstructing eye opening and external fixation operations, and avoiding failure to acquire position information due to vignetting of the image itself. can get.
  • the anterior eye camera 300 at a position other than the front surface of the housing 420.
  • the anterior eye camera 300 can be provided in the housing 420 and a similar optical system can be provided. When such an optical system is provided, it is considered that it is desirable to provide the anterior eye camera 300 and the optical system in the housing 420 in consideration of disturbance to the anterior eye photographing.
  • an optical path separation member such as a prism or a dichroic mirror can be used for separation of the optical system.
  • the optical path length difference between the optical path of the signal light LS and the optical path of the reference light LR is changed by changing the position of the optical path length changing unit 41, but this optical path length difference is changed.
  • the method is not limited to this.
  • it is possible to change the optical path length difference by disposing a reflection mirror (reference mirror) in the optical path of the reference light and moving the reference mirror in the traveling direction of the reference light to change the optical path length of the reference light.
  • the optical path length difference may be changed by moving the fundus camera unit 2 or the OCT unit 100 with respect to the eye E to change the optical path length of the signal light LS.
  • the computer program for realizing the above embodiment can be stored in an arbitrary recording medium readable by a computer.
  • this recording medium for example, a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), etc. Can be used.

Abstract

本発明は、コストアップや装置の大型化を招くことなく、従来と同様な操作感覚で、被検眼に対する装置光学系の位置合わせを手動で円滑かつ容易に行うことができる眼科装置を提供する。実施形態の眼科装置は、検査用光学系と、表示部と、被検眼位置取得部と、制御部とを有する。検査用光学系は、被検眼の眼底を撮影する撮影光学系を含む。被検眼位置取得部は、被検眼の3次元位置を取得する。制御部は、3次元位置に基づき被検眼に対する検査用光学系の位置ずれ情報を取得し、位置ずれ情報に応じて表示部に予め設定されているアライメントの基準位置に対する位置が変化する2つのアライメント指標像を表示部の画面上に擬似的に表示する。

Description

眼科装置
 本発明は、被検眼を光学的に検査する眼科装置に関する。
 眼科装置には、被検眼の画像を得るための眼科撮影装置と、被検眼の特性を測定するための眼科測定装置が含まれる。
 眼科撮影装置の例として、光コヒーレンストモグラフィ(Optical Coherence Tomography、OCT)を用いて断層像を得る光干渉断層計、眼底を写真撮影する眼底カメラ、共焦点光学系を用いたレーザ走査により眼底の画像を得る走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope、SLO)、スリット光を用いて角膜の光切片を切り取ることにより画像を得るスリットランプなどがある。
 また、眼科測定装置の例として、被検眼の屈折特性を測定する眼屈折検査装置(レフラクトメータ、ケラトメータ)、眼圧計、角膜の特性(角膜厚、細胞分布等)を得るスペキュラーマイクロスコープ、ハルトマン-シャックセンサを用いて被検眼の収差情報を得るウェーブフロントアナライザなどがある。
 これら装置を用いた眼科検査においては、検査の精度や確度の観点から、検査用光学系(装置光学系)と被検眼との位置合わせが極めて重要である。この位置合わせはアライメントと呼ばれる。アライメントには、被検眼の軸に対して検査用光学系の光軸を一致させる動作(xyアライメント)と、被検眼と検査用光学系との間の距離を合わせる動作(zアライメント)とが含まれる。
 従来の眼底装置には、被検眼に対する検査用光学系の位置合わせのためのアライメント指標(アライメント輝点)を被検眼に投影するアライメント光学系を備えたものが知られている(たとえば、特許文献1参照)。この眼科装置では、モニタに表示された被検眼の観察画像を観察しながら2つのアライメント指標像がアライメント基準位置マーク(アライメントスケール)内に入るように、コントロールレバーを操作して検査用光学系を3次元的に移動させることにより、被検眼に対する検査用光学系の位置合わせが行われる。
特開2010-181172号公報 特開2013-248376号公報
 ところで、従来の眼科装置では、眼底の中央部を撮影するときには、検査用光学系の光軸に沿った方向から固視標を被検眼に向けて投影し、被検眼の視線を検査用光学系の光軸に一致させた上で撮影を行う。一方、眼底の周辺部を撮影するときには、検査用光学系の光軸とは異なる方向から固視標を投影し、被検眼の視線を検査用光学系の光軸とは異なる方向に向けさせた状態で撮影を行う。このとき、眼底の中央部を撮影する際は、角膜の頂点と瞳孔中心が一致しているのに対し、眼底の周辺部になると、角膜頂点と瞳孔中心がずれる。この場合、角膜頂点にアライメントすると、虹彩により眼底照明光が遮光される可能性がある。そのため、眼底の周辺部を撮影する際は、瞳孔中心付近にアライメントを行うように、アライメント基準位置を変化させることが行われている。
 しかしながら、このような従来の眼科装置では、被検眼に対する検査用光学系の位置ずれが大きいと、モニタの画面上から1つまたは2つのアライメント指標像が消えてしまうことがある。特に眼底の周辺部を撮影する際には、上述のとおり被検眼の視線を検査用光学系の光軸とは異なる方向に向けさせた状態で撮影が行われるため、アライメント基準位置の変化に伴い、角膜の周辺部に投影されるアライメント指標像はモニタの画面上から消えやすくなる。このような場合、操作に不慣れな者にとっては分かりにくく、被検眼に対する検査用光学系のアライメントが適正でないにもかかわらず適正であると誤認してしまう可能性がある。また、2つのアライメント指標像がモニタの画面上に現れるまで操作者の経験と勘により試行錯誤を繰り返しながら検査用光学系を移動させる必要があり、アライメント調整に時間が掛かる要因となっていた。
 また、近年、装置の小型化と低価格化とが求められる中で、アライメント光学系を搭載することなく、従来と同様な操作感覚で、手動でアライメント調整(マニュアルアライメント)を容易に行うことができる眼科装置の開発が要望されている。
 本発明は、このような事情に鑑みてなされたもので、コストアップや装置の大型化を招くことなく、従来と同様な操作感覚で、被検眼に対する検査用光学系の位置合わせを手動で円滑かつ容易に行うことができる眼科装置を提供することを目的とする。
 上記目的を達成するために、本発明の第1態様に係る眼科装置は、被検眼の眼底を撮影する撮影光学系を含む検査用光学系と、撮影光学系により取得された被検眼の眼底像を表示する表示部と、被検眼の3次元位置を取得する被検眼位置取得部と、3次元位置に基づき被検眼に対する検査用光学系の位置ずれ情報を取得し、位置ずれ情報に応じて表示部に予め設定されているアライメントの基準位置に対する位置が変化する2つのアライメント指標像を表示部の画面上に擬似的に表示する制御部と、を備える。
 本発明の第2態様に係る眼科装置は、第1態様において、制御部は、被検眼に対して検査用光学系が適正位置である場合に2つのアライメント指標像をアライメントの基準位置に表示する。
 本発明の第3態様に係る眼科装置は、第1態様または第2態様において、位置ずれ情報は、検査用光学系の光軸方向における位置ずれ量および位置ずれ方向を含み、制御部は、位置ずれ量に応じて2つのアライメント指標像の間隔を変化させ、かつ位置ずれ方向に応じて2つのアライメント指標像の表示態様を変化させる。
 本発明の第4態様に係る眼科装置は、第3態様において、制御部は、位置ずれ方向に応じて2つのアライメント指標像の色、形状、大きさ、点滅パターン、模様、明るさ、濃度、透明度のうち少なくとも1つの表示態様を変化させる。
 本発明の第5態様に係る眼科装置は、第1態様~第4態様のいずれか1つの態様において、被検眼を固視させるための固視光学系を更に備え、制御部は、固視光学系による被検眼の固視位置の変化に関係なく常に一定の基準位置にアライメント基準位置マークを表示する。
 本発明の第6態様に係る眼科装置は、第1態様~第5態様のいずれか1つの態様において、被検眼位置取得部は、被検眼の前眼部を異なる方向から実質的に同時に撮影する2以上の撮影部と、2以上の撮影部により取得された撮影画像を解析することにより、被検眼の3次元位置を求める解析部と、を備える。
 本発明によれば、コストアップや装置の大型化を招くことなく、従来と同様な操作感覚で、被検眼に対する検査用光学系の位置合わせを手動で円滑かつ容易に行うことができる。
本発明に係る眼科装置の実施形態の全体構成の一例を示す概略図である。 本発明に係る眼科装置の実施形態におけるOCTユニットの構成の一例を示す概略図である。 本発明に係る眼科装置の実施形態の制御系の構成の一例を示す概略ブロック図である。 本発明に係る眼科装置の実施形態の外観構成の一例を示す概略図である。 本発明に係る眼科装置の実施形態の外観構成の一例を示す概略図である。 本発明に係る眼科装置の実施形態で実行される処理を説明するための概略図である。 本発明に係る眼科装置の実施形態で実行される処理を説明するための概略図である。 本発明に係る眼科装置の実施形態の動作例を表すフローチャートである。 本発明に係る眼科装置の実施形態における表示画面の一例を表す概略図である。 本発明に係る眼科装置の実施形態における表示画面の一例を表す概略図である。 本発明に係る眼科装置の実施形態における表示画面の一例を表す概略図である。 本発明に係る眼科装置の実施形態における表示画面の一例を表す概略図である。 本発明に係る眼科装置の実施形態における表示画面の一例を表す概略図である。 本発明に係る眼科装置の実施形態における表示画面の一例を表す概略図である。 本発明に係る眼科装置の実施形態における表示画面の一例を表す概略図である。 本発明に係る眼科装置の実施形態における表示画面の一例を表す概略図である。 本発明に係る眼科装置の実施形態における表示画面の一例を表す概略図である。
 本発明に係る眼科装置の実施形態の一例について、図面を参照しながら詳細に説明する。本発明に係る眼科装置は被検眼の光学的な検査に用いられる。このような眼科装置には、前述のように、眼科撮影装置と眼科測定装置が含まれる。眼科撮影装置としては、光干渉断層計、眼底カメラ、走査型レーザ検眼鏡スリットランプなどがある。また、眼科測定装置としては、眼屈折検査装置、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザなどがある。以下の実施形態では、光干渉断層計に本発明を適用した場合について詳述するが、それ以外の任意の眼科装置に本発明を適用することが可能である。
 本明細書において、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。なお、本明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。
 また、以下の実施形態では、低コヒーレンス光源と分光器が搭載された、いわゆるスペクトラルドメイン(Spectral Domain)タイプのOCTを用いた光干渉断層計について説明するが、スペクトラルドメイン以外のタイプ、たとえばスウェプトソースタイプ、インファスタイプのOCTの手法を用いた光干渉断層計に対して本発明を適用することも可能である。なお、スウェプトソース(Swept Source)OCTとは、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を検出してスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化する手法である。また、インファス(en-face)OCTとは、所定のビーム径を有する光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、光の進行方向に直交する断面における被測定物体の画像を形成する手法であり、フルフィールド(full-field)タイプとも呼ばれる。
 また、以下の実施形態ではOCT装置と眼底カメラとを組み合わせた装置について説明するが、本発明の適用対象はこのような複合機には限定されず、単体機としての眼科装置(たとえば眼底カメラ単体)に本発明を適用することも可能である。
 [構成]
 図1に示すように、眼科装置1は、眼底カメラユニット2、OCTユニット100および演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
 〔眼底カメラユニット〕
 図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。なお、被検眼Eの前眼部Eaに光学系のピントが合っている場合、眼底カメラユニット2は前眼部Eaの観察画像を取得することができる。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、または近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
 眼底カメラユニット2には、被検者の顔を支持するための顎受けと額当てが設けられている。顎受けおよび額当ては、図4Aおよび図4Bに示す支持部440に相当する。なお、図4Aおよび図4Bにおいて、符号410は、光学系駆動部2A等の駆動系や、演算制御回路が格納されたベースを示す。また、符号420は、ベース410上に設けられた、光学系が格納された筐体を示す。また、符号430は、筐体420の前面に突出して設けられた、対物レンズ22が収容されたレンズ収容部を示す。
 眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38。)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。
 照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19およびリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。
 観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。更に、この眼底反射光は、ハーフミラー39Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。
 撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。
 LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。
 LCD39から出力された光は、その一部がハーフミラー39Aにて反射され、ミラー32に反射され、合焦レンズ31およびダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
 LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eに対する固視標の投影方向、つまり被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。被検眼Eに固視させるための構成は「固視光学系」の一例に相当する。
 なお、被検眼Eに固視標を投影する手段はこれには限定されない。たとえば、複数のLEDを配列してなるLED群を設け、これらLEDを選択的に点灯させることにより固視位置を変更することができる。また、移動可能な1つ以上のLEDを設けることにより固視位置を変更することも可能である。
 また、眼底カメラユニット2には、フォーカス光学系60が設けられている。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。
 フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
 フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31およびフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。
 ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させる。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。
 光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。
 ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。
 眼底カメラユニット2には前眼部カメラ300が設けられている。前眼部カメラ300は、前眼部Eaを異なる方向から実質的に同時に撮影する。この実施形態では、眼底カメラユニット2の被検者側の面に2台のカメラが設けられている(図4Aに示す前眼部カメラ300A、300Bを参照)。また、前眼部カメラ300Aおよび300Bはそれぞれ、図1および図4Aに示すように、照明光学系10の光路および撮影光学系30の光路から外れた位置に設けられている。以下、2台の前眼部カメラ300Aおよび300Bをまとめて符号300で表すことがある。
 この実施形態では、2台の前眼部カメラ300Aおよび300Bが設けられているが、本発明における前眼部カメラの個数は2以上の任意の個数である。しかし、後述の演算処理を考慮すると、異なる2方向から実質的に同時に前眼部を撮影可能な構成であれば十分である。また、この実施形態では、照明光学系10および撮影光学系30とは別個に前眼部カメラ300を設けているが、少なくとも撮影光学系30を用いて同様の前眼部撮影を行うことができる。つまり、2以上の前眼部カメラのうちの1つを撮影光学系30を含む構成によって担うようにしてもよい。いずれにしても、この実施形態は、異なる2(以上の)方向から実質的に同時に前眼部を撮影可能に構成されていればよい。
 なお、「実質的に同時」とは、2以上の前眼部カメラによる撮影において、眼球運動を無視できる程度の撮影タイミングのズレを許容することを示す。それにより、被検眼Eが実質的に同じ位置(向き)にあるときの画像を2以上の前眼部カメラによって取得することができる。
 また、2以上の前眼部カメラによる撮影は動画撮影でも静止画撮影でもよいが、この実施形態では動画撮影を行う場合について特に詳しく説明する。動画撮影の場合、撮影開始タイミングを合わせるよう制御したり、フレームレートや各フレームの撮影タイミングを制御したりすることにより、上記した実質的に同時の前眼部撮影を実現することができる。一方、静止画撮影の場合、撮影タイミングを合わせるよう制御することにより、これを実現することができる。
 なお、この実施形態では、詳細を後述するように、2台の前眼部カメラ300Aおよび300Bを用いて被検眼Eに対する検査用光学系の位置合わせ(アライメント)を実行することができる。
 〔OCTユニット〕
 図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、低コヒーレンス光を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
 なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、OCTのタイプに応じた公知の技術を任意に適用することができる。
 光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm~900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040~1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。
 光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。
 光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。
 参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。
 ファイバカプラ103により生成された信号光LSは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。更に、信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、およびリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。
 ファイバカプラ109は、信号光LSの後方散乱光と、光ファイバ104を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。更に、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。
 CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。
 この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。
 〔演算制御ユニット〕
 演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。
 また、演算制御ユニット200は、眼底カメラユニット2、表示装置3およびOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。
 また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15およびLED61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御、前眼部カメラ300の動作制御などを行う。
 また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ115の動作制御などを行う。
 演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。
 眼底カメラユニット2、表示装置3、OCTユニット100および演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。
 〔制御系〕
 眼科装置1の制御系の構成について図3を参照しつつ説明する。
 (制御部)
 眼科装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と、記憶部212と、光学系位置取得部213とが設けられている。
 (主制御部)
 主制御部211は前述した各種の動作制御を行う。なお、合焦レンズ31の移動制御は、図示しない合焦駆動部を制御して合焦レンズ31を光軸方向に移動させるものである。それにより、撮影光学系30の合焦位置が変更される。また、主制御部211は、光学系駆動部2Aを制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることができる。
 なお、この実施形態の光学系駆動部2Aは眼底カメラユニット2に搭載された光学系を移動させるものであるが、光学系駆動部2Aによって眼底カメラユニット2に搭載された光学系およびOCTユニット100に搭載された光学系を移動させるように構成されていてもよい。
 また、この実施形態の前眼部カメラ300は眼底カメラユニット2の筐体に設けられているので、光学系駆動部2Aを制御することにより前眼部カメラ300を移動させることができる。また、2以上の前眼部カメラ300をそれぞれ独立に移動させることが可能な撮影移動部を設けることができる。具体的には、撮影移動部は、各前眼部カメラ300に対して設けた駆動機構(アクチュエータ、動力伝達機構等)を含む構成であってもよい。また、撮影移動部は、単一のアクチュエータにより発生された動力を前眼部カメラ300ごとに設けられた動力伝達機構によって伝達することにより、2以上の前眼部カメラ300を移動させるように構成されていてもよい。
 また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。
 (記憶部)
 記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼科装置1を動作させるための各種プログラムやデータが記憶されている。
 記憶部212には、図示しない収差情報があらかじめ記憶されている。収差情報には、各前眼部カメラ300について、それに搭載された光学系の影響により撮影画像に発生する歪曲収差に関する情報が記録されている。ここで、前眼部カメラ300に搭載された光学系には、たとえばレンズ等の歪曲収差を発生させる光学素子が含まれている。収差情報は、これらの光学素子が撮影画像に与える歪みを定量化したパラメータと言える。なお、収差情報の生成方法の具体例は、たとえば、本出願人による特許文献2に記載されている。
 (光学系位置取得部)
 光学系位置取得部213は、眼科装置1に搭載された検査用光学系の現在位置を取得する。検査用光学系とは、被検眼Eを光学的に検査するために用いられる光学系である。この実施形態の眼科装置1(眼底カメラとOCT装置の複合機)における検査用光学系は、被検眼の画像を得るための光学系であり、撮影光学系30を含むものである。
 光学系位置取得部213は、たとえば、主制御部211による光学系駆動部2Aの移動制御の内容を表す情報を受けて、光学系駆動部2Aにより移動される検査用光学系の現在位置を取得する。この処理の具体例を説明する。主制御部211は、所定のタイミング(装置起動時、患者情報入力時など)で光学系駆動部2Aを制御して、検査用光学系を所定の初期位置に移動させる。それ以降、主制御部211は、光学系駆動部2Aが制御される度に、その制御内容を記録する。それにより、制御内容の履歴が得られる。光学系位置取得部213は、この履歴を参照して現在までの制御内容を取得し、この制御内容に基づいて検査用光学系の現在位置を求める。
 また、主制御部211が光学系駆動部2Aを制御する度にその制御内容を光学系位置取得部213に送信し、光学系位置取得部213が当該制御内容を受ける度に検査用光学系の現在位置を逐次求めるようにしてもよい。
 他の構成例として、検査用光学系の位置を検知する位置センサを光学系位置取得部213に設けるようにしてもよい。
 以上のようにして光学系位置取得部213により検査用光学系の現在位置が取得された場合、主制御部211は、取得された現在位置と、後述の解析部231により求められた被検眼Eの3次元位置とに基づいて、被検眼Eに対する検査用光学系の位置ずれ情報を取得することができる。具体的には、主制御部211は、光学系位置取得部213による取得結果によって検査用光学系の現在位置を認識し、解析部231による解析結果によって被検眼Eの3次元位置を認識する。次いで、主制御部211は、検査用光学系の現在位置と、解析部231により認識された3次元位置とに基づいて、被検眼Eに対する検査用光学系の適正位置からのx方向(左右方向)、y方向(上下方向)、z方向(作動距離方向)のそれぞれの位置ずれ量および位置ずれ方向を取得する。そして、主制御部211は、取得した各方向の位置ずれ量および位置ずれ方向に応じて、表示部240Aの画面上の所定位置に擬似アライメント指標像およびアライメント基準位置マークを観察画像に重ねて合成表示する。アライメント基準位置マークは、擬似アライメント指標像の移動目標となる位置を示す画像(たとえば括弧型の画像)であり、被検眼Eの固視位置の変化に関係なく常に一定の基準位置に表示される。ここで、基準位置とは、表示部240Aの観察画像の中央位置を意味する。検者は、表示部240Aの画面に表示された擬似アライメント指標像がアライメント基準位置マーク内に入るように、操作部240Bを操作して検査用光学系を3次元的に移動させることにより、被検眼Eに対する検査用光学系のアライメントを行う。
 (画像形成部)
 画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断層像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCT装置の場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。
 画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、本明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。
 (画像処理部)
 画像処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。また、画像処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
 画像処理部230は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、画像処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240Aには、この擬似的な3次元画像が表示される。
 また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断層像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。
 (解析部)
 画像処理部230には解析部231が設けられている。解析部231は、前眼部カメラ300Aおよび300Bにより実質的に同時に得られた2つの撮影画像を解析することで、被検眼Eの3次元位置を求める。この処理を実行するための構成の一例として、解析部231には、画像補正部2311と、特徴点特定部2312と、3次元位置算出部2313とが設けられている。
 (画像補正部)
 画像補正部2311は、前眼部カメラ300により得られた各撮影画像の歪みを、記憶部212に記憶されている収差情報に基づいて補正する。この処理は、たとえば、歪曲収差を補正するための補正係数に基づく公知の画像処理技術によって実行される。なお、前眼部カメラ300の光学系が撮影画像に与える歪曲収差が十分に小さい場合などには、上記収差情報および画像補正部2311を設けなくてもよい。
 (特徴点特定部)
 特徴点特定部2312は、(画像補正部2311により歪曲収差が補正された)各撮影画像を解析することで、前眼部Eaの所定の特徴点に相当する当該撮影画像中の位置(特徴点の位置と呼ぶ)を特定する。所定の特徴点としては、たとえば被検眼Eの瞳孔中心または角膜頂点が適用される。以下、瞳孔中心を特定する処理の具体例を説明する。
 まず、特徴点特定部2312は、撮影画像の画素値(輝度値など)の分布に基づいて、被検眼Eの瞳孔に相当する画像領域(瞳孔領域)を特定する。一般に瞳孔は他の部位よりも低い輝度で描画されるので、低輝度の画像領域を探索することによって瞳孔領域を特定することができる。このとき、瞳孔の形状を考慮して瞳孔領域を特定するようにしてもよい。つまり、略円形かつ低輝度の画像領域を探索することによって瞳孔領域を特定するように構成することができる。
 次に、特徴点特定部2312は、特定された瞳孔領域の中心位置を特定する。上記のように瞳孔は略円形であるので、瞳孔領域の輪郭を特定し、この輪郭の近似楕円の中心位置を特定し、これを瞳孔中心とすることができる。また、瞳孔領域の重心を求め、この重心位置を瞳孔中心としてもよい。
 なお、他の特徴点が適用される場合であっても、上記と同様に撮影画像の画素値の分布に基づいて当該特徴点の位置を特定することが可能である。
 (3次元位置算出部)
 3次元位置算出部2313は、2以上の前眼部カメラ300の位置と、特徴点特定部2312により特定された2以上の撮影画像中の特徴点の位置とに基づいて、被検眼Eの特徴点の3次元位置を算出する。この処理について図5Aおよび図5Bを参照しつつ説明する。
 図5Aは、被検眼Eと前眼部カメラ300Aおよび300Bとの間の位置関係を示す上面図である。図5Bは、被検眼Eと前眼部カメラ300Aおよび300Bとの間の位置関係を示す側面図である。2つの前眼部カメラ300Aおよび300Bの間の距離(基線長)を「B」で表す。2つの前眼部カメラ300Aおよび300Bの基線と、被検眼Eの特徴点Pとの間の距離(撮影距離)を「H」で表す。各前眼部カメラ300Aおよび300Bと、その画面平面との間の距離(画面距離)を「f」で表す。
 このような配置状態において、前眼部カメラ300Aおよび300Bによる撮影画像の分解能は次式で表される。ここで、Δpは画素分解能を表す。
 xy方向の分解能(平面分解能):Δxy=H×Δp/f
 z方向の分解能(奥行き分解能):Δz=H×H×Δp/(B×f)
 3次元位置算出部2313は、2つの前眼部カメラ300Aおよび300Bの位置(既知である)と、2つの撮影画像において特徴点Pに相当する位置とに対して、図5Aおよび図5Bに示す配置関係を考慮した公知の三角法を適用することにより、特徴点Pの3次元位置、つまり被検眼Eの3次元位置を算出する。
 3次元位置算出部2313により算出された被検眼Eの3次元位置は制御部210に送られる。
 なお、この実施形態では、前眼部カメラ300Aおよび300Bと解析部231は「被検眼位置取得部」の一例である。すなわち、この実施形態では、解析部231が前眼部カメラ300Aおよび300Bにより実質的に同時に得られた2つの撮影画像を解析することで被検眼Eの3次元位置を求めているが、被検眼Eの3次元位置を取得する形態としてはこれに限定されず、たとえば光てこ方式を利用して被検眼Eの正面画像(前眼部Eaの観察画像)から被検眼Eの3次元位置を求めてもよいし、外部装置から被検眼Eの3次元位置を取得するようにしてもよい。
 以上のように機能する画像処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。
 (ユーザインターフェイス)
 ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼科装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
 なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェイス(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。
 [動作]
 眼科装置1の動作について説明する。図6に示すフローチャートは、眼科装置1の動作の一例を表す。
 (S1:患者登録)
 まず、ユーザは、ユーザインターフェイス240を用いて被検者の患者情報を入力する。患者情報としては、患者ID、患者氏名などがある。
 (S2:検査種別の選択)
 次に、ユーザは、ユーザインターフェイス240を用いて、被検者に対して実施される検査の種別を選択入力する。検査種別の項目としては、検査部位(眼底中心部、眼底周辺部、視神経乳頭、黄斑など)、被検眼(左眼、右眼、両眼)、画像撮影パターン(眼底像のみ、OCT画像のみ、双方)、OCTスキャンパターン(ラインスキャン、十字スキャン、ラジアルスキャン、円スキャン、3次元スキャン等)などがある。この動作例では、検査部位として、眼底Efの周辺部が選択されたものとする。
 (S3:手動アライメントの開始)
 検査種別の選択が完了したら手動アライメントの開始指示がなされる。この開始指示は、ステップS2に示す検査種別の選択を受けて制御部210が自動で行うものであってもよいし、操作部240Bを用いてユーザが手動で行うものであってもよい。
 (S4:前眼部の撮影開始)
 手動アライメントの開始指示がなされると、制御部210は前眼部カメラ300Aおよび300Bによる前眼部Eaの撮影をそれぞれ開始させる。この撮影は、前眼部Eaを撮影対象とする動画撮影である。各前眼部カメラ300Aおよび300Bは所定のフレームレートで動画撮影を行う。ここで、前眼部カメラ300Aおよび300Bによる撮影タイミングが制御部210によって同期されていてもよい。各前眼部カメラ300Aおよび300Bは、取得されたフレームをリアルタイムで順次に制御部210に送る。制御部210は、双方の前眼部カメラ300Aおよび300Bにより得られたフレームを、撮影タイミングに応じて対応付ける。つまり、制御部210は、双方の前眼部カメラ300Aおよび300Bにより実質的に同時に取得されたフレーム同士を対応付ける。この対応付けは、たとえば、上記の同期制御に基づいて、または、前眼部カメラ300Aおよび300Bからのフレームの入力タイミングに基づいて実行される。制御部210は、対応付けられた一対のフレームを解析部231に送る。
 (S5:特徴点の特定)
 画像補正部2311は、制御部210から送られた各フレームの歪みを、記憶部212に記憶されている収差情報に基づいて補正する。この補正処理は前述の要領で実行される。歪みが補正された一対のフレームは、特徴点特定部2312に送られる。
 特徴点特定部2312は、画像補正部2311から送られた各フレームを解析することで、前眼部Eaの特徴点(瞳孔中心)に相当する当該フレーム中の位置を特定するための処理を実行する。
 なお、特徴点の特定に失敗した場合、前眼部カメラ300Aおよび300Bを支持部440から離れる方向および/または支持部440の外側方向に移動させた後に、特徴点の特定処理を再度実行するように制御することが可能である。前眼部カメラ300Aおよび300Bを支持部440から離れる方向に移動させることで、前眼部カメラ300Aおよび300Bと被検者(被検眼E)との間の距離が大きくなり、被検者の顔面のより広い範囲を撮影することが可能となる。よって、前眼部カメラ300Aおよび300Bによる好適な撮影可能範囲に被検眼Eが配置される可能性が高まる。また、支持部440の外側方向に前眼部カメラ300Aおよび300Bを移動させることで、被検者の耳側の方向に前眼部カメラ300Aおよび300Bが移動し、好適な撮影可能範囲に被検眼Eが配置される可能性が高まる。また、これら2方向への移動を組み合わせることにより、好適な撮影可能範囲に被検眼Eが配置される可能性が更に高まる。
 また、前眼部Eaに相当する画像がフレームの所定領域内に位置しているか判定することができる。そして、前眼部Eaの画像がフレームの所定領域内に位置していないと判定された場合には、上記と同様の前眼部カメラ300Aおよび300Bの移動制御を行うことが可能である。
 (S6:被検眼の3次元位置の算出)
 3次元位置算出部2313は、前眼部カメラ300Aおよび300Bの位置と、特徴点特定部2312により一対のフレームについて特定された特徴点の位置とに基づいて、被検眼Eの特徴点(瞳孔中心)の3次元位置を算出する。この処理は前述の要領で実行される。
 (S7:位置ずれ情報の取得)
 制御部210は、ステップS6で算出された特徴点(瞳孔中心)の3次元位置に基づいて、被検眼Eに対する検査用光学系の位置ずれ情報を取得する。この処理は、たとえば次のようにして実行される。まず、制御部210は、検査用光学系の現在位置を取得する。この現在位置は、たとえば、眼底カメラユニット2を移動させる光学系駆動部2Aに対する制御履歴から取得される。また、眼底カメラユニット2の位置を検出する位置センサを設け、この位置センサによる検出結果から現在位置を取得することもできる。なお、ステップS6で取得される被検眼Eの3次元位置(座標)を定義する座標系と、検査用光学系の現在位置(座標)を定義する座標系は共通であるとする。或いは、双方の座標系の間の座標変換は既知であるとする。
 位置ずれ情報は、被検眼Eに対する検査用光学系の適正位置からの変位(位置ずれ量および位置ずれ方向)を示す情報である。適正位置とは、被検眼Eの検査を行うための好適な検査用光学系のアライメント目標位置であり、x方向(左右方向)およびy方向(上下方向)においては被検眼Eの軸と検査用光学系の光軸とが一致し、z方向(前後方向、光軸方向)においては被検眼Eから所定の作動距離だけ離れた位置である。作動距離は既知であり、ステップS6で被検眼Eの3次元位置が取得されているので、たとえば上記の共通の座標系におけるアライメント目標位置の座標を求めることは容易である。
 (S8:擬似アライメント指標像の表示)
 制御部210は、ステップS8で取得された位置ずれ情報に基づいて、表示部240Aの画面上の所定位置に擬似アライメント指標像およびアライメント基準位置マークを観察画像に重ねて合成表示させる。擬似アライメント指標像およびアライメント基準位置マークの表示例を以下に説明する。
 〔第1の表示例〕
 図7Aおよび図7Bを参照しつつ第1の表示例を説明する。図7A及び図7Bは、アライメント調整に使用される表示画面の一例を示したものである。この表示画面は表示部240Aに表示される画面に相当する。また、図示を省略したが、図7Aおよび図7Bに示した表示画面には、眼底カメラユニット2による観察画像(被検眼Eの眼底像)が表示される。
 図7Aおよび図7Bにおいて、表示画面308には、アライメント基準位置マーク(括弧マーク)309が基準位置に表示される。ここで、基準位置とは、観察画像の中央位置を意味する。アライメント基準位置マーク309は、擬似アライメント指標像310の移動目標となる位置を示す画像である。また、表示画面308には、2つの擬似アライメント指標像310、310が表示される。2つの擬似アライメント指標像310、310の表示位置は、被検眼Eに対する検査用光学系の位置ずれ情報に応じて変化する。すなわち、被検眼Eに対する検査用光学系のx方向(左右方向)、y方向(上下方向)、z方向(作動距離方向)のそれぞれの変位(位置ずれ量および位置ずれ方向)に応じて、2つの擬似アライメント指標像310、310の表示位置が制御部210によって表示制御される。
 たとえば、被検眼Eに対して検査用光学系がxy方向に位置ずれしている場合、図7Aに示すように、擬似アライメント指標像310は、アライメント基準位置マーク309から離れた位置に表示される。また、被検眼Eに対して検査用光学系がz方向に位置ずれしている場合、図7Aに示すように、2つの擬似アライメント指標像310、310は、所定の間隔をあけて互いに離れた位置に表示される。一方、xyz方向全てのアライメントが適正である場合、図7Bに示すように、擬似アライメント指標像310、310は、互いに重なった状態でアライメント基準位置マーク309の内部に表示される。
 すなわち、アライメント基準位置マーク309に対する擬似アライメント指標像310、310の表示位置は、被検眼Eに対する検査用光学系のxy方向の変位(適正位置からのxy方向の位置ずれ量および位置ずれ方向)に応じて変化するように表示制御される。また、擬似アライメント指標像310、310の間隔(距離)は、被検眼Eに対する検査用光学系のz方向の変位(適正位置からのz方向の位置ずれ量)に応じて変化するように表示制御される。
 このような第1の表示例によれば、従来と同様な操作感覚で、表示部240Aの表示画面に表示された観察画像(被検眼Eの眼底像)を観察しながら手動でアライメント調整を行うことが可能となる。
 なお、この実施形態では、擬似アライメント指標像を擬似的に表示しているので、検査部位(つまり、固視標の投影位置)の変化に関係なく常に一定の基準位置にアライメント基準位置マークを表示することができる。これにより、たとえば検査部位として眼底周辺部が選択された場合でも、従来の眼科装置に比べてアライメント指標像が表示部の画面上から消えてしまう事象が発生しにくいので、ユーザの経験や熟練度に依存することなく、定量的な情報に基づいてアライメント調整を円滑に行うことが可能となる。
 〔第2の表示例〕
 図8Aおよび図8Bを参照しつつ第2の表示例について説明する。図8Aおよび図8Bは、被検眼Eに対する検査用光学系のz方向の位置ずれ(アライメントずれ)がそれぞれ前方向、後方向にずれている場合の表示画面の一例を示したものである。なお、本明細書では、被検者側に向かう方向を前方向とし、その逆方向を後方向とする。
 第2の表示例では、図8Aおよび図8Bに示すように、制御部210は、2つの擬似アライメント指標像310A、310Bのうち、第1の擬似アライメント指標像310Aを第1の色(塗りつぶした丸印で示す)で表示し、第2の擬似アライメント指標像310Bを第1の色とは異なる第2の色(白抜き丸印で示す)で表示する。
 更に、制御部210は、z方向の位置ずれが前方向である場合には、図8Aに示すように、第1の擬似アライメント指標像310Aを左側に表示し、かつ第2の擬似アライメント指標像310Bを右側に表示する。一方、z方向の位置ずれが後方向である場合には、図8Bに示すように、第1の擬似アライメント指標像310Aを右側に表示し、かつ第2の擬似アライメント指標像310Bを左側に表示する。2つの擬似アライメント指標像310A、310Bの間隔(距離)は、第1の表示例と同様に、z方向(作動距離方向)の位置ずれ量に応じて変化する。
 このように第2の表示例では、2つのアライメント指標像を互いに異なる表示態様で表示し、かつ被検眼Eに対する検査用光学系のz方向の位置ずれが前方向であるか後方向であるかに応じて2つのアライメント指標像の表示位置が相互に入れ替わるようになっている。これにより、2つの擬似アライメント指標像310A、310Bの位置関係から、z方向の位置ずれ量だけでなく、z方向の位置ずれが前方向であるか後方向であるかを直観的に把握することが可能となる。
 なお、上述した第1の表示例では、2つのアライメント指標像は同一の表示態様で表示されるので、2つの擬似アライメント指標像310A、310Bの位置関係からz方向における位置ずれ方向を直観的に把握することは困難である。
 なお、第2の表示例において、2つの擬似アライメント指標像310A、310Bの表示態様を変える形態としては上述した例に限定されるものではなく、色以外の他、たとえば、大きさ、形状、点滅パターンを変えてもよいし、これらの組み合わせでもよい。さらには、模様、明るさ、濃度、透明度など、視覚的に区別可能なものであれば、どのような態様でもよい。
 第2の表示例の変形例について図9~図11を参照しつつ説明する。なお、図9~図11は、z方向の位置ずれが前方向である場合を示しており、z方向の位置ずれが後方向である場合には2つの擬似アライメント指標像310A、310Bの表示位置を相互に入れ替えて表示するものとする。
 〔第1の変形例〕
 第1の変形例は、2つの擬似アライメント指標像310A、310Bの形状を互いに異ならせたものである。たとえば、図9に示すように、2つの擬似アライメント指標像310A、310Bのうち、第1の擬似アライメント指標像310Aを四角マークで表示し、第2の擬似アライメント指標像310Bを丸マークで表示する。
 〔第2の変形例〕
 第2の変形例は、2つの擬似アライメント指標像310A、310Bの大きさを互いに異ならせたものである。たとえば、図10に示すように、2つの擬似アライメント指標像310A、310Bのうち、第1の擬似アライメント指標像310Aを大きく表示し、第2の擬似アライメント指標像310Bを小さく表示する。
 〔第3の変形例〕
 第3の変形例は、2つの擬似アライメント指標像310A、310Bの点滅パターンを互いに異ならせたものである。たとえば、図11に示すように、2つの擬似アライメント指標像310A、310Bのうち、第1のアライメント指標を常時表示(実線で表示)とし、第2の擬似アライメント指標像310Bを点滅表示(破線で表示)とする。
 〔第3の表示例〕
 図12Aおよび図12Bを参照しつつ第3の表示例について説明する。
 図12Aおよび図12Bは、被検眼Eに対する検査用光学系のz方向の位置ずれがそれぞれ前方向、後方向である場合の表示画面の一例を示したものである。図12Aに示すように、制御部210は、z方向の位置ずれが前方向である場合には、2つの擬似アライメント指標像310A、310Bを第1の色(塗りつぶした丸印で示す)で表示する。一方、図12Bに示すように、制御部210は、z方向の位置ずれが後方向である場合には、2つの擬似アライメント指標像310A、310Bを第1の色とは異なる第2の色(白抜き丸印で示す)で表示する。
 このように第3の表示例では、第1の表示例と同様に、2つの擬似アライメント指標像310A、310Bを同一の表示態様で表示するものであるが、z方向(作動距離方向)の位置ずれが前方向であるか後方向であるかに応じて、2つの擬似アライメント指標像310A、310Bの表示態様を異ならせている。これにより、2つの擬似アライメント指標像310A、310Bの表示態様からz方向の位置ずれが前方向であるか後方向であるかを直観的に把握することが可能となり、検者は、アライメント調整を迷うことなく円滑に行うことができるようになる。
 なお、第3の表示例において、2つの擬似アライメント指標像310A、310Bの表示態様を変える形態としては上述した例に限定されるものではなく、第2の表示例と同様に、色の他、たとえば、大きさ、形状、点滅パターンを変えてもよいし、これらの組み合わせでもよい。さらには、模様、明るさ、濃度、透明度など、視覚的に区別可能なものであれば、どのような態様でもよい。
 (S9:手動アライメントの実行)
 ユーザは、表示されている観察画像を観察しながら擬似アライメント指標像を確認しつつ、操作部240Bを用いた所定の操作を行うことで、検査用光学系を移動させる。
 このとき、制御部210は、検査用光学系の移動内容に応じて擬似アライメント指標像の表示位置を変更することができる。たとえば、制御部210は、検査用光学系の移動内容に応じて位置ずれ情報をリアルタイムで再度取得し、この新たな位置ずれ情報に応じて擬似アライメント指標像の表示をリアルタイムで更新する。
 また、制御部210は、被検眼Eに対する検査用光学系のxyz方向全ての位置ずれが所定の許容範囲内である否かを判定し、位置ずれが許容範囲内であると判定された場合には、位置ずれが許容範囲外である場合とは異なる表示態様で擬似アライメント指標像を表示するようにしてもよい。たとえば上述の第2の表示例の場合において、位置ずれが許容範囲外である場合には、2つの擬似アライメント指標像310A、310Bをそれぞれ第1の色、第2の色で表示する一方で、位置ずれが許容範囲内である場合には、2つの擬似アライメント指標像310A、310Bを第1の色および第2の色とは異なる第3の色で表示する。
 なお、位置ずれが許容範囲内であると判定された場合に2つの擬似アライメント指標像の表示態様を変える形態としては上述した例に限定されるものではなく、色以外の他、たとえば、大きさ、形状、点滅パターンを変えてもよいし、これらの組み合わせでもよい。さらには、模様、明るさ、濃度、透明度など、視覚的に区別可能なものであれば、どのような態様でもよい。
 なお、被検眼情報を参照することにより、手動アライメントの確度の更なる向上を図ることが可能である。被検眼情報は、たとえば、被検眼Eに対してあらかじめ実施された検査により取得された、被検眼の特性を示す測定情報である。この測定情報は、当該眼科装置により取得されたものでも、他の眼科装置により取得されたものでもよい。測定情報は、たとえば患者ID等に関連付けられて記憶部212に事前に記憶される。
 制御部210は、患者ID等に基づいて被検眼Eに対応する測定情報を選択する。更に、制御部210は、選択された測定情報と、解析部231により取得された被検眼Eの3次元位置に基づいて、位置ずれ情報を生成する。この処理の例として、角膜形状の偏りに基づいて、x方向およびy方向の位置ずれ情報(位置ずれ量および位置ずれ方向)を補正することができる。また、眼軸長に基づいて、z方向の位置ずれ情報(位置ずれ量および位置ずれ方向)を補正することができる。後者は、眼底を検査する場合に特に有効である。
 このように被検眼Eの測定情報を考慮して位置ずれ情報を生成することにより、被検眼の個人差に応じたより高確度の位置ずれ情報を取得し呈示することが可能となる。
 (S10:検査の開始)
 ステップS9における手動アライメントの処理の終了を受けて、制御部210は、ステップS2で指定された検査を開始させる。
 (S11:検査の終了)
 被検眼Eの検査の終了を受けて、この動作例は終了となる。
 なお、以上の説明では、検査部位として、眼底Efの周辺部が選択された場合の動作例について説明したが、検査部位として眼底中心部が選択された場合には、上記動作例と同様に、アライメント基準位置マークが表示される基準位置(観察画像の中央位置)を基準として擬似アライメント指標像が表示される。
 [作用・効果]
 以上のような眼科装置1の作用および効果について説明する。
 眼科装置1は、検査用光学系と、表示部240Aと、2つの前眼部カメラ300Aおよび300B(撮影部)と、解析部231と、制御部210とを有する。検査用光学系は、被検眼Eを検査するための光学系であり、被検眼Eの眼底を撮影する撮影光学系30を含む。2つの前眼部カメラ300Aおよび300Bは、被検眼Eの前眼部Eaを異なる方向から実質的に同時に撮影する。解析部231は、前眼部カメラ300により取得された撮影画像を解析することにより、被検眼Eの3次元位置を求める。制御部210は、解析部231により求められた被検眼Eの3次元位置に基づき被検眼Eに対する検査用光学系の位置ずれ情報を取得し、この位置ずれ情報に応じて表示部240Aに予め設定されているアライメントの基準位置に対する位置が変化する2つの擬似アライメント指標像を表示部240Aの画面上に擬似的に表示する。
 このような眼科装置1によれば、前眼部カメラ300Aおよび300Bにより取得された撮影画像から算出される被検眼Eの3次元位置に基づいて、被検眼Eに対する検査用光学系の適正位置からの位置ずれ情報を取得し、この位置ずれ情報に応じて2つの擬似アライメント指標像が表示部の画面上に擬似的に表示される。すなわち、表示部240Aの画面上にはアライメント光学系により被検眼Eに投影されたアライメント指標像(光学的なアライメント指標像)ではなく、制御部210によって擬似的に生成された擬似アライメント指標像が表示される。そのため、検査部位(つまり、被検眼Eの固視位置)に左右されることなく、表示部の画面に予め設定されているアライメントの基準位置を常に一定の位置とすることができる。これにより、たとえば検査部位として眼底周辺部が選択された場合でも、従来の眼科装置に比べてアライメント指標像が表示部の画面上から消えてしまう事象が発生しにくいので、ユーザの経験や熟練度に依存することなく、定量的な情報に基づいてアライメント調整を円滑に行うことが可能となる。したがって、従来と同様な操作感覚で、被検眼に対する検査用光学系のアライメント調整を手動で円滑かつ容易に行うことが可能となる。
 また、この実施形態の眼科装置1は、被検眼Eにアライメント指標を投影するアライメント光学系を備えることなく手動でアライメント調整を行うことができるので、アライメント光学系を含む装置に比べて装置の小型化が可能であるとともに、部品点数の減少によってコストダウン及びメンテナンス性の向上を図ることが可能である。
 〈変形例〉
 以上に説明した構成は、本発明を好適に実施するための一例に過ぎない。よって、本発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。
 対物レンズ22のレンズ中心よりも下方(-y方向)に前眼部カメラ300(撮影部)を配置することができる。それにより、前眼部カメラ300(撮影部)により取得される撮影画像に被検者の瞼や睫毛が映り込む可能性を低減できる。また、眼の窪み(眼窩)が深い被検者であっても、好適に前眼部撮影を行うことができる。
 上記実施形態において、前眼部カメラ300Aおよび300Bにより実質的に同時に取得された2つの撮影画像を画像処理部230によって合成し、この合成画像を表示させることが可能である。それにより、前眼部Eaの立体的な形態を観察することが可能である。また、この合成画像を用いて上記実施形態の解析処理を実行することもできる。
 上記実施形態において、制御部210は、前眼部カメラ300Aおよび300Bにより実質的に同時に得られた2つの撮影画像の少なくとも1つを表示させることが可能である。それにより、前眼部Eaの形態を異なる視点(撮影位置)から観察することができる。
 前眼部カメラ300は、筐体420の前面に装着されていてもよいし、筐体420内に格納されていてもよい。つまり、前眼部カメラ300は、筐体420の前面から突出して配置されていてもよいし、筐体420の前面と実質的に面一に配置されていてもよい。なお、筐体420の前面に対して陥没した位置に前面が配置されるように前眼部カメラ300を設けることも可能である。
 筐体420の前面から突出しないように前眼部カメラ300Aを設ける場合、開瞼や外部固視操作などの邪魔にならない、画像自体のケラレによる位置情報の取得の失敗を回避できる、といった利点が得られる。
 また、前眼部カメラ300を筐体420の前面以外の位置に設けることも可能である。たとえば、筐体420の側面位置に前眼部カメラ300を設けるとともに、前眼部カメラ300の光軸の方向を変化させて被検眼Eに導く光学系(ミラー等)を設けることが可能である。また、筐体420内に前眼部カメラ300を設けるとともに、同様の光学系を設けることも可能である。このような光学系が設けられる場合、前眼部撮影に対する外乱を考慮すると、前眼部カメラ300および光学系を筐体420内に設けることが望ましいと考えられる。その場合、他の光学系(検査用光学系等)による前眼部撮影への影響を回避するために、前眼部カメラ300および光学系を他の光学系から分離させた構成を適用することが望ましいと考えられる。なお、光学系の分離には、プリズムやダイクロイックミラー等の光路分離部材を用いることが可能である。
 上記の実施形態においては、光路長変更部41の位置を変更することにより、信号光LSの光路と参照光LRの光路との光路長差を変更しているが、この光路長差を変更する手法はこれに限定されるものではない。たとえば、参照光の光路に反射ミラー(参照ミラー)を配置し、この参照ミラーを参照光の進行方向に移動させて参照光の光路長を変更することによって、当該光路長差を変更することが可能である。また、被検眼Eに対して眼底カメラユニット2やOCTユニット100を移動させて信号光LSの光路長を変更することにより当該光路長差を変更するようにしてもよい。
 上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。
 また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。

Claims (6)

  1.  被検眼の眼底を撮影する撮影光学系を含む検査用光学系と、
     前記撮影光学系により取得された前記被検眼の眼底像を表示する表示部と、
     前記被検眼の3次元位置を取得する被検眼位置取得部と、
     前記3次元位置に基づき前記被検眼に対する前記検査用光学系の位置ずれ情報を取得し、前記位置ずれ情報に応じて前記表示部に予め設定されているアライメントの基準位置に対する位置が変化する2つのアライメント指標像を前記表示部の画面上に擬似的に表示する制御部と、
     を備える眼科装置。
  2.  前記制御部は、前記被検眼に対して前記検査用光学系が適正位置である場合に前記2つのアライメント指標像を前記アライメントの基準位置に表示する請求項1に記載の眼科装置。
  3.  前記位置ずれ情報は、前記検査用光学系の光軸方向における位置ずれ量および位置ずれ方向を含み、
     前記制御部は、前記位置ずれ量に応じて前記2つのアライメント指標像の間隔を変化させ、かつ前記位置ずれ方向に応じて前記2つのアライメント指標像の表示態様を変化させる請求項1または2に記載の眼科装置。
  4.  前記制御部は、前記位置ずれ方向に応じて前記2つのアライメント指標像の色、形状、大きさ、点滅パターン、模様、明るさ、濃度、透明度のうち少なくとも1つの表示態様を変化させる請求項3に記載の眼科装置。
  5.  前記被検眼を固視させるための固視光学系を更に備え、
     前記制御部は、前記固視光学系による前記被検眼の固視位置の変化に関係なく常に一定の基準位置にアライメント基準位置マークを表示する請求項1~4のいずれか1項に記載の眼科装置。
  6.  前記被検眼位置取得部は、
     前記被検眼の前眼部を異なる方向から実質的に同時に撮影する2以上の撮影部と、
     前記2以上の撮影部により取得された撮影画像を解析することにより、前記被検眼の3次元位置を求める解析部と、
     を備える請求項1~5のいずれか1項に記載の眼科装置。
PCT/JP2015/073147 2014-08-27 2015-08-18 眼科装置 WO2016031630A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/506,544 US10080496B2 (en) 2014-08-27 2015-08-18 Ophthalmological device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-172695 2014-08-27
JP2014172695A JP6498398B2 (ja) 2014-08-27 2014-08-27 眼科装置

Publications (1)

Publication Number Publication Date
WO2016031630A1 true WO2016031630A1 (ja) 2016-03-03

Family

ID=55399526

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/073147 WO2016031630A1 (ja) 2014-08-27 2015-08-18 眼科装置

Country Status (3)

Country Link
US (1) US10080496B2 (ja)
JP (1) JP6498398B2 (ja)
WO (1) WO2016031630A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6506153B2 (ja) * 2015-10-27 2019-04-24 株式会社Screenホールディングス 変位検出装置および変位検出方法ならびに基板処理装置
DE102017110103A1 (de) * 2017-05-10 2018-11-15 Carl Zeiss Meditec Ag Visualisierungssystem zur Visualisierung eines dreidimensionalen Zielbereichs eines Objektes
CN111511268B (zh) 2017-11-07 2023-12-26 诺达尔视觉有限公司 视网膜成像设备和相关方法
CA3083825A1 (en) 2017-11-07 2019-05-16 Notal Vision Ltd. Methods and systems for alignment of ophthalmic imaging devices
CN112236073A (zh) 2018-06-06 2021-01-15 爱尔康公司 用于相对于眼睛进行基于反射的定位的系统和方法
JP7050588B2 (ja) 2018-06-13 2022-04-08 株式会社トプコン 眼科装置、その制御方法、プログラム、及び記録媒体
JP2019213739A (ja) 2018-06-13 2019-12-19 株式会社トプコン 眼科装置、その制御方法、プログラム、及び記録媒体
US10595722B1 (en) 2018-10-03 2020-03-24 Notal Vision Ltd. Automatic optical path adjustment in home OCT
US10653311B1 (en) 2019-06-12 2020-05-19 Notal Vision Ltd. Home OCT with automatic focus adjustment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007202724A (ja) * 2006-01-31 2007-08-16 Nidek Co Ltd 眼底カメラ
JP2014140542A (ja) * 2013-01-24 2014-08-07 Topcon Corp 眼科観察装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5404078B2 (ja) 2009-02-03 2014-01-29 株式会社トプコン 光画像計測装置
JP5275963B2 (ja) * 2009-12-08 2013-08-28 株式会社東芝 表示装置、表示方法及び移動体
JP5989523B2 (ja) 2012-05-01 2016-09-07 株式会社トプコン 眼科装置
JP6173169B2 (ja) * 2012-11-26 2017-08-02 キヤノン株式会社 眼科装置及び眼科装置の制御方法
JP6184114B2 (ja) * 2013-01-31 2017-08-23 キヤノン株式会社 光干渉断層撮像装置およびその制御方法
JP6388440B2 (ja) * 2014-11-26 2018-09-12 株式会社トプコン 眼科装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007202724A (ja) * 2006-01-31 2007-08-16 Nidek Co Ltd 眼底カメラ
JP2014140542A (ja) * 2013-01-24 2014-08-07 Topcon Corp 眼科観察装置

Also Published As

Publication number Publication date
JP2016047094A (ja) 2016-04-07
US20170251920A1 (en) 2017-09-07
JP6498398B2 (ja) 2019-04-10
US10080496B2 (en) 2018-09-25

Similar Documents

Publication Publication Date Title
JP6112846B2 (ja) 眼科装置
JP6865788B2 (ja) 眼科装置
JP6522827B2 (ja) 眼科装置
JP6009935B2 (ja) 眼科装置
JP5989523B2 (ja) 眼科装置
JP6566541B2 (ja) 眼科装置
JP6498398B2 (ja) 眼科装置
JP6388440B2 (ja) 眼科装置
JP6624641B2 (ja) 眼科装置
JP2018198967A (ja) 眼科装置
JP6407631B2 (ja) 眼科装置
JP2014140542A (ja) 眼科観察装置
JP2018051340A (ja) 眼科装置
JP6310589B2 (ja) 眼科装置
JP7231366B2 (ja) 眼科装置および眼科装置の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15836369

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15506544

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15836369

Country of ref document: EP

Kind code of ref document: A1