WO2016039188A1 - 眼底解析装置及び眼底観察装置 - Google Patents

眼底解析装置及び眼底観察装置 Download PDF

Info

Publication number
WO2016039188A1
WO2016039188A1 PCT/JP2015/074491 JP2015074491W WO2016039188A1 WO 2016039188 A1 WO2016039188 A1 WO 2016039188A1 JP 2015074491 W JP2015074491 W JP 2015074491W WO 2016039188 A1 WO2016039188 A1 WO 2016039188A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
region
image
information
oct
Prior art date
Application number
PCT/JP2015/074491
Other languages
English (en)
French (fr)
Inventor
中澤 徹
宗子 面高
朗子 松本
勉 木川
秋葉 正博
Original Assignee
国立大学法人東北大学
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2014182326A external-priority patent/JP5937163B2/ja
Application filed by 国立大学法人東北大学, 株式会社トプコン filed Critical 国立大学法人東北大学
Priority to US15/509,421 priority Critical patent/US10362939B2/en
Publication of WO2016039188A1 publication Critical patent/WO2016039188A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes

Definitions

  • the present invention relates to a fundus analysis apparatus and a fundus observation apparatus that analyze fundus information acquired using optical coherence tomography (hereinafter referred to as OCT).
  • OCT optical coherence tomography
  • Glaucoma is one of the diseases that cause blindness, and visual impairment due to glaucoma is irreversible. Therefore, it is desirable that diagnosis for glaucoma and observation of the degree of progression thereof be appropriately performed.
  • an OCT technique for forming an image representing the surface form or the internal form of an object to be measured using a light beam from a laser light source or the like is useful. For example, it is possible to observe changes in the shape of the retina by referring to an image of the fundus formed using OCT, and to observe the progress of glaucoma and the state after treatment.
  • the optic nerve head In glaucoma diagnosis and the like, it is considered important to pay attention to changes in the morphology of the optic disc and retinal nerve fiber layer.
  • the optic nerve head As for the optic nerve head, its shape and size are focused on, and the inclination and the shape and size of C (Cup), D (Disc), and R (Rim) of the optic nerve head are used as diagnostic materials.
  • the retinal nerve fiber layer thickness, defect, etc. are used as diagnostic materials.
  • the form of a sieve plate has been attracting attention as contributing to the early detection of glaucoma.
  • the sieving plate is a mesh-like part in which a plurality of holes through which the optic nerve gathered in the optic nerve head passes are formed.
  • Patent Document 1 discloses a technique for detecting a sieve plate region from a tomographic image acquired using OCT and analyzing the detected sieve plate region.
  • the present invention has been made to solve such a problem, and an object thereof is to provide a technique capable of acquiring new information related to the sieve plate.
  • the fundus analysis apparatus includes a storage unit that stores OCT information acquired by optical coherence tomography with respect to the fundus of a subject's eye, a front region corresponding to a front surface of the sieve plate in the OCT information, and a rear surface of the sieve plate And a form information generating part for generating form information indicating the form of the sieve plate based on at least the front area and the rear area.
  • new information on the sieve plate can be acquired.
  • newly acquired information on the phloem plate it becomes possible to perform glaucoma evaluation, diagnosis, pre-onset diagnosis, and the like more accurately.
  • the fundus oculi observation device acquires OCT information of the fundus using OCT.
  • the OCT information includes FFT (Fast Fourier Transform) processing results (information before imaging) based on a detection result (for example, a detection signal from a CCD image sensor) by a detection unit that detects interference light using OCT, And a tomographic image of the fundus obtained using OCT (including at least one of a two-dimensional tomographic image, a three-dimensional image, and an MPR (Multi Planar Reconstruction) image).
  • FFT Fast Fourier Transform
  • the fundus analysis apparatus receives input of OCT information acquired using OCT and performs processing for analyzing OCT information.
  • images acquired using OCT may be collectively referred to as OCT images.
  • a measurement operation for acquiring OCT information may be referred to as OCT measurement.
  • the fundus oculi observation device can acquire both OCT information (OCT images) and fundus images of the fundus using the spectral domain OCT technique.
  • OCT images OCT images
  • the configuration according to the present invention can be applied to a fundus oculi observation device using a type other than the spectral domain, for example, a swept source OCT technique.
  • a fundus oculi observation device using a type other than the spectral domain, for example, a swept source OCT technique.
  • an apparatus combining an OCT apparatus and a fundus camera will be described.
  • this embodiment may be applied to a fundus imaging apparatus other than a fundus camera, such as an SLO (Scanning Laser Ophthalmoscope), a slit lamp, an ophthalmic surgical microscope, and the like. It is also possible to combine an OCT apparatus having the configuration according to the above. In addition, the configuration according to this embodiment can be incorporated into a single OCT apparatus.
  • SLO Scnning Laser Ophthalmoscope
  • OCT images include A-scan images, B-scan images, and front images.
  • front image examples include a C-scan image, a projection image, a flattened image, or a shadowgram.
  • the sieving plate (optic sieving plate) region is an image region corresponding to a sieving plate which is one of the tissues constituting the fundus.
  • the sieving plate includes at least a mesh portion in which a plurality of holes through which the optic nerve gathered in the optic disc passes is formed.
  • the fundus oculi observation device 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200.
  • the retinal camera unit 2 has almost the same optical system as a conventional retinal camera.
  • the OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus.
  • the arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.
  • the arithmetic control unit 200 has a function as a “fundus analyzer”. Further, the function of the “fundus analyzer” may be realized by the arithmetic control unit 200 and an operation unit 240B described later.
  • the fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined.
  • the fundus image includes an observation image and a captured image.
  • the observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light.
  • the captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light.
  • the fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.
  • the fundus camera unit 2 is provided with a chin rest and a forehead for supporting the subject's face. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30.
  • the illumination optical system 10 irradiates the fundus oculi Ef with illumination light.
  • the photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38).
  • the imaging optical system 30 guides the signal light from the OCT unit 100 to the fundus oculi Ef and guides the signal light passing through the fundus oculi Ef to the OCT unit 100.
  • the observation light source 11 of the illumination optical system 10 is composed of, for example, a halogen lamp.
  • the light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef.
  • An LED Light Emitting Diode
  • the fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. It is reflected by the mirror 32 via 31. Further, the fundus reflection light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens.
  • the CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.
  • the photographing light source 15 is constituted by, for example, a xenon lamp.
  • the light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light.
  • the fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38.
  • An image is formed on the light receiving surface.
  • On the display device 3 an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed.
  • the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different.
  • an infrared captured image is displayed. It is also possible to use an LED as a photographing light source.
  • the LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index.
  • the fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT measurement.
  • a part of the light output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and reaches the dichroic.
  • the light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the fixation position of the eye E can be changed by changing the display position of the fixation target on the screen of the LCD 39.
  • As the fixation position of the eye E for example, a position for acquiring an image centered on the macular portion of the fundus oculi Ef, or a position for acquiring an image centered on the optic disc as in the case of a conventional fundus camera And a position for acquiring an image centered on the fundus center between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.
  • the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in the conventional fundus camera.
  • the alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system with respect to the eye E.
  • the focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.
  • the light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, passes through the hole of the aperture mirror 21, and reaches the dichroic mirror 46. And is projected onto the cornea of the eye E by the objective lens 22.
  • the cornea-reflected light of the alignment light passes through the objective lens 22, the dichroic mirror 46, and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, and is reflected by the mirror 32.
  • the light passes through 33A, is reflected by the dichroic mirror 33, and is projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens.
  • the light reception image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image.
  • the user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment index and moving the optical system (auto-alignment function).
  • the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10.
  • the light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the corneal reflection light of the alignment light.
  • a light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image.
  • the arithmetic control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing as in the conventional case (autofocus function). Alternatively, focusing may be performed manually while visually checking the split indicator.
  • the dichroic mirror 46 branches the optical path for OCT measurement from the optical path for fundus imaging.
  • the dichroic mirror 46 reflects light in a wavelength band used for OCT measurement and transmits light for fundus photographing.
  • a collimator lens unit 40, an optical path length changing unit 41, a galvano scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side. It has been.
  • the optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the optical path length of the optical path for OCT measurement. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state.
  • the optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.
  • the galvano scanner 42 changes the traveling direction of light (signal light LS) passing through the optical path for OCT measurement. Thereby, the fundus oculi Ef can be scanned with the signal light LS.
  • the galvano scanner 42 includes, for example, a galvano mirror that scans the signal light LS in the x direction, a galvano mirror that scans in the y direction, and a mechanism that drives these independently. Thereby, the signal light LS can be scanned in an arbitrary direction on the xy plane.
  • the OCT unit 100 is provided with an optical system for acquiring an OCT image (OCT information) of the fundus oculi Ef.
  • This optical system has the same configuration as a conventional spectral domain type OCT apparatus. That is, this optical system divides low-coherence light into reference light and signal light, and generates interference light by causing interference between the signal light passing through the fundus oculi Ef and the reference light passing through the reference optical path. It is configured to detect spectral components. This detection result (detection signal) is sent to the arithmetic control unit 200.
  • a wavelength swept light source is provided instead of a light source that outputs a low coherence light source, and an optical member that spectrally decomposes interference light is not provided.
  • a known technique according to the type of optical coherence tomography can be arbitrarily applied.
  • the light source unit 101 outputs a broadband low-coherence light L0.
  • the low coherence light L0 includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a wavelength band invisible to the human eye, for example, a center wavelength of about 1040 to 1060 nm, may be used as the low-coherence light L0.
  • the light source unit 101 includes a super luminescent diode (Super Luminescent Diode: SLD), an LED, and an optical output device such as an SOA (Semiconductor Optical Amplifier).
  • SLD Super Luminescent Diode
  • LED an LED
  • SOA semiconductor Optical Amplifier
  • the low coherence light L0 output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102, and is divided into the signal light LS and the reference light LR.
  • the reference light LR is guided by the optical fiber 104 and reaches an optical attenuator (attenuator) 105.
  • the optical attenuator 105 automatically adjusts the amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic control unit 200 using a known technique.
  • the reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches the polarization adjuster (polarization controller) 106.
  • the polarization adjuster 106 is, for example, a device that adjusts the polarization state of the reference light LR guided in the optical fiber 104 by applying a stress from the outside to the optical fiber 104 in a loop shape.
  • the configuration of the polarization adjuster 106 is not limited to this, and any known technique can be used.
  • the reference light LR whose polarization state is adjusted by the polarization adjuster 106 reaches the fiber coupler 109.
  • the signal light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 40. Further, the signal light LS reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. The signal light LS is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and is applied to the fundus oculi Ef. The signal light LS is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light of the signal light LS from the fundus oculi Ef travels in the same direction as the forward path in the reverse direction, is guided to the fiber coupler 103, and reaches the fiber coupler 109 via the optical fiber 108.
  • the fiber coupler 109 causes the backscattered light of the signal light LS and the reference light LR that has passed through the fiber coupler 103 to interfere with each other.
  • the interference light LC generated thereby is guided by the optical fiber 110 and emitted from the emission end 111. Further, the interference light LC is converted into a parallel light beam by the collimator lens 112, dispersed (spectral decomposition) by the diffraction grating 113, condensed by the condenser lens 114, and projected onto the light receiving surface of the CCD image sensor 115.
  • the diffraction grating 113 shown in FIG. 2 is a transmission type, but other types of spectroscopic elements such as a reflection type diffraction grating can also be used.
  • the CCD image sensor 115 is a line sensor, for example, and detects each spectral component of the split interference light LC and converts it into electric charges.
  • the CCD image sensor 115 accumulates this electric charge, generates a detection signal, and sends it to the arithmetic control unit 200.
  • a Michelson type interferometer is used, but any type of interferometer such as a Mach-Zehnder type can be appropriately used.
  • any type of interferometer such as a Mach-Zehnder type can be appropriately used.
  • another form of image sensor for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor or the like can be used.
  • CMOS Complementary Metal Oxide Semiconductor
  • the configuration of the arithmetic control unit 200 will be described.
  • the arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image of the fundus oculi Ef.
  • the arithmetic processing for this is the same as that of a conventional spectral domain type OCT apparatus.
  • the arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image (OCT information) of the fundus oculi Ef on the display device 3.
  • OCT information OCT information
  • the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, and the reflector 67. Movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvano scanner 42, and the like are performed.
  • the arithmetic control unit 200 performs operation control of the light source unit 101, operation control of the optical attenuator 105, operation control of the polarization adjuster 106, operation control of the CCD image sensor 115, and the like.
  • the arithmetic control unit 200 includes, for example, a microprocessor, a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk drive, a communication interface, and the like, as in a conventional computer.
  • a computer program for controlling the fundus oculi observation device 1 is stored in a storage device such as a hard disk drive.
  • the arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image.
  • the arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.
  • the fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more housings. It may be.
  • Control system The configuration of the control system of the fundus oculi observation device 1 will be described with reference to FIGS.
  • the control system of the fundus oculi observation device 1 is configured around the control unit 210.
  • the control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like.
  • the control unit 210 includes a main control unit 211, a storage unit 212, a display control unit 213, and an image display control unit 214.
  • the main control unit 211 performs the various controls described above.
  • the main control unit 211 includes a focusing drive unit 31A of the retinal camera unit 2, an optical path length changing unit 41, a galvano scanner 42 and an OCT focusing driving unit 43A, a light source unit 101 of the OCT unit 100, an optical attenuator 105, and The polarization controller 106 is controlled.
  • the main control unit 211 executes various display controls described later.
  • the focusing drive unit 31A moves the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographic optical system 30 is changed.
  • the main control unit 211 can also move an optical system provided in the fundus camera unit 2 in a three-dimensional manner by controlling an optical system drive unit (not shown). This control is used in alignment and tracking. Tracking is to move the apparatus optical system in accordance with the eye movement of the eye E. When tracking is performed, alignment and focusing are performed in advance. Tracking is a function of maintaining a suitable positional relationship in which the alignment and focus are achieved by causing the position of the apparatus optical system to follow the eye movement.
  • the OCT focusing drive unit 43A moves the focusing lens 43 in the optical axis direction of the signal optical path. Thereby, the focus position of the signal light LS is changed.
  • the focusing position of the signal light LS corresponds to the depth position (z position) of the beam waist of the signal light LS.
  • the main control unit 211 performs a process of writing data to the storage unit 212 and a process of reading data from the storage unit 212.
  • the storage unit 212 stores various data. Examples of data stored in the storage unit 212 include image data of an OCT image (OCT information), image data of a fundus image, and eye information to be examined.
  • OCT information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information.
  • the storage unit 212 stores various programs and data for operating the fundus oculi observation device 1.
  • the display control unit 213 displays various types of information generated by the control unit 210 and the data processing unit 230 on the display unit 240A.
  • Examples of information generated by the control unit 210 include operating conditions controlled by the main control unit 211 and information stored in the storage unit 212.
  • As an example of the information generated by the data processing unit 230 there is form information indicating the form of a predetermined part (for example, a sieve plate) of the fundus oculi described later.
  • the image display control unit 214 causes the display unit 240A to display an image acquired using OCT for the eye to be examined.
  • OCT optical coherence tomography
  • the function of the image display control unit 214 may be realized by the display control unit 213.
  • the image forming unit 220 forms tomographic image data of the fundus oculi Ef based on the detection signal from the CCD image sensor 115. This process includes processes such as noise removal (noise reduction), filtering, and FFT, as in the conventional spectral domain type optical coherence tomography. In the case of another type of OCT apparatus, the image forming unit 220 executes a known process corresponding to the type.
  • the image forming unit 220 includes, for example, the circuit board described above.
  • image data and “image” based thereon may be identified.
  • the part of the fundus oculi Ef and the image thereof may be identified with each other.
  • the data processing unit 230 performs various types of image processing and analysis processing on the image formed by the image forming unit 220. For example, the data processing unit 230 executes various correction processes such as image brightness correction and dispersion correction. Further, the data processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2. The data processing unit 230 may perform the above processing on the OCT image stored in the storage unit 212.
  • the data processing unit 230 includes a three-dimensional image data forming unit 230A and a cross-sectional image data forming unit 230B.
  • the three-dimensional image data forming unit 230A executes a known image process such as an interpolation process for interpolating pixels between a plurality of cross-sectional images obtained along a plurality of scanning lines, thereby obtaining a three-dimensional image of the fundus oculi Ef. Form data.
  • the three-dimensional image data means image data in which pixel positions are defined by a three-dimensional coordinate system.
  • As the three-dimensional image data there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data.
  • the data processing unit 230 When displaying an image based on volume data, the data processing unit 230 performs a rendering process (volume rendering, MPR, MIP (Maximum Intensity Projection), etc.) on the volume data, and a specific line-of-sight direction.
  • a rendering process volume rendering, MPR, MIP (Maximum Intensity Projection), etc.
  • MPR volume rendering
  • MIP Maximum Intensity Projection
  • stack data of a plurality of tomographic images is image data of a three-dimensional image.
  • the stack data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, stack data is image data obtained by expressing a plurality of tomographic images originally defined by individual two-dimensional coordinate systems by one three-dimensional coordinate system (that is, by embedding them in one three-dimensional space). is there.
  • the cross-sectional image data forming unit 230B forms cross-sectional image data based on the three-dimensional image data formed by the three-dimensional image data forming unit 230A. This processing is performed, for example, by performing MPR processing or the like on the three-dimensional image data.
  • the cross-section is set manually or automatically.
  • the data processing unit 230 can perform alignment between the fundus image and the OCT image.
  • the optical axis of the imaging optical system 30 is used for the fundus image and the OCT image acquired (almost) simultaneously. Can be aligned with reference to. Regardless of the acquisition timing of the fundus image and the OCT image, the OCT image and the fundus image are aligned by aligning the fundus image with the image obtained by projecting the OCT image onto the xy plane. It is also possible to do.
  • the data processing unit 230 includes a setting unit 231 and a form information generation unit 232.
  • the setting unit 231 includes an area setting unit 231A and an analysis target area setting unit 231B.
  • the region setting unit 231A sets a front region corresponding to the front surface of the sieve plate and a rear region corresponding to the rear surface of the sieve plate in the OCT image (OCT information) stored in the storage unit 212.
  • the sieve plate is configured to include at least a region in which a plurality of holes through which the optic nerve collected in the optic nerve head passes is formed.
  • the front region is a region (layer region) corresponding to the boundary surface on the vitreous body side of the sieve plate.
  • the rear surface region is a region (layer region) corresponding to a boundary surface on the occipital side of the sieve plate (that is, the side opposite to the vitreous body side of the sieve plate). It is only necessary that the sieving plate region is disposed between the front surface region and the rear surface region in the direction from the vitreous body toward the occipital region in the vicinity of the depressed portion of the optic nerve head.
  • the region setting unit 231A can receive operation information based on a user operation on the operation unit 240B, and can set at least one of the front region and the rear region based on the operation information. Specifically, the image display control unit 214 displays an OCT image on the display unit 240A. The region setting unit 231A sets at least one of the front region and the rear region based on the position designated by the user using the operation unit 240B for the image displayed on the display unit 240A.
  • the area setting unit 231A can set at least one of the front area and the rear area of the sieve plate by analyzing the OCT image.
  • the region setting unit 231A specifies a plurality of layer regions (that is, performs segmentation) based on, for example, pixel values (luminance values) of the OCT image.
  • the region setting unit 231A may select a predetermined layer region based on the pixel value or shape of the OCT image.
  • the region setting unit 231A specifies a characteristic part (for example, a depression) of the fundus oculi Ef by analyzing the OCT image, and specifies a predetermined layer region based on the relative position with respect to the specified characteristic part. You may do it.
  • the area setting unit 231 ⁇ / b> A specifies a layer area having an area corresponding to the hole of the sieve plate among the specified layer areas as the sieve plate area.
  • the predetermined layer region can be specified using any known technique (image processing technique).
  • the region setting unit 231A directly detects the hole portion of the sieve plate based on the pixel value of the OCT image, and specifies the region where the detected hole portion of the sieve plate exists as the sieve plate region. Is also possible.
  • the region setting unit 231A may specify a region including a region where collagen fibers constituting the sieving plate are present as a sieving plate region.
  • the region where the collagen fibers are present may be specified from, for example, a shadowgram image obtained by superimposing a plurality of OCT images in the traveling direction of the hole.
  • the area setting unit 231A can set the side area of the sieve plate.
  • the side area of the sieve plate is an area provided between the front area and the rear area.
  • the area setting unit 231A can also set the side area manually or automatically.
  • the region setting unit 231A sets the side region of the sieve plate based on the position specified by the user using the operation unit 240B with respect to the image displayed on the display unit 240A. Is possible.
  • the region setting unit 231A is designated. By connecting the two positions with a straight line or a predetermined curve, the boundary of the side region of the sieve plate can be specified, and the side region of the sieve plate can be set.
  • the area setting unit 231A can set the side area of the sieve plate by analyzing the OCT image.
  • the region setting unit 231A specifies the boundary of the side region by following the respective boundaries of the front region and the rear region of the sieve plate set manually or automatically as described above, and has the specified boundary. Set the area as a side area.
  • the region setting unit 231A specifies the end points of the front region and the rear surface region of the screen-like plate set manually or automatically as described above, and a straight line or a predetermined distance between the two specified end points.
  • the area specified by connecting with the curve is set as the side area.
  • the region setting unit 231A may set the side region of the sieve plate by a known region growing process based on an arbitrary initial position in the OCT image.
  • the region setting unit 231A can specify a side region by region growing processing from the inner side to the outer side of the sieve plate with an arbitrary position between the front surface region and the rear surface region as an initial position.
  • an arbitrary position between the front area and the rear area the position on the line segment connecting the center position of the front area and the center position of the rear area, the center position of the front area and the center position of the rear area There is a position on the line connecting the two.
  • the region setting unit 231A performs a region growing process from the outside to the inside of the sieve plate with the initial position as a position separated at least in the horizontal direction (xy direction) with respect to each of the front region and the rear region,
  • the side region may be specified.
  • the region growing process may include a process of searching for at least one of collagen fibers and a sieve plate hole.
  • the analysis target region setting unit 231B sets a region including at least the front region and the rear region in the OCT image as the analysis target region. Further, the analysis target region setting unit 231B can set a region including the side region of the sieve plate in the OCT image as the analysis target region. Examples of the analysis target region include a region in which a sieve plate is clearly depicted that is not easily affected by a blood vessel, and a region in which the measurement result of OCT measurement is highly reliable.
  • the form information generation unit 232 generates form information indicating the form of the sieve plate based on the analysis target region set by the analysis target region setting unit 231B. Thereby, the form information generation unit 232 can generate highly reliable information regarding the form of the sieve plate.
  • the analysis target area setting unit 231B can receive operation information based on a user operation on the operation unit 240B, and can set an analysis target area based on the operation information. Specifically, the image display control unit 214 displays an OCT image on the display unit 240A. The analysis target area setting unit 231B sets the analysis target area based on the position specified using the operation unit 240B for the image displayed on the display unit 240A.
  • the analysis target area setting unit 231B can set the analysis target area by analyzing the OCT image.
  • the analysis target area setting unit 231B specifies the analysis target area based on the pixel value of the OCT image, for example.
  • the analysis target region setting unit 231B specifies the analysis center in the front region or the rear region set by the region setting unit 231A based on the pixel value of the OCT image.
  • the analysis target area setting unit 231B may specify a characteristic part of the fundus oculi Ef (optic nerve head, an area having a characteristic pixel value, etc.) as an analysis center.
  • the analysis center may be a predetermined region in the fundus oculi Ef or a predetermined layer region in a tomographic image of the fundus oculi Ef.
  • the predetermined region in the fundus oculi Ef there is the optic disc (the center).
  • An example of the predetermined layer region in the tomographic image of the fundus oculi Ef is a Bruch film opening (BMO).
  • the analysis center may be the center of gravity of the optic disc.
  • the analysis target area setting unit 231B specifies a range within a predetermined distance from the specified analysis center as the analysis target area.
  • the analysis target area setting unit 231B may divide the OCT image into a plurality of grids and set the analysis target area in units of sectors configured by combining one or more divided grids.
  • a method of dividing a plurality of grids there are a method of dividing a region radially from the analysis center, a method of dividing a region by one or more concentric circles centered on the analysis center, a method of dividing a region in a lattice shape, and the like. is there.
  • the analysis target area setting unit 231B may set the analysis target area so that only one of the front area and the rear area is included.
  • the form information generation unit 232 generates form information indicating the form of the sieve plate based on at least the front area and the rear area. Moreover, the form information generation part 232 can generate
  • Examples of the distribution of the hole include the number, thickness, area, running state of the hole, the major axis of the approximate ellipse that approximates the hole, the minor axis, and the inclination of the major axis or minor axis.
  • Examples of the shape parameters of the sieving plate region and the analysis target region include the major axis of the approximate ellipse that approximates the region, the minor axis of the approximate ellipse, the inclination of the major axis or minor axis of the approximate ellipse, and the area of the approximate ellipse.
  • the form information generation unit 232 When the analysis target area is set by the analysis target area setting unit 231B, the form information generation unit 232 generates form information based on the front area and the rear area in the analysis target area. In addition, the form information generation unit 232 can generate form information based on the side area in the analysis target area.
  • the form information generating unit 232 includes a distance information generating unit 232A and a normal direction specifying unit 232B.
  • the form information generation unit 232 can generate distance information representing the distance between the front area and the rear area as form information.
  • the distance information generation unit 232A generates distance information between the front area and the rear area of the sieve plate set by the area setting unit 231A as form information. More specifically, the distance information generation unit 232A generates distance information indicating the distance in the predetermined measurement direction between the front surface area and the rear surface area as form information.
  • the measurement direction is the normal direction specified by the normal direction specifying unit 232B.
  • the normal direction specifying part 232B specifies the normal direction of the front region or the rear region of the sieve plate. Therefore, the distance information generation unit 232A can generate distance information as configuration information based on the normal direction specified by the normal direction specification unit 232B.
  • the distance information generation unit 232A uses the distance between the areas as the distance information between the front area and the rear area (or the front area and the rear area in the analysis target area), or two or more set in each area. It is possible to generate statistical values of distances, distributions of distances, and the like for the measurement points. Examples of the distance between each area include the distance between the center of gravity of each area, the distance in the normal direction specified in the area from one measurement point of the front area or the rear area, and any distance within each area. There is a distance between two points set to. Examples of the statistical value of the distance include an average value, a standard deviation, a median value, a maximum value, and a minimum value of values indicating two or more pieces of distance information between the front surface region and the rear surface region. Further, the distance information generation unit 232A may obtain a distance in a measurement direction passing through a preset measurement point between the front surface region and the rear surface region (or the front surface region and the rear surface region in the analysis target region).
  • the form information generation unit 232 can set measurement points with a predetermined arrangement pattern for the OCT image.
  • the arrangement pattern defines a plurality of measurement points in a lattice shape, a concentric circle shape, or a radial shape with reference to a reference position such as the center of the optic disc. Further, the arrangement pattern may prescribe a plurality of measurement points mainly in the vicinity of the macula, the front area, or the rear area.
  • the arrangement pattern may be a combination of at least two of the above. Further, some or all of the measurement points may be set manually.
  • the normal direction specifying unit 232B can obtain an approximate curved surface by performing a known curved surface approximation on the front surface region or the rear surface region, and can specify the normal direction for each measurement point in the approximate curved surface.
  • the normal direction specifying unit 232B performs an approximate curved surface by performing a known curved surface approximation on the boundary of the inner boundary membrane (ILM), the nerve fiber layer (NFL), the Bruch membrane opening (BMO), or the contour of the optic nerve head.
  • ILM inner boundary membrane
  • NNL nerve fiber layer
  • BMO Bruch membrane opening
  • the OCT image can include a two-dimensional or three-dimensional data set.
  • the form information generation unit 232 can generate, as form information, parameter distribution information indicating the form of the sieve plate based on the two-dimensional or three-dimensional data set.
  • the parameter indicating the form of the sieve plate there is a distance obtained for each intersection of the A line and the front region or the rear region.
  • the display control unit 213 can display the distribution information on the display unit 240A according to the parameter value.
  • the data processing unit 230 that functions as described above includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, circuit board, and the like.
  • a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.
  • the user interface 240 includes a display unit 240A and an operation unit 240B.
  • the display unit 240A includes the display device of the arithmetic control unit 200 and the display device 3 described above.
  • the operation unit 240B includes the operation device of the arithmetic control unit 200 described above.
  • the operation unit 240B may include various buttons and keys provided on the housing of the fundus oculi observation device 1 or outside.
  • the fundus camera unit 2 has a housing similar to that of a conventional fundus camera
  • the operation unit 240B may include a joystick, an operation panel, or the like provided on the housing.
  • the display unit 240 ⁇ / b> A may include various display devices such as a touch panel monitor provided in the housing of the fundus camera unit 2.
  • the display unit 240A and the operation unit 240B do not need to be configured as individual devices.
  • a device in which a display function and an operation function are integrated such as a touch panel monitor, can be used.
  • the operation unit 240B includes the touch panel display and a computer program.
  • the operation content for the operation unit 240B is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using a graphical user interface (GUI) displayed on the display unit 240A and the operation unit 240B.
  • GUI graphical user interface
  • the OCT unit 100 and the data processing unit 230 are an example of an “OCT information generation unit” according to this embodiment.
  • the OCT unit 100, the image forming unit 220, and the data processing unit 230 may be an example of the “OCT information generation unit” according to this embodiment.
  • Examples of the scanning mode of the signal light LS by the fundus oculi observation device 1 include a horizontal scan, a vertical scan, a cross scan, a radiation scan, a circle scan, a concentric scan, and a spiral (vortex) scan. These scanning modes are selectively used as appropriate in consideration of the observation site of the fundus, the analysis target (form of a sieve plate, etc.), the time required for scanning, the precision of scanning, and the like.
  • the horizontal scan is to scan the signal light LS in the horizontal direction (x direction).
  • the horizontal scan also includes an aspect in which the signal light LS is scanned along a plurality of horizontal scanning lines arranged in the vertical direction (y direction). In this aspect, it is possible to arbitrarily set the scanning line interval. Further, the above-described three-dimensional image can be formed by sufficiently narrowing the interval between adjacent scanning lines (three-dimensional scanning). The same applies to the vertical scan.
  • the cross scan scans the signal light LS along a cross-shaped trajectory composed of two linear trajectories (straight trajectories) orthogonal to each other.
  • the signal light LS is scanned along a radial trajectory composed of a plurality of linear trajectories arranged at a predetermined angle.
  • the cross scan is an example of a radiation scan.
  • the circle scan scans the signal light LS along a circular locus.
  • the signal light LS is scanned along a plurality of circular trajectories arranged concentrically around a predetermined center position.
  • a circle scan is an example of a concentric scan.
  • the signal light LS is scanned along a spiral (spiral) locus while the radius of rotation is gradually reduced (or increased).
  • the galvano scanner 42 is configured to scan the signal light LS in directions orthogonal to each other, the signal light LS can be scanned independently in the x direction and the y direction, respectively. Further, by simultaneously controlling the directions of the two galvanometer mirrors included in the galvano scanner 42, the signal light LS can be scanned along an arbitrary locus on the xy plane. Thereby, various scanning modes as described above can be realized.
  • a tomographic image on a plane stretched by the direction along the scanning line (scanning locus) and the fundus depth direction (z direction) can be acquired.
  • the above-described three-dimensional image can be acquired particularly when the scanning line interval is narrow.
  • the region on the fundus oculi Ef to be scanned with the signal light LS as described above, that is, the region on the fundus oculi Ef to be subjected to OCT measurement is referred to as a scanning region.
  • the scanning area in the three-dimensional scan is a rectangular area in which a plurality of horizontal scans are arranged.
  • the scanning area in the concentric scan is a disk-shaped area surrounded by the locus of the circular scan with the maximum diameter.
  • the scanning area in the radial scan is a disk-shaped (or polygonal) area connecting both end positions of each scan line.
  • FIG. 6 shows a flowchart of an example of the operation of the fundus oculi observation device 1. It is assumed that alignment and focusing have been completed and a fixation target is presented to the eye
  • E. 7 to 9 are diagrams for explaining the operation of the fundus oculi observation device 1.
  • FIG. 7 illustrates an example of an image displayed by the display unit 240A when the front area and the rear area are manually set.
  • FIG. 8 shows an example of a plurality of measurement points set by the form information generation unit 232.
  • FIG. 9 schematically shows an example of a tomographic image in the vicinity of the sieve plate.
  • the main control unit 211 controls the light source unit 101, the galvano scanner 42, etc. in a state where the eye to be examined is fixed at a fixation position for acquiring an image centered on the optic nerve head, and the fundus oculi Ef. A region including the optic nerve head is scanned with the signal light LS.
  • the image forming unit 220 forms one or more tomographic images corresponding to the scanning mode.
  • One or more tomographic images formed by the image forming unit 220 are stored in the storage unit 212 as OCT images (OCT information).
  • the data processing unit 230 specifies the front area and the rear area of the sieve plate based on the one or more tomographic images acquired in S1. This process is performed by the area setting unit 231A.
  • the region setting unit 231A identifies a plurality of layer regions based on the pixel values of the tomographic image acquired in S1, and among the identified layer regions, a layer region having a region corresponding to the hole of the sieve plate. Identified as sieving plate region.
  • the main control unit 211 When the front area and the rear area are manually set, the main control unit 211 performs a three-dimensional scan on the area, and the image forming unit 220 forms a front image based on the plurality of tomographic images acquired in S1. To do. As shown in FIG. 7, the image display control unit 214 displays the B scan image D1 and the C scan image D2 on the display unit 240A so that the rendering position (cross-sectional position) of the B scan image can be identified in the C scan image. Display them side by side. In FIG. 7, the rendering position by the B scan image D1 corresponds to the line L1 in the C scan image D2.
  • the area setting unit 231A sets the front area and the rear area for the image displayed on the display unit 240A based on the position specified using the operation unit 240B.
  • the image display control unit 214 displays the input mode setting unit D3 above the B scan image D1.
  • the input mode setting unit D3 is provided with a mode designating unit for designating each of an end point of the front area, an intermediate point of the front area, an end point of the rear area, and an intermediate point of the rear area.
  • the front region end point, front region intermediate point, rear surface region end point, and rear surface region intermediate point in the B scan image D1 or C scan image D2 It is possible to manually specify at least one of the following.
  • the front area and the rear area are connected by a straight line or a curve by designating end points and intermediate points, so that the areas are defined. It should be noted that a straight line or a curve connecting end points and intermediate points can be manually fine-tuned.
  • the area setting unit 231A can set the side area of the sieve plate as described above.
  • the area setting unit 231A can automatically or manually specify the side area.
  • the data processing unit 230 generates form information indicating the form of the sieve plate based on the front region and the rear region (or the side region of the sieve plate) of the sieve plate specified in S2.
  • the form information generation unit 232 sets a plurality of measurement points based on the center of the optic nerve head, and generates distance information between the front region and the rear region for each measurement point.
  • a plurality of measurement points center points of a plurality of square images
  • the normal direction specifying unit 232B performs curved surface approximation on the front surface area AR of the front surface area AR and the rear surface area BR, and the normal direction at the measurement point in the approximated surface is measured direction dr1.
  • the region where the hole HR of the sieve plate is depicted corresponds to the sieve plate region.
  • the normal direction specifying unit 232B may obtain the normal direction of the front region for each A line. Further, the normal direction specifying unit 232B may approximate the front surface area to a curved surface in the B-scan image, and set the normal direction at the measurement point as the measurement direction. In addition, the normal direction specifying unit 232B creates a surface that approximates the front surface region in the three-dimensional region generated from the acquired tomographic images, and uses the normal direction at the measurement point of the created surface as the measurement direction. Also good.
  • the form information generation unit 232 includes the area of the front region, the sieve plate region and the rear region, the volume of the sieve plate region, the curvature of the front region and the rear region, the front region and the sieve plate region. And the inclination of the rear surface area can be generated as morphological information.
  • the data processing unit 230 specifies a region of interest based on the form information generated in S3. For example, the data processing unit 230 identifies an area including a characteristic position as the attention area based on the form information. Examples of this characteristic position include a position where the value indicated by the form information is greater than or equal to or less than the predetermined threshold, a position where the value indicated by the form information is within a predetermined range, and a change in the value indicated by the form information There are positions where the amount is greater than or equal to a predetermined threshold or less than a predetermined threshold.
  • the data processing unit 230 calculates a parameter indicating a change in the attention area identified in S4.
  • the parameter calculated by the data processing unit 230 is stored in the storage unit 212 in association with position information indicating the position of the region of interest, or the measurement point at which the parameter is calculated or its neighboring position.
  • Trend analysis can be performed by analyzing the parameters calculated based on OCT images acquired at different timings for the same region of interest according to a time series.
  • parameters may be displayed in association with events such as medication dates, treatment dates, and examination dates.
  • the image forming unit 220 forms an image representing parameter distribution information indicating the form of the sieve plate generated by the form information generating unit 232.
  • This distribution information may be parameter distribution information at a predetermined timing, or distribution information indicating the amount of parameter change in time series.
  • the display control unit 213 displays an image representing the distribution information on the display unit 240A.
  • the data processing unit 230 generates three-dimensional volume data by generating an approximate curved surface so that the measurement point set by the form information generation unit 232 or its vicinity is included in the surface.
  • the image forming unit 220 creates a front image (C scan image, projection image, shadowgram) based on the created three-dimensional volume data. Further, the image forming unit 220 performs a flattened front image so that the boundary of a predetermined layer region becomes flat (so as to have the same z coordinate value) based on the generated three-dimensional volume data. Create
  • the data processing unit 230 uses the front image created in S6 to calculate the parameters of the holes of the sieve plate and the collagen fibers constituting the sieve plate.
  • the collagen fiber parameters include the thickness of the collagen fiber, the area and volume of the collagen fiber, and the travel vector of the collagen fiber.
  • the form information generation unit 232 detects a region corresponding to the hole portion of the sieve plate based on the front image created in S6, and the size of the hole portion (major axis, minor axis, inclination of the approximate ellipse) ), Area, volume, and travel vector are calculated.
  • the data processing unit 230 identifies a region of interest based on the parameters and form information calculated in S7. For example, the data processing unit 230 specifies a region including a characteristic position as a region of interest based on parameters and form information.
  • the data processing unit 230 calculates a parameter indicating a change in the attention area specified in S8.
  • the parameter calculated by the data processing unit 230 is stored in the storage unit 212 in association with position information indicating the position of the region of interest, or the measurement point at which the parameter is calculated or its neighboring position.
  • Trend analysis can be performed by analyzing the parameters calculated based on OCT images acquired at different timings for the same region of interest according to a time series. Further, similarly to S5, the parameter may be displayed in association with the event.
  • the fundus analysis apparatus can be realized as a part of the fundus oculi observation device 1 like the arithmetic control unit 200 of the above embodiment, for example. It is also possible to apply a fundus analyzer that does not have functions for OCT measurement and fundus imaging.
  • the arithmetic and control unit 200 includes a storage unit 212, an area setting unit 231A, and a form information generation unit 232.
  • the storage unit 212 stores an OCT image (OCT information) acquired by OCT for the fundus oculi Ef of the eye to be examined.
  • OCT information OCT information
  • the region setting unit 231A sets a front region corresponding to the front surface of the sieve plate and a rear region corresponding to the rear surface of the sieve plate in the OCT image stored in the storage unit 212.
  • the form information generation unit 232 generates form information indicating the form of the sieve plate based on at least the front area and the rear area.
  • new information related to the sieve plate can be acquired.
  • newly acquired information regarding the sieve plate glaucoma evaluation, diagnosis, pre-onset diagnosis, and the like can be performed more accurately.
  • the form information generation unit 232 may generate distance information indicating the distance between the front area and the rear area as the form information. According to such an arithmetic control unit 200, distance information indicating the distance between the front region and the rear region of the sieve plate can be acquired as new information regarding the sieve plate.
  • the arithmetic control unit 200 may include an analysis target area setting unit 231B.
  • the analysis target area setting unit 231B sets, as the analysis target area, an area including at least the front surface area and the rear surface area among the OCT images stored in the storage unit 212.
  • the form information generation unit 232 may generate form information based on the analysis target area set by the analysis target area setting unit 231B. In this way, by making it possible to arbitrarily set the analysis target region, for example, as the analysis target region, a sieve plate that is not easily affected by blood vessels and the like is clarified, and the reliability of the measurement result of OCT measurement is high. Can be set. In this case, the form information generation unit 232 can generate highly reliable information regarding the form of the sieve plate.
  • the OCT image stored in the storage unit 212 may include a two-dimensional or three-dimensional data set. Based on the data set, the form information generation unit 232 may generate parameter distribution information indicating the form of the sieve plate as form information.
  • the arithmetic control unit 200 may include a display control unit 213.
  • the display control unit 213 displays the distribution information generated by the form information generation unit 232 on the display unit 240A (display means) according to the parameter value. According to such an arithmetic control unit 200, the shape of the sieve plate can be easily recognized and displayed on the display unit 240A, so that glaucoma evaluation, diagnosis, pre-onset diagnosis, and the like can be performed more accurately. It becomes possible.
  • the arithmetic control unit 200 may include the image display control unit 214 and may include the function of the operation unit 240B.
  • the image display control unit 214 displays an image based on the OCT image stored in the storage unit 212 on the display unit 240A.
  • the area setting unit 231A sets at least one of the front area and the rear area based on the position specified using the operation unit 240B for the image displayed on the display unit. According to such an arithmetic control unit 200, it is possible to set the front region and the rear region of the sieve plate using the operation unit 240B while viewing the image displayed on the display unit 240A. Thereby, it becomes possible to analyze the front area and the rear area desired by the user.
  • the fundus oculi observation device 1 may include an OCT information generation unit (OCT unit 100 and data processing unit 230) and an arithmetic control unit 200.
  • OCT information generation unit generates an OCT image by performing OCT on the fundus oculi Ef of the eye to be examined. According to such a fundus oculi observation device 1, new information relating to the sieve plate can be acquired.
  • the form information generation unit 232 specifies a normal direction such as the front region of the sieve plate, and generates form information using the specified normal direction as a measurement direction.
  • the form information generation unit may generate form information based on the distribution of holes in the sieve plate (for example, the number of holes, thickness, traveling state, etc.).
  • the form information generation part which concerns on the 1st modification of embodiment produces
  • each part of the fundus oculi observation device according to the first modification is the same as the configuration of the fundus oculi observation device according to the embodiment.
  • the fundus oculi observation device according to the first modification will be described focusing on differences from the embodiment.
  • FIG. 10 shows a block diagram of a configuration example of the form information generation unit according to the first modification. 10, parts that are the same as those in FIG. 5 are given the same reference numerals, and descriptions thereof will be omitted as appropriate.
  • the configuration information generation unit 232 of the data processing unit 230 illustrated in FIG. 4 the configuration information generation unit 332 illustrated in FIG. 10 can be applied.
  • the form information generating unit 332 includes a distance information generating unit 232A and an image region specifying unit 232C. Based on the OCT image stored in the storage unit 212, the image region specifying unit 232C specifies an image region corresponding to the hole of the sieve plate. The form information generation unit 332 generates form information based on the orientation of the image area specified by the image area specifying unit 232C.
  • the image region specifying unit 232C specifies the image region corresponding to the hole of the sieve plate and its direction as the traveling direction of the hole of the sieve plate from the pixel value of the tomographic image generated based on the OCT image.
  • the image area specifying unit 232C specifies an image area corresponding to the hole HR of the sieve plate in the B-scan image as shown in FIG. 11, and starts from the front area AR among the front area AR and the rear area BR.
  • the measurement direction dr2 is specified by approximating the traveling direction of the hole HR with a straight line or a curve.
  • the image area specifying unit 232C approximates the traveling direction of the hole HR of the sieve plate in the three-dimensional area generated from the acquired tomographic images, and starts from the measurement point of the front area or the rear area.
  • the traveling direction may be the measurement direction.
  • the first modified example it is possible to obtain morphological information indicating the form of the sieve plate with respect to the traveling direction of the hole of the sieve plate, and in the same manner as in the embodiment, glaucoma evaluation and It is possible to contribute to diagnosis and pre-onset diagnosis.
  • the form information generation unit 332 according to the first modification of the embodiment generates form information based on the orientation of the image area corresponding to the hole of the sieve plate, but the embodiment is not limited to this. .
  • the form information generation unit according to the second modification of the embodiment generates form information based on a preset direction.
  • each part of the fundus oculi observation device according to the second modification is the same as the configuration of the fundus oculi observation device according to the embodiment.
  • the fundus oculi observation device according to the second modified example will be described focusing on differences from the embodiment.
  • FIG. 12 shows a block diagram of a configuration example of the form information generation unit according to the second modification. 12, parts similar to those in FIG. 5 are given the same reference numerals, and description thereof will be omitted as appropriate.
  • the configuration information generation unit 232 of the data processing unit 230 illustrated in FIG. 4 the configuration information generation unit 432 illustrated in FIG. 12 can be applied.
  • Form information generation unit 432 includes a distance information generation unit 232A.
  • the form information generation unit 432 can generate distance information as form information based on a preset measurement direction.
  • a preset measurement direction there is a vertical direction that is the A-scan direction of OCT (for example, a z-direction in a B-scan image representing a form of an xz plane or a yz plane).
  • the form information generation unit 432 generates form information with the vertical direction as the measurement direction dr3 as shown in FIG.
  • the second modified example it is possible to acquire morphological information indicating the shape of the sieve plate with respect to a preset direction, and as in the embodiment, glaucoma evaluation, diagnosis and pre-onset It is possible to contribute to diagnosis and the like.
  • the measurement direction can be changed.
  • the third modified example is an example having a plurality of setting modes related to the measurement direction and automatically applying the same setting mode as the past in trend analysis or the like.
  • each part of the fundus oculi observation device according to the third modification is the same as the configuration of the fundus oculi observation device according to the embodiment.
  • the fundus oculi observation device according to the third modification will be described focusing on differences from the embodiment.
  • FIG. 14 shows a block diagram of a configuration example of the form information generation unit according to the third modification.
  • the control unit 210 is also illustrated.
  • the configuration information generation unit 532 shown in FIG. 14 can be applied as the configuration information generation unit 232 of the data processing unit 230 shown in FIG.
  • the form information generation unit 532 includes a distance information generation unit 232A, a direction setting unit 232D, and a storage control unit 232E.
  • the form information generating unit 532 may further include a normal direction specifying unit 232B or an image region specifying unit 232C.
  • the direction setting unit 232D selects a plurality of direction setting modes for setting the direction for the OCT image stored in the storage unit 212.
  • the storage control unit 232E associates identification information indicating the direction setting mode with the form information generated based on the direction setting mode selected by the direction setting unit 232D, and causes the storage unit 212 (storage unit) to store the information.
  • the direction setting unit 232D retrieves the morphological information regarding the eye to be inspected previously stored by the storage control unit 232E, and acquires identification information associated with the morphological information.
  • the direction is set for the new OCT image by selectively setting the direction setting mode indicated in the acquired identification information.
  • the distance information generation unit 232A generates distance information indicating the distance between the front surface area and the rear surface area in the newly set direction.
  • the third modification for a plurality of measurement directions, it is possible to acquire morphological information indicating the shape of the sieve plate with respect to the same measurement direction as the previous time. It is possible to contribute to evaluation, diagnosis, pre-onset diagnosis, and the like.
  • the configuration information generation unit may generate configuration information for a sieve plate in a cross section in an arbitrary direction.
  • the cross section in an arbitrary direction is obtained by arbitrarily setting the cross section for volume data or stack data, for example.
  • Examples of a cross section in an arbitrary direction include a horizontal cross section (C-scan image plane), a plane perpendicular to the normal direction of the front or rear area of the sieve plate, and a plane orthogonal to the running direction of the holes of the sieve plate And a plane parallel to the front region or the rear region of the sieve plate.
  • C-scan image plane a horizontal cross section
  • plane perpendicular to the normal direction of the front or rear area of the sieve plate and a plane orthogonal to the running direction of the holes of the sieve plate
  • a plane orthogonal to the running direction of the holes of the sieve plate And a plane parallel to the front region or the rear region of the sieve plate.
  • an approximate curved surface is obtained by applying a known curved surface approximation to the front region or the rear region, and the normal direction at an arbitrary measurement point within the approximate curved surface is obtained.
  • an approximate curve is obtained by performing a well-known curve approximation to the front area or the rear area drawn in the B-scan image, and the normal direction at an arbitrary measurement point in the approximate curve is determined in the front area or the rear area.
  • An approximate curved surface is obtained by obtaining a normal surface direction or by applying a known curved surface approximation to the front surface region or the rear surface region of the sieve plate in an arbitrary three-dimensional region, and the normal line at an arbitrary measurement point within the approximate curved surface It is also possible to obtain the direction as the normal direction of the front region or the rear region.
  • a known curved surface approximation is applied to the boundary or end point of the inner boundary membrane (ILM), nerve fiber layer (NFL), Bruch membrane opening (BMO), or the contour of the optic disc.
  • An approximate curved surface may be obtained by applying, and a normal direction passing through a measurement point may be applied among normal directions of the approximate curved surface.
  • the traveling direction of the hole portion of the sieve plate there is, for example, the orientation of the image region corresponding to the hole portion of the sieve plate specified from the pixel value of the tomographic image generated based on the OCT image. .
  • the front area, the rear area, and the side area of the sieve plate in the cross section in any direction, the inclination of the sieve plate, the front area and the rear area in the predetermined direction There are parameters such as the distance, the curvature of the front region and the curvature of the rear region, the area of the side region, the distribution of the holes, the shape of the sieve plate region and the analysis target region.
  • the distribution of the hole include the number, thickness, area, running state of the hole, the major axis of the approximate ellipse that approximates the hole, the minor axis, and the inclination of the major axis or minor axis.
  • Examples of the shape parameters of the sieving plate region and the analysis target region include the major axis of the approximate ellipse that approximates the region, the minor axis of the approximate ellipse, the inclination of the major axis or minor axis of the approximate ellipse, and the area of the approximate ellipse.
  • the cross-sectional image data forming unit 230B forms cross-sectional image data that passes an arbitrary point (measurement point) in the three-dimensional tomographic image based on the three-dimensional image data formed by the three-dimensional image data forming unit 230A, and converts the MPR image into an MPR image. It is possible to form.
  • arbitrary points in a three-dimensional tomographic image include the center of the nipple on the eye and the BMO center.
  • the MPR image there is a radial tomogram centered on the above arbitrary point.
  • the cross-sectional image data forming unit 230B can form, as OCT information, a tomographic image representing one or more cross-sections that pass through a predetermined measurement point on the fundus.
  • the image display control unit 214 generates a tomographic image (D10) based on the cross-sectional image data formed by the cross-sectional image data forming unit 230B and the C scan image (D11) formed as described above. Displayed side by side on the display 240A.
  • the area setting unit 231A can set the front area and the rear area for the image displayed on the display unit 240A based on the position specified using the operation unit 240B.
  • the region setting unit 231A operates not only on a raster image such as a B-scan image (FIG. 7) but also on a tomographic image (FIG. 15) obtained by reconstruction from a three-dimensional image. It is possible to set the front area and the rear area based on the position designated using 240B.
  • the OCT information may be information acquired using OCT and before imaging.
  • information before imaging there is an FFT processing result (reflection intensity profile) based on a detection result (for example, a detection signal from a CCD image sensor) by a detection unit that detects interference light using OCT. Therefore, by detecting the peak position (z position) in the FFT processing result, it is possible to specify a site or region in the A scan line from clinical data, for example. Accordingly, it is possible to specify a desired region (layer) such as the front region of the sieve plate, the sieve plate region, or the rear surface region of the sieve plate.
  • the computer program for realizing the above-described embodiment or its modification can be stored in any recording medium readable by the computer.
  • this recording medium for example, a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), etc. Can be used. It is also possible to transmit / receive this program through a network such as the Internet or a LAN.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

 篩状板に関する新たな情報を取得することが可能な技術を提供する。実施形態の眼底解析装置は、記憶部と、領域設定部と、形態情報生成部とを含む。記憶部は、被検眼の眼底に対する光コヒーレンストモグラフィによって取得されたOCT情報を記憶する。領域設定部は、OCT情報において篩状板の前面に相当する前面領域と篩状板の後面に相当する後面領域とを設定する。形態情報生成部は、少なくとも前面領域および後面領域に基づいて篩状板の形態を示す形態情報を生成する。

Description

眼底解析装置及び眼底観察装置
 この発明は、光コヒーレンストモグラフィ(Optical Coherence Tomography:以下、OCT)を用いて取得された眼底の情報を解析する眼底解析装置及び眼底観察装置に関する。
 緑内障は、中途失明の原因となる疾患の1つであり、緑内障による視機能障害は、不可逆的である。そのため、緑内障に対する診断やその進行度の観察が適切に行われることが望まれる。このような緑内障の診断等には、レーザ光源等からの光ビームを用いて被測定物体の表面形態や内部形態を表す画像を形成するOCTの技術が有用である。たとえばOCTを用いて形成された眼底の画像を参照することにより網膜の形態の変化の観察が可能になり、緑内障の進行度や治療後の様子などを観察することができる。
 緑内障の診断等においては、視神経乳頭や網膜神経線維層の形態の変化などに着目することが重要であると考えられている。視神経乳頭については、その形状やサイズなどが着目され、視神経乳頭の傾きやC(Cup)、D(Disc)、R(Rim)の形状やサイズなどが診断材料に用いられる。また、網膜神経線維層については、厚みや欠損などが診断材料に用いられる。これらに加えて、近年では、緑内障の早期発見に寄与するものとして、篩状板の形態が注目されている。篩状板は、視神経乳頭に集まった視神経が通る複数の孔部が形成されたメッシュ状の部位である。
 このような篩状板領域の解析については、たとえば特許文献1に開示されている。特許文献1には、OCTを用いて取得された断層像から篩状板領域を検出し、検出された篩状板領域を解析する手法が開示されている。
特開2013-153844号公報
 近年、視神経乳頭の形状が緑内障の分類と重症度とに有意に相関することが確認されており(Kazuko Omodaka、外5名、“Correlation between morphology of optic disc determined by Heidelberg Retina Tomograph II and visual function in eyes with open-angle glaucoma”、2010年、ClinicialOphtahlmology、pp.765-772)、緑内障の発症前診断を実現するためのエビデンスが得られつつある。このように、緑内障の発症前診断の実現等を目的として緑内障と眼底の形態との関連性に関する研究が進むにつれて、眼底の部位に関する情報の取得の重要度がより一層高まっている。
 しかしながら、篩状板について、特許文献1に開示された解析手法だけでは、緑内障の評価や診断や発症前診断を実現するための情報を十分に取得することができない場合がある。
 この発明は、このような問題を解決するためになされたものであり、その目的は、篩状板に関する新たな情報を取得することが可能な技術を提供することにある。
 実施形態の眼底解析装置は、被検眼の眼底に対する光コヒーレンストモグラフィによって取得されたOCT情報を記憶する記憶部と、前記OCT情報において篩状板の前面に相当する前面領域と篩状板の後面に相当する後面領域とを設定する領域設定部と、少なくとも前記前面領域および前記後面領域に基づいて篩状板の形態を示す形態情報を生成する形態情報生成部とを含む。
 実施形態によれば、篩状板に関する新たな情報を取得することができる。篩状板に関して新たに取得された情報を取得することで、緑内障の評価や診断や発症前診断などをより的確に行うことが可能となる。
実施形態に係る眼底観察装置の構成の一例を表す概略図である。 実施形態に係る眼底観察装置の構成の一例を表す概略図である。 実施形態に係る眼底観察装置の構成の一例を表す概略図である。 実施形態に係る眼底観察装置の構成の一例を表す概略図である。 実施形態に係る眼底観察装置の構成の一例を表す概略図である。 実施形態に係る眼底観察装置の動作の一例を表すフロー図である。 実施形態に係る眼底観察装置の動作説明図である。 実施形態に係る眼底観察装置の動作説明図である。 実施形態に係る眼底観察装置の動作説明図である。 実施形態の第1変形例に係る眼底観察装置の構成の一例を表す概略図である。 実施形態の第1変形例に係る眼底観察装置の動作説明図である。 実施形態の第2変形例に係る眼底観察装置の構成の一例を表す概略図である。 実施形態の第2変形例に係る眼底観察装置の動作説明図である。 実施形態の第3変形例に係る眼底観察装置の構成の一例を表す概略図である。 実施形態の第5変形例に係る眼底観察装置の動作説明図である。
 この発明の実施形態の一例について、図面を参照しながら詳細に説明する。この発明に係る眼底観察装置は、OCTを用いて眼底のOCT情報を取得する。OCT情報には、OCTを用いて干渉光を検出する検出手段による検出結果(たとえば、CCDイメージセンサからの検出信号)に基づくFFT(Fast Fourier Transform)の処理結果(画像化する前の情報)や、OCTを用いて取得された眼底の断層像(2次元断層像、3次元画像及びMPR(Multi Planar Reconstruction:任意多断面再構成)画像の少なくとも一方を含む)などがある。また、この発明に係る眼底解析装置は、OCTを用いて取得されたOCT情報の入力を受け、OCT情報の解析処理を行う。この明細書では、OCTを用いて取得された画像をOCT画像と総称することがある。また、OCT情報を取得するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として援用することが可能である。
 以下の実施形態では、フーリエドメインタイプのOCTを適用した構成について詳しく説明する。特に、実施形態に係る眼底観察装置は、スペクトラルドメインOCTの手法を用いて眼底についてのOCT情報(OCT画像)及び眼底像の双方を取得可能である。なお、スペクトラルドメイン以外のタイプ、たとえばスウェプトソースOCTの手法を用いる眼底観察装置に対して、この発明に係る構成を適用することも可能である。また、この実施形態ではOCT装置と眼底カメラとを組み合わせた装置について説明するが、眼底カメラ以外の眼底撮影装置、たとえばSLO(Scanning Laser Ophthalmoscope)、スリットランプ、眼科手術用顕微鏡などに、この実施形態に係る構成を有するOCT装置を組み合わせることも可能である。また、この実施形態に係る構成を、単体のOCT装置に組み込むことも可能である。
 また、以下の実施形態では、被検眼の眼底について取得されたOCT画像を用いる場合について説明する。OCT画像の例として、Aスキャン画像、Bスキャン画像、正面画像などがある。正面画像の例として、Cスキャン画像、プロジェクション画像、平坦化画像、またはシャドウグラムなどがある。
 また、以下の実施形態において、篩状板(視神経篩状板)領域は、眼底を構成する組織の1つである篩状板に相当する画像領域である。篩状板は、視神経乳頭に集まった視神経が通る複数の孔部が形成されたメッシュ状の部位を少なくとも含む。
[構成]
 図1及び図2に示すように、眼底観察装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。演算制御ユニット200は「眼底解析装置」としての機能を有する。また、「眼底解析装置」の機能は、演算制御ユニット200と、後述の操作部240Bとにより実現されてもよい。
〔眼底カメラユニット〕
 図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、または近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。
 眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。
 照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。
 観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。更に、この眼底反射光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。
 撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。
 LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。
 LCD39から出力された光は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
 LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。
 更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。
 アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53及びリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。
 アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46及び上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー33Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。
 フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
 フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31及びフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。
 ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。
 光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。
 ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。
〔OCTユニット〕
 図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像(OCT情報)を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、低コヒーレンス光を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
 なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、光コヒーレンストモグラフィのタイプに応じた公知の技術を任意に適用することができる。
 光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm~900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040~1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。
 光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。
 光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。
 参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。
 ファイバカプラ103により生成された信号光LSは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。更に、信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、及びリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。
 ファイバカプラ109は、信号光LSの後方散乱光と、ファイバカプラ103を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。更に、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。
 CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。
 この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。
〔演算制御ユニット〕
 演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。
 また、演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像(OCT情報)を表示装置3に表示させる。
 また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15及びLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御などを行う。
 また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ115の動作制御などを行う。
 演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼底観察装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。
 眼底カメラユニット2、表示装置3、OCTユニット100及び演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。
〔制御系〕
 眼底観察装置1の制御系の構成について図3~図5を参照しつつ説明する。
(制御部)
 眼底観察装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と、記憶部212と、表示制御部213と、画像表示制御部214とが設けられている。
(主制御部)
 主制御部211は前述の各種制御を行う。特に、主制御部211は、眼底カメラユニット2の合焦駆動部31A、光路長変更部41、ガルバノスキャナ42及びOCT合焦駆動部43A、更にOCTユニット100の光源ユニット101、光減衰器105及び偏波調整器106を制御する。また、主制御部211は、後述する各種の表示制御を実行する。
 合焦駆動部31Aは、合焦レンズ31を光軸方向に移動させる。それにより、撮影光学系30の合焦位置が変更される。なお、主制御部211は、図示しない光学系駆動部を制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることもできる。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。
 OCT合焦駆動部43Aは、信号光路の光軸方向に合焦レンズ43を移動させる。それにより、信号光LSの合焦位置が変更される。信号光LSの合焦位置は、信号光LSのビームウェストの深さ位置(z位置)に相当する。
 また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。
(記憶部)
 記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像(OCT情報)の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼底観察装置1を動作させるための各種プログラムやデータが記憶されている。
(表示制御部)
 表示制御部213は、制御部210やデータ処理部230により生成された各種情報を表示部240Aに表示させる。制御部210により生成された情報の例として、主制御部211により制御される動作条件や記憶部212に記憶された情報などがある。データ処理部230により生成された情報の例として、後述する眼底の所定部位(たとえば、篩状板)の形態を示す形態情報などがある。
(画像表示制御部)
 画像表示制御部214は、被検眼に対してOCTを用いて取得された画像を表示部240Aに表示させる。OCTを用いて取得された画像の例として、後述する眼底の所定部位の形態を表すOCT画像などがある。画像表示制御部214の機能は、表示制御部213により実現されてもよい。
(画像形成部)
 画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断層像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFTなどの処理が含まれている。他のタイプのOCT装置の場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。
 画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。また、眼底Efの部位とその画像とを同一視することもある。
(データ処理部)
 データ処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、データ処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。また、データ処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。また、データ処理部230は、記憶部212に記憶されたOCT画像に対して上記の処理を行うようにしてもよい。
 データ処理部230は、3次元画像データ形成部230Aと、断面像データ形成部230Bとを有する。3次元画像データ形成部230Aは、複数の走査線に沿って得られた複数の断面像の間の画素を補間する補間処理などの公知の画像処理を実行することにより、眼底Efの3次元画像データを形成する。なお、3次元画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。
 ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリング、MPR、MIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。
 また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断層像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。
 断面像データ形成部230Bは、3次元画像データ形成部230Aにより形成された3次元画像データに基づいて、断面像データを形成する。この処理は、たとえば、3次元画像データに対してMPR処理などを施すことにより行われる。3次元画像データから断面像データを形成する場合、その断面が手動または自動で設定される。
 データ処理部230は、眼底像とOCT画像との位置合わせを行うことができる。眼底像とOCT画像とが並行して取得される場合には、双方の光学系が同軸であることから、(ほぼ)同時に取得された眼底像とOCT画像については、撮影光学系30の光軸を基準として位置合わせすることができる。また、眼底像とOCT画像との取得タイミングに関わらず、OCT画像をxy平面に投影して得られる画像と眼底像との位置合わせをすることにより、そのOCT画像とその眼底像とを位置合わせすることも可能である。
 この実施形態では、データ処理部230は、設定部231と、形態情報生成部232とを有する。
(設定部)
 設定部231は、領域設定部231Aと、解析対象領域設定部231Bとを有する。領域設定部231Aは、記憶部212に記憶されたOCT画像(OCT情報)において篩状板の前面に相当する前面領域と篩状板の後面に相当する後面領域とを設定する。篩状板は、視神経乳頭に集まった視神経が通る複数の孔部が形成された領域を少なくとも含んで構成される。前面領域は、篩状板の硝子体側の境界面に相当する領域(層領域)である。後面領域は、篩状板の後頭部側(つまり篩状板の硝子体側の反対側)の境界面に相当する領域(層領域)である。視神経乳頭の陥凹部の近傍において硝子体から後頭部側に向かう方向に、篩状板領域が、前面領域と後面領域との間に配置されていればよい。
 領域設定部231Aは、操作部240Bに対するユーザの操作に基づく操作情報を受け、当該操作情報に基づいて前面領域および後面領域の少なくとも一方を設定することが可能である。具体的には、画像表示制御部214が、OCT画像を表示部240Aに表示させる。領域設定部231Aは、表示部240Aに表示された画像に対して、ユーザが操作部240Bを用いて指定した位置に基づいて、前面領域および後面領域の少なくとも一方を設定する。
 領域設定部231Aは、OCT画像を解析することにより篩状板の前面領域および後面領域の少なくとも一方を設定することも可能である。領域設定部231Aは、たとえばOCT画像の画素値(輝度値)に基づいて複数の層領域を特定する(つまり、セグメンテーションを行う)。領域設定部231Aは、OCT画像の画素値や形状に基づいて所定の層領域を選択するようにしてもよい。また、領域設定部231Aは、OCT画像の解析により眼底Efの特徴的な部位(たとえば陥凹部など)を特定し、特定された特徴的な部位に対する相対位置に基づいて所定の層領域を特定するようにしてもよい。領域設定部231Aは、特定された層領域のうち、篩状板の孔部に相当する領域がある層領域を篩状板領域として特定する。一般に、所定の層領域の特定は、任意の公知技術(画像処理技術)を用いて行うことができる。
 また、領域設定部231Aは、OCT画像の画素値に基づいて篩状板の孔部を直接に検出し、検出された篩状板の孔部が存在する領域を篩状板領域として特定することも可能である。また、領域設定部231Aは、篩状板を構成するコラーゲン繊維の存在する領域を含む領域を篩状板領域として特定してもよい。コラーゲン繊維の存在する領域は、たとえば孔部の走行方向に複数のOCT画像を重ね合わせることにより得られたシャドウグラム画像から特定されてもよい。
 また、領域設定部231Aは、篩状板の側面領域を設定することも可能である。篩状板の側面領域は、上記の前面領域と上記の後面領域との間に設けられる領域である。領域設定部231Aは、側面領域についても手動または自動で設定することが可能である。
 手動で側面領域を設定する場合、領域設定部231Aは、表示部240Aに表示された画像に対して、ユーザが操作部240Bを用いて指定した位置に基づいて、篩状板の側面領域を設定することが可能である。ユーザが操作部240Bを用いて、上記のように手動または自動で設定された篩状板の前面領域の任意の位置と後面領域の任意の位置とを指定すると、領域設定部231Aは、指定された2つの位置の間を直線または所定の曲線で結ぶことにより篩状板の側面領域の境界を特定し、篩状板の側面領域を設定することができる。
 自動で側面領域を設定する場合、領域設定部231Aは、OCT画像を解析することにより篩状板の側面領域を設定することが可能である。たとえば、領域設定部231Aは、上記のように手動または自動で設定された篩状板の前面領域および後面領域のそれぞれの境界を辿ることにより側面領域の境界を特定し、特定された境界を有する領域を側面領域として設定する。また、たとえば、領域設定部231Aは、上記のように手動または自動で設定された篩状板の前面領域および後面領域のそれぞれの端点を特定し、特定された2つの端点の間を直線または所定の曲線で結ぶことにより特定された領域を側面領域として設定する。
 または、領域設定部231Aは、OCT画像中の任意の初期位置を基準とする公知のリージョングローイング処理によって篩状板の側面領域を設定してもよい。たとえば、領域設定部231Aは、前面領域と後面領域との間の任意の位置を初期位置として篩状板の内側から外側に向けたリージョングローイング処理により、側面領域を特定することが可能である。前面領域と後面領域との間の任意の位置の例として、前面領域の中心位置と後面領域の中心位置とを結んだ線分上の位置や、前面領域の重心位置と後面領域の重心位置とを結んだ線分上の位置などがある。また、たとえば、領域設定部231Aは、前面領域および後面領域のそれぞれに対して少なくとも水平方向(xy方向)に離れた位置を初期位置として篩状板の外側から内側に向けたリージョングローイング処理により、側面領域を特定してもよい。上記のリージョングローイング処理は、コラーゲン繊維および篩状板の孔部の少なくとも1つを探索する処理を含んでもよい。
 解析対象領域設定部231Bは、OCT画像のうち少なくとも前面領域および後面領域を含む領域を解析対象領域として設定する。また、解析対象領域設定部231Bは、OCT画像のうち篩状板の側面領域を含む領域を解析対象領域として設定することが可能である。解析対象領域として、たとえば、血管の影響などを受けにくく篩状板が明瞭に描出される領域や、OCT計測の計測結果の信頼性が高い領域が挙げられる。形態情報生成部232は、解析対象領域設定部231Bにより設定された解析対象領域に基づいて、篩状板の形態を示す形態情報を生成する。これにより、形態情報生成部232は、篩状板の形態に関して信頼性の高い情報を生成することができる。
 解析対象領域設定部231Bは、操作部240Bに対するユーザの操作に基づく操作情報を受け、当該操作情報に基づいて解析対象領域を設定することが可能である。具体的には、画像表示制御部214が、OCT画像を表示部240Aに表示させる。解析対象領域設定部231Bは、表示部240Aに表示された画像に対して、操作部240Bを用いて指定された位置に基づいて解析対象領域を設定する。
 また、解析対象領域設定部231Bは、OCT画像を解析することにより解析対象領域を設定することも可能である。解析対象領域設定部231Bは、たとえばOCT画像の画素値に基づいて解析対象領域を特定する。この場合、解析対象領域設定部231Bは、OCT画像の画素値に基づいて、領域設定部231Aにより設定された前面領域または後面領域における解析中心を特定する。また、解析対象領域設定部231Bは、眼底Efの特徴的な部位(視神経乳頭、特徴的な画素値を有する領域等)を解析中心として特定してもよい。解析中心は、眼底Efにおける所定の領域や、眼底Efの断層像における所定の層領域であってもよい。眼底Efにおける所定の領域の一例として、視神経乳頭(の中心)などがある。眼底Efの断層像における所定の層領域の一例として、ブルッフ膜オープニング(BMO)などがある。また、解析中心は、視神経乳頭の重心でもよい。解析中心が特定されると、解析対象領域設定部231Bは、特定された解析中心から所定の距離以内の範囲を解析対象領域として特定する。
 また、解析対象領域設定部231Bは、OCT画像を複数のグリッドに分割し、分割された1以上のグリッドを組み合わせて構成されたセクターを単位に解析対象領域を設定してもよい。複数のグリッドの分割方法の一例として、解析中心から放射状に領域を分割する方法や、解析中心を中心とする1以上の同心円により領域を分割する方法や、格子状に領域を分割する方法などがある。
 なお、解析対象領域設定部231Bは、前面領域および後面領域の一方だけが含まれるように解析対象領域を設定してもよい。
(形態情報生成部)
 形態情報生成部232は、少なくとも前面領域および後面領域に基づいて篩状板の形態を示す形態情報を生成する。また、形態情報生成部232は、側面領域に基づいて篩状板の形態を示す形態情報を生成することが可能である。形態情報の例として、篩状板の前面領域や後面領域や側面領域の傾き、篩状板の傾き、所定方向における前面領域と後面領域との間の距離、前面領域の曲率や後面領域の曲率、側面領域の面積、孔部の分布、篩状板領域や解析対象領域の形状のパラメータなどがある。孔部の分布の例として、孔部の数、太さ、面積、走行状態、孔部を近似した近似楕円の長径や短径や長径または短径の傾きなどがある。篩状板領域や解析対象領域の形状のパラメータの例として、領域を近似した近似楕円の長径、近似楕円の短径、近似楕円の長径または短径の傾き、近似楕円の面積などがある。解析対象領域設定部231Bにより解析対象領域が設定された場合には、形態情報生成部232は、当該解析対象領域内における前面領域および後面領域に基づいて形態情報を生成する。また、形態情報生成部232は、当該解析対象領域内における側面領域に基づいて形態情報を生成することが可能である。
 形態情報生成部232は、距離情報生成部232Aと、法線方向特定部232Bとを有する。形態情報生成部232は、前面領域と後面領域との間の距離を表す距離情報を形態情報として生成することが可能である。距離情報生成部232Aは、領域設定部231Aにより設定された篩状板の前面領域と後面領域との間の距離情報を形態情報として生成する。より具体的には、距離情報生成部232Aは、前面領域と後面領域との間の所定の計測方向における距離を示す距離情報を形態情報として生成する。この実施形態では、計測方向は、法線方向特定部232Bによって特定された法線方向である。法線方向特定部232Bは、篩状板の前面領域または後面領域の法線方向を特定する。したがって、距離情報生成部232Aは、法線方向特定部232Bにより特定された法線方向に基づいて距離情報を形態情報として生成することができる。
 距離情報生成部232Aは、前面領域と後面領域(または解析対象領域内の前面領域と後面領域)との間の距離情報として、各領域の間の距離や、各領域に設定された2以上の計測点についてそれぞれの距離の統計値や距離の分布などを生成することが可能である。各領域の間の距離の例として、各領域の重心位置の間の距離や、前面領域または後面領域の一方の計測点から当該領域において特定された法線方向の距離や、各領域内で任意に設定された2点の間の距離などがある。距離の統計値の例として、前面領域と後面領域との間の2以上の距離情報を示す値の平均値、標準偏差、中央値、最大値、最小値などがある。また、距離情報生成部232Aは、前面領域と後面領域(または解析対象領域内の前面領域と後面領域)との間で、あらかじめ設定された計測点を通る計測方向の距離を求めてもよい。
 形態情報生成部232は、OCT画像に対し所定の配置パターンで計測点を設定することが可能である。配置パターンは、視神経乳頭の中心などの基準位置を基準に、格子状、同心円状、または放射状に複数の計測点を規定する。また、配置パターンは、黄斑の近傍、前面領域、または後面領域に重点的に複数の計測点を規定するものであってもよい。配置パターンは、上記の少なくとも2つを組み合わせたものであってもよい。また、計測点の一部または全部は、手動により設定されてよい。
 法線方向特定部232Bは、前面領域または後面領域に対して公知の曲面近似を施すことにより近似曲面を求め、その近似曲面内における計測点についてそれぞれ法線方向を特定することが可能である。また、法線方向特定部232Bは、内境界膜(ILM)、神経線維層(NFL)、ブルッフ膜オープニング(BMO)の境界または視神経乳頭の輪郭に対して公知の曲面近似を施すことにより近似曲面を求め、その近似曲面の法線方向のうち計測点を通る法線方向を特定してもよい。
 また、OCT画像(OCT情報)は、2次元または3次元のデータセットを含むことができる。この場合、形態情報生成部232は、当該2次元または3次元のデータセットに基づいて、篩状板の形態を示すパラメータの分布情報を形態情報として生成することが可能である。篩状板の形態を示すパラメータの例として、Aラインと前面領域または後面領域との交点ごとに求められた距離などがある。表示制御部213は、当該分布情報をパラメータの値に応じて表示部240Aに表示させることが可能である。
 以上のように機能するデータ処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。
(ユーザインターフェイス)
 ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼底観察装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルモニタなどの各種表示デバイスを含んでいてもよい。
 なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルモニタのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルディスプレイとコンピュータプログラムとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェイス(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。
 OCTユニット100およびデータ処理部230は、この実施形態に係る「OCT情報生成部」の一例である。なお、OCTユニット100、画像形成部220、およびデータ処理部230が、この実施形態に係る「OCT情報生成部」の一例であってもよい。
〔信号光の走査及びOCT画像について〕
 ここで、信号光LSの走査およびOCT画像について説明しておく。
 眼底観察装置1による信号光LSの走査態様としては、たとえば、水平スキャン、垂直スキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋(渦巻)スキャンなどがある。これらの走査態様は、眼底の観察部位、解析対象(篩状板の形態など)、走査に要する時間、走査の精密さなどを考慮して適宜に選択的に使用される。
 水平スキャンは、信号光LSを水平方向(x方向)に走査させるものである。水平スキャンには、垂直方向(y方向)に配列された複数の水平方向に延びる走査線に沿って信号光LSを走査させる態様も含まれる。この態様においては、走査線の間隔を任意に設定することが可能である。また、隣接する走査線の間隔を十分に狭くすることにより、前述の3次元画像を形成することができる(3次元スキャン)。垂直スキャンについても同様である。
 十字スキャンは、互いに直交する2本の直線状の軌跡(直線軌跡)からなる十字型の軌跡に沿って信号光LSを走査するものである。放射スキャンは、所定の角度を介して配列された複数の直線軌跡からなる放射状の軌跡に沿って信号光LSを走査するものである。なお、十字スキャンは放射スキャンの一例である。
 円スキャンは、円形状の軌跡に沿って信号光LSを走査させるものである。同心円スキャンは、所定の中心位置の周りに同心円状に配列された複数の円形状の軌跡に沿って信号光LSを走査させるものである。円スキャンは同心円スキャンの一例である。螺旋スキャンは、回転半径を次第に小さく(又は大きく)させながら螺旋状(渦巻状)の軌跡に沿って信号光LSを走査するものである。
 ガルバノスキャナ42は、互いに直交する方向に信号光LSを走査するように構成されているので、信号光LSをx方向及びy方向にそれぞれ独立に走査できる。更に、ガルバノスキャナ42に含まれる2つのガルバノミラーの向きを同時に制御することで、xy面上の任意の軌跡に沿って信号光LSを走査することが可能である。それにより、上記のような各種の走査態様を実現できる。
 上記のような態様で信号光LSを走査することにより、走査線(走査軌跡)に沿う方向と眼底深度方向(z方向)とにより張られる面における断層像を取得することができる。また、特に走査線の間隔が狭い場合には、前述の3次元画像を取得することができる。
 上記のような信号光LSの走査対象となる眼底Ef上の領域、つまりOCT計測の対象となる眼底Ef上の領域を走査領域と呼ぶ。3次元スキャンにおける走査領域は、複数の水平スキャンが配列された矩形の領域である。また、同心円スキャンにおける走査領域は、最大径の円スキャンの軌跡により囲まれる円盤状の領域である。また、放射スキャンにおける走査領域は、各スキャンラインの両端位置を結んだ円盤状(或いは多角形状)の領域である。
[動作例]
 この実施形態に係る眼底観察装置1の動作例について説明する。
 図6に、眼底観察装置1の動作の一例のフロー図を示す。アライメントやピント合わせは完了しており、固視標が被検眼Eに提示されているものとする。
 図7~図9に、眼底観察装置1の動作説明図を示す。図7は、前面領域と後面領域を手動で設定する場合において表示部240Aにより表示される画像の一例を表す。図8は、形態情報生成部232により設定される複数の計測点の一例を表す。図9は、篩状板の近傍領域の断層像の一例を模式的に表す。
(S1)
 まず、視神経乳頭を中心とする画像を取得するための固視位置に被検眼を固視させた状態で、主制御部211は、光源ユニット101、ガルバノスキャナ42等を制御して、眼底Efの視神経乳頭を含む領域を信号光LSで走査する。画像形成部220は、走査態様に対応する1以上の断層像を形成する。画像形成部220により形成された1以上の断層像は、OCT画像(OCT情報)として記憶部212に保存される。
(S2)
 次に、データ処理部230は、S1において取得された1以上の断層像に基づいて、篩状板の前面領域と後面領域とを特定する。この処理は、領域設定部231Aにより行われる。領域設定部231Aは、S1において取得された断層像の画素値に基づいて複数の層領域を特定し、特定された層領域のうち、篩状板の孔部に相当する領域がある層領域を篩状板領域として特定する。
 また、前面領域と後面領域を手動で設定する場合、主制御部211は、当該領域について3次元スキャンを行い、画像形成部220は、S1において取得された複数の断層像に基づく正面画像を形成する。画像表示制御部214は、図7に示すように、Bスキャン画像による描出位置(断面位置)がCスキャン画像において識別可能となるように、Bスキャン画像D1およびCスキャン画像D2を表示部240Aに並べて表示させる。図7では、Bスキャン画像D1による描出位置がCスキャン画像D2におけるラインL1に相当する。領域設定部231Aは、表示部240Aに表示された画像に対して、操作部240Bを用いて指定された位置に基づいて前面領域および後面領域を設定する。画像表示制御部214は、Bスキャン画像D1の上方に、入力モード設定部D3を表示させる。入力モード設定部D3には、前面領域の端点、前面領域の中間点、後面領域の端点、および後面領域の中間点のそれぞれを指定するためのモード指定部が設けられる。操作部240Bを用いて、対応するモード指定部を指定することにより、Bスキャン画像D1またはCスキャン画像D2における前面領域の端点、前面領域の中間点、後面領域の端点、および後面領域の中間点の少なくともいずれかを手動で指定することができる。前面領域および後面領域については、端点と中間点を指定することにより直線または曲線で接続され、領域が画定されるようになっている。なお、端点や中間点を接続する直線または曲線を手動で微調整できるように構成することが可能である。
 また、領域設定部231Aは、上記のように、篩状板の側面領域を設定することも可能である。領域設定部231Aは、側面領域についても自動または手動で特定することが可能である。
(S3)
 次に、データ処理部230は、S2において特定された篩状板の前面領域および後面領域(または篩状板の側面領域)に基づいて篩状板の形態を示す形態情報を生成する。形態情報生成部232は、たとえば図8に示すように視神経乳頭の中心を基準に複数の計測点を設定し、各計測点について、前面領域と後面領域との間の距離情報を生成する。図8は、視神経乳頭の中心を基準に、乳頭径の1/3、2/3の位置の各同心円の円周方向に複数の計測点(複数の正方形画像のそれぞれの中心点)が設定された例を表す。
 法線方向特定部232Bは、たとえば図9に示すように前面領域ARおよび後面領域BRのうち前面領域ARに対し曲面近似を行い、近似された面内の計測点における法線方向を計測方向dr1として特定する。なお、この実施形態では、図9に示すように、篩状板の孔部HRが描出された領域が篩状板領域に相当する。
 たとえば、法線方向特定部232Bは、Aラインごとに前面領域の法線方向を求めるようにしてもよい。また、法線方向特定部232Bは、Bスキャン画像において前面領域を曲面近似し、計測点における法線方向を計測方向としてもよい。また、法線方向特定部232Bは、取得された複数の断層像から生成された3次元領域において前面領域を近似した面を作成し、作成された面の計測点における法線方向を計測方向としてもよい。
 また、形態情報生成部232は、距離情報の他に、前面領域や篩状板領域や後面領域の面積、篩状板領域の体積、前面領域や後面領域の曲率、前面領域や篩状板領域や後面領域の傾きなどを形態情報として生成することが可能である。
(S4)
 次に、データ処理部230は、S3において生成された形態情報に基づいて注目領域を特定する。たとえば、データ処理部230は、形態情報に基づいて特徴的な位置を含む領域を注目領域として特定する。この特徴的な位置の例として、形態情報が示す値が所定の閾値以上または所定の閾値以下の位置や、形態情報が示す値が所定の範囲内である位置や、形態情報が示す値の変化量が所定の閾値以上または所定の閾値以下の位置などがある。
(S5)
 データ処理部230は、S4において特定された注目領域の変化を示すパラメータを算出する。データ処理部230によって算出されたパラメータは、当該注目領域の位置、或いは当該パラメータが算出された計測点またはその近傍位置を示す位置情報に関連付けられて記憶部212に格納される。同一の注目領域について互いに異なるタイミングで取得されたOCT画像に基づいて算出されたパラメータを時系列にしたがって解析することにより、トレンド解析が可能となる。また、投薬日や治療日や検査日などのイベントに関連付けて、パラメータを表示させてもよい。
(S6)
 次に、画像形成部220は、形態情報生成部232により生成された篩状板の形態を示すパラメータの分布情報を表す画像を形成する。この分布情報は、所定のタイミングにおけるパラメータの分布情報でもよいし、パラメータの変化量を時系列で示す分布情報でもよい。表示制御部213は、当該分布情報を表す画像を表示部240Aに表示させる。
 また、データ処理部230は、形態情報生成部232により設定された計測点またはその近傍が面内に含まれるように近似曲面を生成することにより、3次元のボリュームデータを作成する。画像形成部220は、作成された3次元のボリュームデータに基づいて正面画像(Cスキャン画像、プロジェクション画像、シャドウグラム)を作成する。また、画像形成部220は、作成された3次元のボリュームデータに基づいて、所定の層領域の境界が平坦になるように(同じz座標値になるように)、平坦化処理後の正面画像を作成する。
(S7)
 データ処理部230は、S6において作成された正面画像を用いて、篩状板の孔部や篩状板を構成するコラーゲン繊維のパラメータを算出する。コラーゲン線維のパラメータとして、コラーゲン繊維の厚さ、コラーゲン繊維の面積や体積、コラーゲン繊維の走行ベクトルなどがある。また、形態情報生成部232は、S6において作成された正面画像に基づいて、篩状板の孔部に相当する領域を検出し、当該孔部の大きさ(近似楕円の長径、短径、傾き)、面積、体積、および走行ベクトルを算出する。
(S8)
 次に、データ処理部230は、S4と同様に、S7において算出されたパラメータや形態情報に基づいて注目領域を特定する。たとえば、データ処理部230は、パラメータや形態情報に基づいて特徴的な位置を含む領域を注目領域として特定する。
(S9)
 データ処理部230は、S5と同様に、S8において特定された注目領域の変化を示すパラメータを算出する。データ処理部230によって算出されたパラメータは、当該注目領域の位置、或いは当該パラメータが算出された計測点またはその近傍位置を示す位置情報に関連付けられて記憶部212に格納される。同一の注目領域について互いに異なるタイミングで取得されたOCT画像に基づいて算出されたパラメータを時系列にしたがって解析することにより、トレンド解析が可能となる。また、S5と同様に、イベントに関連付けてパラメータを表示させてもよい。
[効果]
 この実施形態に係る演算制御ユニット200、および演算制御ユニット200が適用された眼底観察装置1の効果について説明する。眼底解析装置は、たとえば上記実施形態の演算制御ユニット200のように眼底観察装置1の一部として実現可能である。また、OCT計測や眼底撮影の機能を持たない眼底解析装置を適用することも可能である。
 演算制御ユニット200(眼底解析装置)は、記憶部212と、領域設定部231Aと、形態情報生成部232とを含む。記憶部212は、被検眼の眼底Efに対するOCTによって取得されたOCT画像(OCT情報)を記憶する。領域設定部231Aは、記憶部212に記憶されたOCT画像において篩状板の前面に相当する前面領域と篩状板の後面に相当する後面領域とを設定する。形態情報生成部232は、少なくとも前面領域および後面領域に基づいて篩状板の形態を示す形態情報を生成する。
 このような演算制御ユニット200によれば、篩状板に関する新たな情報を取得することができる。篩状板に関して新たに取得された情報を用いることで、緑内障の評価や診断や発症前診断などをより的確に行うことが可能となる。
 また、形態情報生成部232は、前面領域と後面領域との間の距離を表す距離情報を形態情報として生成してもよい。このような演算制御ユニット200によれば、篩状板の前面領域と後面領域との間の距離を表す距離情報を篩状板に関する新たな情報として取得することができる。
 また、演算制御ユニット200は、解析対象領域設定部231Bを含んでもよい。解析対象領域設定部231Bは、記憶部212に記憶されたOCT画像のうち少なくとも前面領域および後面領域を含む領域を解析対象領域として設定する。形態情報生成部232は、解析対象領域設定部231Bにより設定された解析対象領域に基づいて形態情報を生成してもよい。このように、解析対象領域を任意に設定可能とすることにより、たとえば、解析対象領域として、血管の影響などを受けにくく篩状板が明瞭となり、OCT計測の計測結果の信頼性が高い領域を設定することができる。この場合、形態情報生成部232は、篩状板の形態に関して信頼性の高い情報を生成することができる。
 また、記憶部212に記憶されたOCT画像は、2次元または3次元のデータセットを含んでもよい。形態情報生成部232は、当該データセットに基づいて、篩状板の形態を示すパラメータの分布情報を形態情報として生成するようにしてもよい。また、演算制御ユニット200は、表示制御部213を含んでもよい。表示制御部213は、形態情報生成部232により生成された分布情報をパラメータの値に応じて表示部240A(表示手段)に表示させる。このような演算制御ユニット200によれば、篩状板の形態を認識しやすく表示部240Aに表示させることが可能になるので、緑内障の評価や診断や発症前診断などをより的確に行うことが可能となる。
 また、演算制御ユニット200は、画像表示制御部214を含み、操作部240Bの機能を含んで構成されていてもよい。画像表示制御部214は、記憶部212に記憶されたOCT画像に基づく画像を表示部240Aに表示させる。領域設定部231Aは、表示手段に表示された画像に対して、操作部240Bを用いて指定された位置に基づいて前面領域および後面領域の少なくとも一方を設定する。このような演算制御ユニット200によれば、表示部240Aに表示された画像を見ながら、操作部240Bを用いて篩状板の前面領域や後面領域を設定することができる。これにより、ユーザが所望する前面領域や後面領域について解析を行うことが可能になる。
 また、眼底観察装置1は、OCT情報生成部(OCTユニット100とデータ処理部230)と、演算制御ユニット200とを含んでもよい。OCT情報生成部は、被検眼の眼底Efに対してOCTを行うことによりOCT画像を生成する。このような眼底観察装置1によれば、篩状板に関する新たな情報を取得することができる。
[第1変形例]
 上記の実施形態に係る形態情報生成部232は、篩状板の前面領域などの法線方向を特定し、特定された法線方向を計測方向として形態情報を生成している。しかし、実施形態はこれに限定されるものではない。形態情報生成部は、篩状板の孔部の分布(たとえば、孔部の数、太さ、走行状態など)に基づいて形態情報を生成してもよい。実施形態の第1変形例に係る形態情報生成部は、篩状板の孔部に相当する画像領域の向きに基づいて形態情報を生成する。
 第1変形例に係る眼底観察装置の各部の構成は、実施形態に係る眼底観察装置の構成と同様である。以下では、第1変形例に係る眼底観察装置について、実施形態との相違点を中心に説明する。
 図10に、第1変形例に係る形態情報生成部の構成例のブロック図を示す。図10において、図5と同様の部分には同一符号を付し、適宜説明を省略する。図4に示すデータ処理部230の形態情報生成部232として、図10に示す形態情報生成部332を適用することが可能である。
 形態情報生成部332は、距離情報生成部232Aと、画像領域特定部232Cとを含む。画像領域特定部232Cは、記憶部212に記憶されたOCT画像に基づいて、篩状板の孔部に相当する画像領域を特定する。形態情報生成部332は、画像領域特定部232Cにより特定された画像領域の向きに基づいて形態情報を生成する。
 画像領域特定部232Cは、OCT画像に基づいて生成された断層像の画素値から、篩状板の孔部に相当する画像領域とその向きを篩状板の孔部の走行方向として特定する。たとえば、画像領域特定部232Cは、図11に示すようにBスキャン画像において篩状板の孔部HRに相当する画像領域を特定し、前面領域ARおよび後面領域BRのうち前面領域ARを起点に孔部HRの走行方向を直線または曲線で近似して計測方向dr2を特定する。また、画像領域特定部232Cは、取得された複数の断層像から生成された3次元領域において篩状板の孔部HRの走行方向を近似し、前面領域または後面領域の計測点を起点とする走行方向を計測方向としてもよい。1つの孔部の上端と下端とを結ぶ線分の方向を計測方向とする場合には、上記の近似は不要である。
 以上説明したように、第1変形例によれば、篩状板の孔部の走行方向に関して篩状板の形態を示す形態情報を取得することができ、実施形態と同様に、緑内障の評価や診断や発症前診断などに寄与することが可能となる。
[第2変形例]
 実施形態の第1変形例に係る形態情報生成部332は、篩状板の孔部に相当する画像領域の向きに基づいて形態情報を生成するが、実施形態はこれに限定されるものではない。実施形態の第2変形例に係る形態情報生成部は、あらかじめ設定された方向に基づいて形態情報を生成する。
 第2変形例に係る眼底観察装置の各部の構成は、実施形態に係る眼底観察装置の構成と同様である。以下では、第2変形例に係る眼底観察装置について、実施形態との相違点を中心に説明する。
 図12に、第2変形例に係る形態情報生成部の構成例のブロック図を示す。図12において、図5と同様の部分には同一符号を付し、適宜説明を省略する。図4に示すデータ処理部230の形態情報生成部232として、図12に示す形態情報生成部432を適用することが可能である。
 形態情報生成部432は、距離情報生成部232Aを含む。形態情報生成部432は、あらかじめ設定された計測方向に基づいて距離情報を形態情報として生成することができる。あらかじめ設定された計測方向の例として、OCTのAスキャン方向である鉛直方向(たとえば、xz平面またはyz平面の形態を表すBスキャン画像におけるz方向)などがある。形態情報生成部432は、図13に示すように鉛直方向を計測方向dr3として、形態情報を生成する。
 以上説明したように、第2変形例によれば、あらかじめ設定された方向に関して篩状板の形態を示す形態情報を取得することができ、実施形態と同様に、緑内障の評価や診断や発症前診断などに寄与することが可能となる。
[第3変形例]
 上記の実施形態またはその変形例において説明したように、距離情報を生成する場合、計測方向の設定が必要である。実施形態の第3変形例では、計測方向の変更が可能に構成される。具体的には、第3変形例は、計測方向に関する複数の設定モードを有し、トレンド解析等において過去と同じ設定モードを自動で適用可能な例である。
 第3変形例に係る眼底観察装置の各部の構成は、実施形態に係る眼底観察装置の構成と同様である。以下では、第3変形例に係る眼底観察装置について、実施形態との相違点を中心に説明する。
 図14に、第3変形例に係る形態情報生成部の構成例のブロック図を示す。図14では、制御部210もあわせて図示している。図14において、図4と同様の部分には同一符号を付し、適宜説明を省略する。図4に示すデータ処理部230の形態情報生成部232として、図14に示す形態情報生成部532を適用することが可能である。
 形態情報生成部532は、距離情報生成部232Aと、方向設定部232Dと、記憶制御部232Eとを含む。形態情報生成部532は、更に、法線方向特定部232Bまたは画像領域特定部232Cを含んで構成されていてもよい。方向設定部232Dは、記憶部212に記憶されたOCT画像に対して方向を設定するための複数の方向設定モードを選択する。記憶制御部232Eは、方向設定部232Dにより選択された方向設定モードに基づいて生成された形態情報に、当該方向設定モードを示す識別情報を関連付けて記憶部212(記憶手段)に記憶させる。新たなOCT画像の解析が行われるときに、方向設定部232Dは、過去に記憶制御部232Eにより記憶された当該被検眼に関する形態情報を検索し、この形態情報に関連付けられた識別情報を取得し、取得された識別情報に示す方向設定モードを選択設定することで、当該新たなOCT画像に対して方向を設定する。距離情報生成部232Aは、当該新たに設定された方向における前面領域と後面領域との間の距離を示す距離情報を生成する。
 以上説明したように、第3変形例によれば、複数の計測方向について、前回と同じ計測方向に関して篩状板の形態を示す形態情報を取得することができ、実施形態と同様に、緑内障の評価や診断や発症前診断などに寄与することが可能となる。
[第4変形例]
 たとえば図6のS3において、形態情報生成部は、任意方向の断面における篩状板について形態情報を生成するようにしてもよい。任意方向の断面は、たとえば、ボリュームデータまたはスタックデータに対して断面を任意に設定することにより取得される。
 任意方向の断面の例として、水平方向の断面(Cスキャン画像面)、篩状板の前面領域または後面領域の法線方向と直交する面、篩状板の孔部の走行方向と直交する面、篩状板の前面領域または後面領域と平行な面などがある。
 前面領域または後面領域の法線方向は、たとえば、前面領域または後面領域に対して公知の曲面近似を施すことにより近似曲面を求め、その近似曲面内における任意の計測点における法線方向を求めることで特定することができる。また、Bスキャン画像に描出された前面領域または後面領域に対して公知の曲線近似を施すことにより近似曲線を求め、その近似曲線内における任意の計測点における法線方向を前面領域または後面領域の法線方向として求めたり、任意の3次元領域において篩状板の前面領域または後面領域に対して公知の曲面近似を施すことにより近似曲面を求め、その近似曲面内における任意の計測点における法線方向を前面領域または後面領域の法線方向として求めたりすることも可能である。
 なお、前面領域または後面領域の法線方向として、内境界膜(ILM)、神経線維層(NFL)、ブルッフ膜オープニング(BMO)の境界や端点または視神経乳頭の輪郭に対して公知の曲面近似を施すことにより近似曲面を求め、その近似曲面の法線方向のうち計測点を通る法線方向を適用してもよい。
 また、篩状板の孔部の走行方向の例として、たとえば、OCT画像に基づいて生成された断層像の画素値から特定された篩状板の孔部に相当する画像領域の向きなどがある。
 第4変形例に係る形態情報の例として、任意方向の断面における篩状板の前面領域や後面領域や側面領域の傾き、篩状板の傾き、所定方向における前面領域と後面領域との間の距離、前面領域の曲率や後面領域の曲率、側面領域の面積、孔部の分布、篩状板領域や解析対象領域の形状のパラメータなどがある。孔部の分布の例として、孔部の数、太さ、面積、走行状態、孔部を近似した近似楕円の長径や短径や長径または短径の傾きなどがある。篩状板領域や解析対象領域の形状のパラメータの例として、領域を近似した近似楕円の長径、近似楕円の短径、近似楕円の長径または短径の傾き、近似楕円の面積などがある。
[第5変形例]
 断面像データ形成部230Bは、3次元画像データ形成部230Aにより形成された3次元画像データに基づく3次元断層像における任意の点(測定点)を通過する断面像データを形成し、MPR画像を形成することが可能である。3次元断層像における任意の点の例として、眼定上の乳頭中心およびBMO中心などがある。MPR画像の例として、上記の任意の点を中心としたラジアル断層像などがある。断面像データ形成部230Bは、眼底における所定の測定点を通過する1以上の断面を表す断層像をOCT情報として形成することが可能である。画像表示制御部214は、図15に示すように、断面像データ形成部230Bにより形成された断面像データに基づく断層像(D10)と上記のように形成されたCスキャン画像(D11)とを表示部240Aに並べて表示させる。領域設定部231Aは、表示部240Aに表示された画像に対して、操作部240Bを用いて指定された位置に基づいて前面領域および後面領域を設定することが可能である。
 このように、領域設定部231Aは、Bスキャン画像のようなラスター画像(図7)だけではなく、3次元画像から再構成することにより得られた断層像(図15)に対して、操作部240Bを用いて指定された位置に基づいて前面領域および後面領域を設定することが可能である。
[その他]
 上記の実施形態またはその変形例では、眼底に対してOCTを行う場合について説明したが、これに限定されるものではない。たとえば、前眼部の所定の部位を解析するために、前眼部に対してOCTを行う場合についても適用することができる。
 上記の実施形態またはその変形例では、OCT情報としてOCT画像を用いる場合につい説明したが、これに限定されるものではない。OCT情報は、上記のように、OCTを用いて取得された画像化する前の情報であってもよい。画像化する前の情報の例として、OCTを用いて干渉光を検出する検出手段による検出結果(たとえば、CCDイメージセンサからの検出信号)に基づくFFTの処理結果(反射強度プロファイル)がある。そのため、FFTの処理結果におけるピーク位置(z位置)を検出することにより、たとえば臨床データ等からAスキャンラインにおける部位や領域を特定することができる。したがって、篩状板の前面領域や篩状板領域や篩状板の後面領域などの所望の領域(層)を特定することが可能となる。
 上記の実施形態またはその変形例を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。
 以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。
1 眼底観察装置
200 演算制御ユニット
212 記憶部
231A 領域設定部
232、332、432、532 形態情報生成部

Claims (13)

  1.  被検眼の眼底に対する光コヒーレンストモグラフィによって取得されたOCT情報を記憶する記憶部と、
     前記OCT情報において篩状板の前面に相当する前面領域と篩状板の後面に相当する後面領域とを設定する領域設定部と、
     少なくとも前記前面領域および前記後面領域に基づいて篩状板の形態を示す形態情報を生成する形態情報生成部と
     を含む眼底解析装置。
  2.  前記形態情報生成部は、前記前面領域と前記後面領域との間の距離を表す距離情報を前記形態情報として生成する
     ことを特徴とする請求項1に記載の眼底解析装置。
  3.  前記OCT情報のうち少なくとも前記前面領域および前記後面領域を含む領域を解析対象領域として設定する解析対象領域設定部を含み、
     前記形態情報生成部は、前記解析対象領域設定部により設定された前記解析対象領域に基づいて前記形態情報を生成する
     ことを特徴とする請求項1または請求項2に記載の眼底解析装置。
  4.  前記OCT情報は、2次元または3次元のデータセットを含み、
     前記形態情報生成部は、前記データセットに基づいて、篩状板の形態を示すパラメータの分布情報を前記形態情報として生成する
     ことを特徴とする請求項1~請求項3のいずれか一項に記載の眼底解析装置。
  5.  前記OCT情報は、3次元のデータセットに基づいて生成された断層像を含む
     ことを特徴とする請求項4に記載の眼底解析装置。
  6.  前記OCT情報は、眼底における所定の測定点を通過する1以上の断面を表す断層像を含む
     ことを特徴とする請求項5に記載の眼底解析装置。
  7.  前記分布情報を前記パラメータの値に応じて表示手段に表示させる表示制御部を含む
     ことを特徴とする請求項4~請求項6のいずれか一項に記載の眼底解析装置。
  8.  前記形態情報生成部は、前記前面領域または前記後面領域の法線方向を特定する法線方向特定部を含み、前記法線方向特定部により特定された前記法線方向に基づいて前記形態情報を生成する
     ことを特徴とする請求項1~請求項7のいずれか一項に記載の眼底解析装置。
  9.  前記形態情報生成部は、前記OCT情報に基づいて、前記篩状板の孔部に相当する画像領域を特定する画像領域特定部を含み、前記画像領域特定部により特定された前記画像領域の向きに基づいて前記形態情報を生成する
     ことを特徴とする請求項1~請求項7のいずれか一項に記載の眼底解析装置。
  10.  前記形態情報生成部は、光コヒーレンストモグラフィのAスキャン方向に基づいて前記形態情報を生成する
     ことを特徴とする請求項1~請求項7のいずれか一項に記載の眼底解析装置。
  11.  前記形態情報生成部は、
     前記OCT情報に対して方向を設定するための複数の方向設定モードを選択する方向設定部と、
     前記方向設定部により選択された方向設定モードに基づいて生成された前記形態情報に、当該方向設定モードを示す識別情報を関連付けて記憶手段に記憶させる記憶制御部と、
     を含み、
     新たなOCT情報の解析が行われるときに、前記方向設定部は、過去に前記記憶制御部により記憶させた前記形態情報に関連付けられた前記識別情報を取得し、取得された前記識別情報が示す方向設定モードを選択設定することで、当該新たなOCT情報に対して方向を設定する
     ことを特徴とする請求項1~請求項10のいずれか一項に記載の眼底解析装置。
  12.  前記OCT情報に基づく画像を表示手段に表示させる画像表示制御部と、
     操作部と、
     を含み、
     前記領域設定部は、前記表示手段に表示された前記画像に対して、前記操作部を用いて指定された位置に基づいて前記前面領域および前記後面領域の少なくとも一方を設定する
     ことを特徴とする請求項1~請求項11のいずれか一項に記載の眼底解析装置。
  13.  被検眼の眼底に対して光コヒーレンストモグラフィを行うことにより前記OCT情報を生成するOCT情報生成部と、
     請求項1~請求項12のいずれか一項に記載の眼底解析装置と、
     を含む眼底観察装置。
PCT/JP2015/074491 2014-07-23 2015-08-28 眼底解析装置及び眼底観察装置 WO2016039188A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/509,421 US10362939B2 (en) 2014-07-23 2015-08-28 Fundus analysis apparatus and fundus observation apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-182326 2014-09-08
JP2014182326A JP5937163B2 (ja) 2014-07-23 2014-09-08 眼底解析装置及び眼底観察装置

Publications (1)

Publication Number Publication Date
WO2016039188A1 true WO2016039188A1 (ja) 2016-03-17

Family

ID=55483738

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/074491 WO2016039188A1 (ja) 2014-07-23 2015-08-28 眼底解析装置及び眼底観察装置

Country Status (1)

Country Link
WO (1) WO2016039188A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004455A1 (ja) * 2022-06-27 2024-01-04 株式会社トプコン 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011045675A (ja) * 2009-08-28 2011-03-10 Canon Inc 画像解析装置、その計測方法及びプログラム
JP2012100811A (ja) * 2010-11-09 2012-05-31 Topcon Corp 眼底画像処理装置及び眼底観察装置
JP2012115575A (ja) * 2010-12-02 2012-06-21 Nidek Co Ltd 眼底撮影装置
JP2012157591A (ja) * 2011-02-01 2012-08-23 Canon Inc 画像処理装置、画像処理方法およびプログラム
JP2012161426A (ja) * 2011-02-04 2012-08-30 Nidek Co Ltd 眼科撮影装置
JP2013153844A (ja) * 2012-01-27 2013-08-15 Canon Inc 画像処理装置、画像処理方法及びプログラム。

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011045675A (ja) * 2009-08-28 2011-03-10 Canon Inc 画像解析装置、その計測方法及びプログラム
JP2012100811A (ja) * 2010-11-09 2012-05-31 Topcon Corp 眼底画像処理装置及び眼底観察装置
JP2012115575A (ja) * 2010-12-02 2012-06-21 Nidek Co Ltd 眼底撮影装置
JP2012157591A (ja) * 2011-02-01 2012-08-23 Canon Inc 画像処理装置、画像処理方法およびプログラム
JP2012161426A (ja) * 2011-02-04 2012-08-30 Nidek Co Ltd 眼科撮影装置
JP2013153844A (ja) * 2012-01-27 2013-08-15 Canon Inc 画像処理装置、画像処理方法及びプログラム。

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RYO INOUE ET AL.: "Three-dimensional High- speed Optical Coherence Tomography Imaging of Lamina Cribrosa in Glaucoma", OPHTHALMOLOGY, vol. 116, no. 2, February 2009 (2009-02-01), pages 214 - 222, XP025925515, DOI: doi:10.1016/j.ophtha.2008.09.008 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004455A1 (ja) * 2022-06-27 2024-01-04 株式会社トプコン 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム

Similar Documents

Publication Publication Date Title
JP5937163B2 (ja) 眼底解析装置及び眼底観察装置
JP5867719B2 (ja) 光画像計測装置
JP5628636B2 (ja) 眼底画像処理装置及び眼底観察装置
JP6045895B2 (ja) 眼科観察装置
JP5936254B2 (ja) 眼底観察装置及び眼底画像解析装置
JP2016041221A (ja) 眼科撮影装置およびその制御方法
JP5941761B2 (ja) 眼科撮影装置及び眼科画像処理装置
JP6411728B2 (ja) 眼科観察装置
JP2011087672A (ja) 眼底画像処理装置及び眼底観察装置
JP5956518B2 (ja) 眼科解析装置及び眼科撮影装置
JP5514026B2 (ja) 眼底画像処理装置及び眼底観察装置
JP6101475B2 (ja) 眼科観察装置
JP6378795B2 (ja) 眼科撮影装置
JP6159454B2 (ja) 眼科観察装置
JP6452977B2 (ja) 眼科撮影装置及びその制御方法
JP2018023818A (ja) 眼科観察装置
JP6158535B2 (ja) 眼底解析装置
WO2016039188A1 (ja) 眼底解析装置及び眼底観察装置
JP6374549B2 (ja) 眼科解析装置
JP2016104306A (ja) 眼科撮影装置
JP6186454B2 (ja) 眼科解析装置
JP6186453B2 (ja) 眼科解析装置及び眼科撮影装置
JP6021289B2 (ja) 血流情報生成装置、血流情報生成方法、及びプログラム
JP2018023816A (ja) 眼科観察装置
JP6404431B2 (ja) 眼科観察装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15839181

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15509421

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15839181

Country of ref document: EP

Kind code of ref document: A1