WO2013128680A1 - 眼底観察装置 - Google Patents

眼底観察装置 Download PDF

Info

Publication number
WO2013128680A1
WO2013128680A1 PCT/JP2012/071544 JP2012071544W WO2013128680A1 WO 2013128680 A1 WO2013128680 A1 WO 2013128680A1 JP 2012071544 W JP2012071544 W JP 2012071544W WO 2013128680 A1 WO2013128680 A1 WO 2013128680A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
fundus
unit
scanning
observation device
Prior art date
Application number
PCT/JP2012/071544
Other languages
English (en)
French (fr)
Inventor
篤司 窪田
佑介 小野
釣 滋孝
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to US14/377,082 priority Critical patent/US9560964B2/en
Priority to EP12869703.4A priority patent/EP2821006B1/en
Publication of WO2013128680A1 publication Critical patent/WO2013128680A1/ja
Priority to US15/244,710 priority patent/US10098542B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1225Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation
    • A61B3/1233Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes using coherent radiation for measuring blood flow, e.g. at the retina
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1241Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes specially adapted for observation of ocular blood flow, e.g. by fluorescein angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Definitions

  • the present invention relates to a fundus oculi observation device that acquires an image of the fundus oculi using optical coherence tomography (OCT).
  • OCT optical coherence tomography
  • OCT that forms an image representing the surface form and internal form of an object to be measured using a light beam from a laser light source or the like has attracted attention. Since OCT has no invasiveness to the human body like X-ray CT, it is expected to be applied particularly in the medical field and the biological field. For example, in the field of ophthalmology, an apparatus for forming an image of the fundus oculi or cornea has been put into practical use.
  • Patent Document 1 discloses an apparatus using a so-called “Fourier Domain OCT (Fourier Domain OCT)” technique. That is, this apparatus irradiates the object to be measured with a beam of low coherence light, superimposes the reflected light and the reference light to generate interference light, acquires the spectral intensity distribution of the interference light, and performs Fourier transform. By performing the conversion, the form of the object to be measured in the depth direction (z direction) is imaged. Further, this apparatus includes a galvanometer mirror that scans a light beam (signal light) in one direction (x direction) orthogonal to the z direction, thereby forming an image of a desired measurement target region of the object to be measured. It has become. An image formed by this apparatus is a two-dimensional tomographic image in the depth direction (z direction) along the scanning direction (x direction) of the light beam. This method is also called a spectral domain.
  • Fourier Domain OCT Frourier Domain OCT
  • a plurality of two-dimensional tomographic images in the horizontal direction are formed by scanning (scanning) the signal light in the horizontal direction (x direction) and the vertical direction (y direction), and based on the plurality of tomographic images.
  • a technique for acquiring and imaging three-dimensional tomographic information of a measurement range is disclosed.
  • this three-dimensional imaging for example, a method of displaying a plurality of tomographic images side by side in a vertical direction (referred to as stack data or the like), volume data (voxel data) based on the stack data is rendered, and a three-dimensional image is rendered. There is a method of forming.
  • Patent Documents 3 and 4 disclose other types of OCT apparatuses.
  • the wavelength of light irradiated to a measured object is scanned (wavelength sweep), and interference intensity obtained by superimposing reflected light of each wavelength and reference light is detected to detect spectral intensity distribution.
  • an OCT apparatus for imaging the form of an object to be measured by performing Fourier transform on the obtained image is called a swept source type.
  • the swept source type is a kind of Fourier domain type.
  • Patent Document 4 discloses a configuration in which OCT is applied to the ophthalmic field.
  • a fundus camera, a slit lamp, or the like was used as an apparatus for observing the eye to be examined (see, for example, Patent Document 5 and Patent Document 6).
  • a fundus camera is a device that shoots the fundus by illuminating the subject's eye with illumination light and receiving the fundus reflection light.
  • a slit lamp is a device that acquires an image of a cross-section of the cornea by cutting off a light section of the cornea using slit light.
  • An apparatus using OCT has an advantage over a fundus camera or the like in that a high-definition image can be acquired, and further, a tomographic image or a three-dimensional image can be acquired.
  • an apparatus using OCT can be applied to observation of various parts of an eye to be examined and can acquire high-definition images, it has been applied to diagnosis of various ophthalmic diseases.
  • Fluorescence contrast imaging is performed in the fundus examination to grasp the state of blood vessels and the state of blood flow.
  • fluorescence contrast imaging There are two types of fluorescence contrast imaging, one using a fluorescent agent (fluorescein, indocyanine green, etc.) and the other using autofluorescence imaging without using a fluorescent agent (autofluorescence imaging).
  • the alignment between the fluorescence image and the fundus image taken at the time of OCT measurement is performed.
  • the position in the fundus image corresponding to the abnormal part in the fluorescence image is specified, and the display is performed as if a tomographic image at that position was obtained. That is, conventionally, the alignment of the fluorescence image and the tomographic image has been performed as post-processing.
  • examinations other than fluorescence contrast imaging include imaging (imaging) for acquiring a fundus image, and measurement (fundus function measurement) for acquiring the functional state of the fundus.
  • imaging imaging
  • fundus function measurement measurement
  • image acquired by imaging a color fundus image, an SLO (Scanning Laser Ophthalmoscope) image, a three-dimensional image by OCT, a projection image obtained by integrating (projecting) this three-dimensional image in the z direction, this three-dimensional image
  • a shadowgram obtained by integrating (projecting) a part of the depth region of an image in the z direction.
  • the fundus function measurement for example, a visual field test that measures the range of the visual field using a perimeter, an SLO microperimetry (SLO scoometry) that measures the retinal visual sensitivity, an OCT or a nerve fiber layer analyzer using the fundus
  • SLO microperimetry SLO scoometry
  • OCT optical coherence tomography
  • nerve fiber layer analyzer a measurement for obtaining a distribution of measured values in the fundus, such as a layer thickness measurement for measuring the thickness of the layer.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide a technique capable of easily setting the measurement position of the fundus OCT measurement based on the examination result.
  • the invention described in claim 1 includes a display unit that displays distribution information of examination results in the fundus acquired by examinations performed in the past, and an imaging unit that performs video photography of the fundus.
  • an optical system for generating and detecting interference light by causing signal light and reference light that have passed through the fundus to interfere with each other, and a scanning unit that scans the fundus with the signal light, and the interference associated with the scanning A tomographic image forming unit that forms a tomographic image of the fundus oculi based on a detection result of light; a setting unit that sets a scanning target position of the signal light with respect to the distribution information displayed on the display unit;
  • a specifying unit that specifies an image region corresponding to the scanning target position in a fundus image obtained by photographing, and a control unit that controls the scanning unit based on the specified image region to scan the signal light.
  • the invention according to claim 2 is the fundus oculi observation device according to claim 1, wherein the setting unit includes an analysis unit that analyzes the distribution information and identifies a lesion candidate site of the fundus. The scanning target position is set based on the identified lesion candidate site.
  • the invention according to claim 3 is the fundus oculi observation device according to claim 2, wherein the analysis unit stores in advance two or more analysis programs corresponding to two or more types of distribution information.
  • a first type specifying unit for specifying the type of the distribution information displayed on the display unit, and a first selecting an analysis program corresponding to the specified type from the two or more analysis programs And selecting a lesion candidate site by analyzing the distribution information using a selected analysis program.
  • the invention according to claim 4 is the fundus oculi observation device according to claim 3, wherein the first type specifying unit is based on the examination result of the feature region of the fundus in the displayed distribution information.
  • the invention according to claim 5 is the fundus oculi observation device according to claim 3, wherein the displayed distribution information is associated with predetermined identification information indicating the type in advance, and The type specifying unit specifies the type of the distribution information based on the identification information.
  • the invention according to claim 6 is the fundus oculi observation device according to any one of claims 1 to 5, wherein the distribution information is an image of the fundus oculi having a pixel value as the examination result.
  • the specifying unit includes a second storage unit that stores in advance two or more image analysis programs corresponding to two or more image types, and a second type that specifies the type of the image displayed on the display unit. And a second selection unit for selecting an image analysis program corresponding to the specified type from the two or more image analysis programs, and using the selected image analysis program, the image and the fundus Image matching with an image is performed, and an image region in the fundus image associated with the scanning target position in the image is specified by the image matching.
  • the invention according to claim 7 is the fundus oculi observation device according to claim 6, wherein the second type specifying unit is based on a pixel value of a characteristic part of the fundus in the displayed image.
  • the type of the image is specified.
  • the invention according to claim 8 is the fundus oculi observation device according to claim 6, wherein the displayed image is associated in advance with predetermined identification information indicating its type, and the second The type specifying unit specifies the type of the image based on the identification information.
  • the invention according to claim 9 is the fundus oculi observation device according to any one of claims 3 to 8, wherein the distribution information includes fluorescence of the fundus oculi having a pixel value as the examination result.
  • the type of fluorescent image includes images, and includes a first type that is photographed by administering a fluorescent agent and a second type that is photographed without administering a fluorescent agent.
  • the invention according to claim 10 is the fundus oculi observation device according to any one of claims 1 to 8, wherein the distribution information includes fluorescence of the fundus having a pixel value as the examination result. It includes at least one of an image, an infrared image, and a non-red light image.
  • the invention according to claim 11 is the fundus oculi observation device according to any one of claims 1 to 10, wherein the image storage stores the incidental image of the fundus acquired together with the distribution information.
  • the setting unit sets the scanning target position with respect to the distribution information
  • the specifying unit is configured to set the scanning target position in the auxiliary image corresponding to the scanning information position set with respect to the distribution information.
  • An image region is specified
  • an image region in the fundus image corresponding to the image region is specified
  • the control unit controls the scanning unit on the basis of the specified image region in the fundus image to control the signal light
  • the tomographic image forming unit forms a tomographic image based on the detection result of the interference light accompanying the scanning of the signal light based on the control.
  • the invention according to claim 12 is the fundus oculi observation device according to claim 11, wherein the distribution information includes measurement result information in which a measurement value obtained by measuring the fundus is the inspection result.
  • the setting unit sets the scan target position for the measurement result information.
  • the invention according to claim 13 is the fundus oculi observation device according to claim 12, wherein the measurement result information is obtained by measurement results of a range of visual field obtained by visual field inspection, microperimetry. It includes at least one of a measurement result of the retinal visual sensitivity and a measurement result of the thickness of the fundus layer obtained by the layer thickness measurement.
  • the invention according to claim 14 is the fundus oculi observation device according to claim 12 or claim 13, wherein the display unit superimposes and displays the measurement result information on the auxiliary image or the fundus image. It is characterized by.
  • the invention according to claim 15 is the fundus oculi observation device according to claim 12, wherein the distribution information includes an image of a different type from the incidental image, and the setting unit The scanning target position is set.
  • the invention according to claim 16 is the fundus oculi observation device according to any one of claims 11 to 15, wherein the auxiliary image and the fundus image are images of the same type.
  • the invention according to claim 17 is the fundus oculi observation device according to any one of claims 1 to 16, wherein the setting unit receives an operation for setting the scan target position. An operation unit is included.
  • the invention according to claim 18 is the fundus oculi observation device according to claim 17, wherein the display unit uses settable range information indicating a range in which the scan target position can be set as the distribution information.
  • the invention according to claim 19 is the fundus oculi observation device according to claim 18, which corresponds to the operation for setting the scanning target position in the external region of the range in the distribution information.
  • the display control unit further includes a display control unit that superimposes and displays the settable range information on the distribution information.
  • the invention according to claim 20 is the fundus oculi observation device according to claim 18, wherein the scanning condition setting unit for setting the scanning condition of the signal light, and the settable range to be superimposed on the distribution information. And a display control unit that switches a form of information in accordance with the setting result of the scanning condition.
  • the invention according to claim 21 is the fundus oculi observation device according to claim 18, wherein the setting unit performs an operation for setting the scanning target position in an external region of the range in the distribution information. In response to what has been done, a new scanning target position is set in the inner region of the range.
  • the invention according to claim 22 is the fundus oculi observation device according to any one of claims 17 to 21, wherein the operation unit is set for the displayed distribution information.
  • a first operation unit that receives an operation for translating the scan target position is included.
  • the invention according to claim 23 is the fundus oculi observation device according to any one of claims 17 to 22, wherein the operation unit is set for the displayed distribution information.
  • a second operation unit that receives an operation for rotationally moving the scanning target position is included.
  • the invention according to claim 24 is the fundus oculi observation device according to any one of claims 17 to 23, wherein the operation unit includes a pointing device and / or a graphical user interface.
  • the invention according to claim 25 is the fundus oculi observation device according to any one of claims 1 to 24, wherein an image region corresponding to the scan target position is specified by the specifying unit.
  • the control unit causes the display unit to display a still image based on one frame of the fundus image and information indicating the image region specified for the one frame.
  • the invention according to claim 26 is the fundus oculi observation device according to claim 25, wherein after the display of the still image and the information, the specific part is moved by the photographing part at a timing corresponding to the display.
  • the control unit controls the scanning unit based on an image area in the new frame to scan the signal light.
  • the invention according to claim 27 is the fundus oculi observation device according to any one of claims 1 to 26, wherein the distribution information is a moving image implemented in the past using the imaging unit. It is the information generated based on the image acquired by imaging
  • the fundus oculi observation device forms a tomographic image or a three-dimensional image of the fundus using OCT.
  • images acquired by OCT may be collectively referred to as OCT images.
  • a measurement operation for forming an OCT image may be referred to as OCT measurement.
  • the fundus oculi observation device can acquire both an OCT image and a fundus image of the fundus using the spectral domain OCT technique, as in the device disclosed in Patent Document 4.
  • the configuration according to the present invention can be applied to a fundus oculi observation device using a type other than the spectral domain, for example, a swept source OCT technique.
  • a fundus imaging apparatus other than the fundus camera for example, an SLO, a slit lamp, an ophthalmic surgical microscope, and the like has a configuration according to this embodiment. It is also possible to combine OCT apparatuses.
  • the fundus oculi observation device 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200.
  • the retinal camera unit 2 has almost the same optical system as a conventional retinal camera.
  • the OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus.
  • the arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.
  • the fundus camera unit 2 shown in FIG. 1 is provided with an optical system for obtaining a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined.
  • the fundus image includes an observation image and a captured image.
  • the observation image is a monochrome moving image formed at a predetermined frame rate using near infrared light, for example.
  • the observation image is an example of “fundus image”
  • the fundus camera unit 2 is an example of “imaging unit”.
  • the captured image may be, for example, a color image obtained by flashing visible light, or a monochrome still image using near infrared light or visible light as illumination light.
  • the fundus camera unit 2 may be configured to be able to acquire images other than these, such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.
  • images other than these such as a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, and the like.
  • an exciter filter is provided in the illumination optical system 10 and a barrier filter is provided in the photographing optical system 30 as in the conventional fundus camera.
  • the fundus camera unit 2 is provided with a chin rest and a forehead for supporting the subject's face. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30.
  • the illumination optical system 10 irradiates the fundus oculi Ef with illumination light.
  • the photographing optical system 30 guides the fundus reflection light of the illumination light to an imaging device (CCD image sensor (sometimes simply referred to as a CCD) 35, 38).
  • the imaging optical system 30 guides the signal light from the OCT unit 100 to the fundus oculi Ef and guides the signal light passing through the fundus oculi Ef to the OCT unit 100.
  • the observation light source 11 of the illumination optical system 10 is composed of, for example, a halogen lamp.
  • the light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected at the peripheral portion (region around the hole portion) of the aperture mirror 21, passes through the dichroic mirror 46, and is refracted by the objective lens 22 to illuminate the fundus oculi Ef.
  • An LED Light Emitting Diode
  • the fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, passes through the dichroic mirror 55, and is a focusing lens. It is reflected by the mirror 32 via 31. Further, the fundus reflection light passes through the half mirror 39A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens.
  • the CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example. On the display device 3, an image (observation image) based on fundus reflection light detected by the CCD image sensor 35 is displayed. When the photographing optical system is focused on the anterior segment, an observation image of the anterior segment of the eye E is displayed.
  • the photographing light source 15 is constituted by, for example, a xenon lamp.
  • the light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light.
  • the fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38.
  • An image is formed on the light receiving surface.
  • On the display device 3 an image (captured image) based on fundus reflection light detected by the CCD image sensor 38 is displayed.
  • the display device 3 that displays the observation image and the display device 3 that displays the captured image may be the same or different.
  • an infrared captured image is displayed. It is also possible to use an LED as a photographing light source.
  • the LCD (Liquid Crystal Display) 39 displays a fixation target and an eyesight measurement index.
  • the fixation target is an index for fixing the eye E to be examined, and is used at the time of fundus photographing or OCT measurement.
  • a part of the light output from the LCD 39 is reflected by the half mirror 39A, reflected by the mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, passes through the hole of the perforated mirror 21, and reaches the dichroic.
  • the light passes through the mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the fixation position of the eye E can be changed by changing the display position of the fixation target on the screen of the LCD 39.
  • As the fixation position of the eye E for example, a position for acquiring an image centered on the macular portion of the fundus oculi Ef, or a position for acquiring an image centered on the optic disc as in the case of a conventional fundus camera And a position for acquiring an image centered on the fundus center between the macula and the optic disc. It is also possible to arbitrarily change the display position of the fixation target.
  • the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in the conventional fundus camera.
  • the alignment optical system 50 generates an index (alignment index) for performing alignment (alignment) of the apparatus optical system with respect to the eye E.
  • the focus optical system 60 generates an index (split index) for focusing on the fundus oculi Ef.
  • the light (alignment light) output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, passes through the hole of the aperture mirror 21, and reaches the dichroic mirror 46. And is projected onto the cornea of the eye E by the objective lens 22.
  • the cornea-reflected light of the alignment light passes through the objective lens 22, the dichroic mirror 46, and the hole, part of which passes through the dichroic mirror 55, passes through the focusing lens 31, and is reflected by the mirror 32.
  • the light passes through 39A, is reflected by the dichroic mirror 33, and is projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens.
  • the light reception image (alignment index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image.
  • the user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment index and moving the optical system (auto-alignment function).
  • the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10.
  • the light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split indicator plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65, The light is focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the corneal reflection light of the alignment light.
  • a light reception image (split index) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image.
  • the arithmetic control unit 200 analyzes the position of the split index and moves the focusing lens 31 and the focus optical system 60 to perform focusing as in the conventional case (autofocus function). Alternatively, focusing may be performed manually while visually checking the split indicator.
  • the dichroic mirror 46 branches the optical path for OCT measurement from the optical path for fundus imaging.
  • the dichroic mirror 46 reflects light in a wavelength band used for OCT measurement and transmits light for fundus photographing.
  • a collimator lens unit 40, an optical path length changing unit 41, a galvano scanner 42, a focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side. It has been.
  • the optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the optical path length of the optical path for OCT measurement. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state.
  • the optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.
  • the galvano scanner 42 changes the traveling direction of light (signal light LS) passing through the optical path for OCT measurement. Thereby, the fundus oculi Ef can be scanned with the signal light LS.
  • the galvano scanner 42 includes, for example, a galvano mirror that scans the signal light LS in the x direction, a galvano mirror that scans in the y direction, and a mechanism that drives these independently. Thereby, the signal light LS can be scanned in an arbitrary direction on the xy plane.
  • the OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef.
  • This optical system has the same configuration as a conventional spectral domain type OCT apparatus. That is, this optical system divides low-coherence light into reference light and signal light, and generates interference light by causing interference between the signal light passing through the fundus oculi Ef and the reference light passing through the reference optical path. It is configured to detect spectral components. This detection result (detection signal) is sent to the arithmetic control unit 200.
  • a wavelength swept light source is provided instead of a light source that outputs a low coherence light source, and an optical member that spectrally decomposes interference light is not provided.
  • a known technique according to the type of optical coherence tomography can be arbitrarily applied.
  • the light source unit 101 outputs a broadband low-coherence light L0.
  • the low coherence light L0 includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a wavelength band invisible to the human eye, for example, a center wavelength of about 1040 to 1060 nm, may be used as the low-coherence light L0.
  • the light source unit 101 includes a super luminescent diode (Super Luminescent Diode: SLD), an LED, and an optical output device such as an SOA (Semiconductor Optical Amplifier).
  • SLD Super Luminescent Diode
  • LED an LED
  • SOA semiconductor Optical Amplifier
  • the low coherence light L0 output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102, and is divided into the signal light LS and the reference light LR.
  • the reference light LR is guided by the optical fiber 104 and reaches an optical attenuator (attenuator) 105.
  • the optical attenuator 105 automatically adjusts the amount of the reference light LR guided to the optical fiber 104 under the control of the arithmetic control unit 200 using a known technique.
  • the reference light LR whose light amount has been adjusted by the optical attenuator 105 is guided by the optical fiber 104 and reaches the polarization adjuster (polarization controller) 106.
  • the polarization adjuster 106 is, for example, a device that adjusts the polarization state of the reference light LR guided in the optical fiber 104 by applying a stress from the outside to the optical fiber 104 in a loop shape.
  • the configuration of the polarization adjuster 106 is not limited to this, and any known technique can be used.
  • the reference light LR whose polarization state is adjusted by the polarization adjuster 106 reaches the fiber coupler 109.
  • the signal light LS generated by the fiber coupler 103 is guided by the optical fiber 107 and converted into a parallel light beam by the collimator lens unit 40. Further, the signal light LS reaches the dichroic mirror 46 via the optical path length changing unit 41, the galvano scanner 42, the focusing lens 43, the mirror 44, and the relay lens 45. The signal light LS is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and is applied to the fundus oculi Ef. The signal light LS is scattered (including reflection) at various depth positions of the fundus oculi Ef. The backscattered light of the signal light LS from the fundus oculi Ef travels in the same direction as the forward path in the reverse direction, is guided to the fiber coupler 103, and reaches the fiber coupler 109 via the optical fiber 108.
  • the fiber coupler 109 causes the backscattered light of the signal light LS and the reference light LR that has passed through the fiber coupler 103 to interfere with each other.
  • the interference light LC generated thereby is guided by the optical fiber 110 and emitted from the emission end 111. Further, the interference light LC is converted into a parallel light beam by the collimator lens 112, dispersed (spectral decomposition) by the diffraction grating 113, condensed by the condenser lens 114, and projected onto the light receiving surface of the CCD image sensor 115.
  • the diffraction grating 113 shown in FIG. 2 is a transmission type, other types of spectroscopic elements such as a reflection type diffraction grating may be used.
  • the CCD image sensor 115 is a line sensor, for example, and detects each spectral component of the split interference light LC and converts it into electric charges.
  • the CCD image sensor 115 accumulates this electric charge, generates a detection signal, and sends it to the arithmetic control unit 200.
  • a Michelson type interferometer is used, but any type of interferometer such as a Mach-Zehnder type can be appropriately used.
  • any type of interferometer such as a Mach-Zehnder type can be appropriately used.
  • another form of image sensor for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor or the like can be used.
  • CMOS Complementary Metal Oxide Semiconductor
  • the configuration of the arithmetic control unit 200 will be described.
  • the arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 115 and forms an OCT image of the fundus oculi Ef.
  • the arithmetic processing for this is the same as that of a conventional spectral domain type OCT apparatus.
  • the arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100. For example, the arithmetic control unit 200 displays an OCT image of the fundus oculi Ef on the display device 3.
  • the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lenses 31 and 43, and the reflector 67. Movement control, movement control of the focus optical system 60, movement control of the optical path length changing unit 41, operation control of the galvano scanner 42, and the like are performed.
  • the arithmetic control unit 200 performs operation control of the light source unit 101, operation control of the optical attenuator 105, operation control of the polarization adjuster 106, operation control of the CCD image sensor 120, and the like.
  • the arithmetic control unit 200 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, and the like, as in a conventional computer.
  • a computer program for controlling the fundus oculi observation device 1 is stored in a storage device such as a hard disk drive.
  • the arithmetic control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image.
  • the arithmetic control unit 200 may include an operation device (input device) and a display device.
  • the operation device includes, for example, a pointing device such as a mouse, a keyboard, and the like.
  • the display device is a flat panel display such as an LCD.
  • the fundus camera unit 2, the display device 3, the OCT unit 100, and the calculation control unit 200 may be configured integrally (that is, in a single housing) or separated into two or more housings. It may be.
  • Control system The configuration of the control system of the fundus oculi observation device 1 will be described with reference to FIGS.
  • the control system of the fundus oculi observation device 1 is configured around the control unit 210.
  • the control unit 210 includes, for example, the above-described microprocessor, RAM, ROM, hard disk drive, communication interface, and the like.
  • the control unit 210 is provided with a main control unit 211 and a storage unit 212.
  • the main control unit 211 performs the various controls described above.
  • the main control unit 211 controls the focusing drive unit 31A, the optical path length changing unit 41, and the galvano scanner 42 of the fundus camera unit 2, and further the light source unit 101, the optical attenuator 105, and the polarization adjuster 106 of the OCT unit 100.
  • the main control unit 211 functions as an example of a “control unit”.
  • the focusing drive unit 31A moves the focusing lens 31 in the optical axis direction. Thereby, the focus position of the photographic optical system 30 is changed.
  • the main control unit 211 can also move an optical system provided in the fundus camera unit 2 in a three-dimensional manner by controlling an optical system drive unit (not shown). This control is used in alignment and tracking. Tracking is to move the apparatus optical system in accordance with the eye movement of the eye E. When tracking is performed, alignment and focusing are performed in advance. Tracking is a function of maintaining a suitable positional relationship in which the alignment and focus are achieved by causing the position of the apparatus optical system to follow the eye movement.
  • the main control unit 211 performs a process of writing data to the storage unit 212 and a process of reading data from the storage unit 212.
  • the storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include OCT image image data, fundus image data, and examined eye information.
  • the eye information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information.
  • the storage unit 212 stores various programs and data for operating the fundus oculi observation device 1.
  • the analysis program for analyzing the fluorescence image is stored in the program storage unit 2312 described later, but the analysis program may be stored in the storage unit 212.
  • the image forming unit 220 forms tomographic image data of the fundus oculi Ef based on the detection signal from the CCD image sensor 115. This process includes processes such as noise removal (noise reduction), filter processing, FFT (Fast Fourier Transform), and the like, as in the conventional spectral domain type optical coherence tomography. In the case of another type of OCT apparatus, the image forming unit 220 executes a known process corresponding to the type.
  • the image forming unit 220 constitutes an example of a “tomographic image forming unit” together with an optical system for OCT measurement (including an interference optical system and a galvano scanner 42).
  • the galvano scanner 42 functions as an example of a “scanning unit”.
  • the image forming unit 220 includes, for example, the circuit board described above. In this specification, “image data” and “image” based thereon may be identified.
  • the image processing unit 230 performs various types of image processing and analysis processing on the image formed by the image forming unit 220. For example, the image processing unit 230 executes various correction processes such as image brightness correction and dispersion correction. The image processing unit 230 performs various types of image processing and analysis processing on the image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.
  • the image processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between tomographic images to form image data of a three-dimensional image of the fundus oculi Ef.
  • image data of a three-dimensional image means image data in which pixel positions are defined by a three-dimensional coordinate system.
  • image data of a three-dimensional image there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data.
  • the image processing unit 230 When displaying an image based on volume data, the image processing unit 230 performs a rendering process (such as volume rendering or MIP (Maximum Intensity Projection)) on the volume data, and views the image from a specific line-of-sight direction.
  • Image data of a pseudo three-dimensional image is formed. This pseudo three-dimensional image is displayed on a display device such as the display unit 240A.
  • stack data of a plurality of tomographic images is image data of a three-dimensional image.
  • the stack data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, stack data is image data obtained by expressing a plurality of tomographic images originally defined by individual two-dimensional coordinate systems by one three-dimensional coordinate system (that is, by embedding them in one three-dimensional space). is there.
  • the image processing unit 230 is provided with a scanning target position setting unit 231 and a scanning target area specifying unit 232.
  • the scanning target position setting unit 231 processes the fluorescence image of the fundus oculi Ef. More specifically, the scanning target position setting unit 231 sets the scanning target position of the signal light LS for the fluorescent image displayed on the display unit 240A.
  • the fluorescence image is an example of “distribution information”.
  • the scanning target position setting unit 231 functions as an example of a “setting unit”.
  • This fluorescent image may be a photograph taken by administering a fluorescent agent to a subject, such as a fluorescein fluorescent image or an indocyanine green fluorescent image, or a spontaneous fluorescent image without administration of the fluorescent agent. May be.
  • the scanning target position is a position where OCT measurement is to be performed, that is, a position where scanning with the signal light LS is to be performed.
  • the scanning target position can be set arbitrarily.
  • the user can set a desired scanning target position by operating the operation unit 240B. It is also possible to automatically set the scanning target position so as to pass through a predetermined area in the fluorescence image.
  • This predetermined area may be a characteristic part of the fundus such as the optic disc, the macula, or a blood vessel, or may be a part (referred to as a lesion candidate part) that is considered to be a lesion of the fundus.
  • a lesion candidate site in a fluorescence image is automatically set will be described.
  • the scanning target position setting unit 231 includes a lesion candidate site specifying unit 2311 and a setting processing unit 2316.
  • the lesion candidate site specifying unit 2311 analyzes the fluorescence image and specifies the lesion candidate site of the fundus oculi Ef.
  • the lesion candidate site specifying unit 2311 functions as an example of an “analysis unit”.
  • the process of specifying the lesion candidate site is arbitrary.
  • the lesion candidate site specifying unit 2311 performs the processing by the program storage unit 2312, the type specifying unit 2313, the program selecting unit 2314, and the fluorescence image analyzing unit 2315.
  • the program storage unit 2312 stores in advance an analysis program for analyzing the fluorescence image.
  • two or more analysis programs corresponding to two or more types of fluorescent images are stored in the program storage unit 2312 in advance.
  • the program storage unit 2312 is an example of a “first storage unit”.
  • the program storage unit 2312 stores in advance a first analysis program corresponding to the first type and a second analysis program corresponding to the second type.
  • the association between the fluorescence image type and the analysis program is stored in advance in the program storage unit 2312 as table information, for example. Note that image analysis processing based on these analysis programs will be described later.
  • the first analysis program is configured to identify a candidate lesion site from a high-luminance image region in a first type of fluorescent image, that is, a fluorescent image taken by administering a fluorescent agent.
  • the first type of fluorescent image is captured by detecting the fluorescence emitted by the fluorescent agent that has received the excitation light obtained using the exciter filter. Therefore, the fluorescence emitting parts such as the optic nerve head, blood vessels, and the fluorescence leakage part are depicted relatively brightly, and other parts are depicted relatively darkly.
  • the first analysis program is configured in consideration of such luminance characteristics.
  • the second analysis program is configured to identify a lesion candidate site from a high-luminance image region in a second type of fluorescence image, that is, a fluorescence image taken without administering a fluorescent agent.
  • the second type of fluorescent image is taken by detecting the fluorescence emitted by lipofuscin in the retinal pigment epithelium. Accordingly, a site where the retinal pigment epithelium is not present (and a site where it is almost absent), for example, the optic nerve head and blood vessels are depicted relatively dark, and other portions (eg, the fluorescence leakage site) are depicted relatively brightly.
  • the second analysis program is configured in consideration of such luminance characteristics.
  • the type specifying unit 2313 specifies the type of the fluorescent image that is the processing target.
  • the type specifying unit 2313 functions as an example of a “first type specifying unit”.
  • first type specifying unit two examples of processing for specifying the type will be described, but this processing is not limited to these methods, and any method can be applied.
  • the first example of the process for specifying the type of the fluorescence image is performed based on the luminance of the characteristic part of the fundus oculi Ef in the fluorescence image.
  • this characteristic portion for example, an optic nerve head or a blood vessel can be used.
  • this processing example will be described.
  • the type specifying unit 2313 specifies an image region (pixel) corresponding to a characteristic part based on a distribution of pixel values (luminance) of a fluorescent image. This processing is performed using, for example, threshold processing related to luminance or shape analysis (pattern matching or the like) of the image area.
  • threshold processing related to luminance or shape analysis (pattern matching or the like) of the image area.
  • the type specifying unit 2313 specifies the type of the fluorescent image based on the brightness of the specified image area and the surrounding brightness.
  • the type specifying unit 2313 uses the fluorescent agent It is determined that it is the first type imaged by administration.
  • the type specifying unit 2313 determines that the target fluorescent image is the second type taken without administering the fluorescent agent.
  • the luminance comparison is performed, for example, by calculating an average value of luminances of pixels included in both image regions. In this case, an average value can be calculated by extracting an image area of a predetermined size as a surrounding image area.
  • identification information indicating the type is associated with the fluorescent image in advance.
  • this identification information there is supplementary information (DICOM tag) of the standard DICOM (Digital Imaging and Communications in Medicine) of medical images. This supplementary information is given to the fluorescent image during or after the fluorescent photographing.
  • DICOM tag supplementary information
  • Another example of identification information is electronic medical record information.
  • the electronic medical chart is provided with a dedicated or general-purpose input space for inputting the type of fluorescent image. Identification information is input manually or automatically into this input space during or after fluorescent imaging. The automatic input is performed based on a signal input from a fundus imaging apparatus used for fluorescence imaging, for example. Further, when a type of fluorescent photographing is determined in advance, such as when a clinical path is applied, automatic input is performed based on the predetermined information.
  • the type specifying unit 2313 specifies the type of the fluorescent image that is the processing target based on the identification information as described above.
  • the program selection unit 2314 selects an analysis program corresponding to the type specified by the type specification unit 2313 from the analysis programs stored in the program storage unit 2312. This processing is performed with reference to the above-described table information stored in advance in the program storage unit 2312, for example.
  • the program selection unit 2314 functions as an example of a “first selection unit”.
  • the fluorescence image analysis unit 2315 identifies a lesion candidate site by analyzing the fluorescence image using the analysis program selected by the program selection unit 2314. An example of this processing will be described for each of the first type and the second type.
  • a case where a first type of fluorescent image using a fluorescent agent is analyzed that is, a case where a fluorescent image is analyzed using a first analysis program will be described.
  • the first type of fluorescent image the luminance of blood vessels and fluorescent leakage sites is high.
  • the result of the above-described image processing by the type specifying unit 2313 may be used.
  • the fluorescence image analysis unit 2315 identifies an image area with high brightness in the fluorescence image to be processed.
  • the fluorescence image analysis unit 2315 identifies a lesion candidate site from the identified high brightness image region. This processing is performed, for example, by dividing a high-luminance image region into connected regions and determining whether or not the connected region is a lesion candidate site based on the shape of each connected region.
  • the connected region means a set of adjacent pixels in accordance with “connected” in a mathematical sense.
  • the fluorescence image analysis unit 2315 classifies the pixels included in the high-luminance image area into a set of adjacent pixels (that is, a connected area). Further, the fluorescence image analysis unit 2315 determines, for each connected region, whether or not the shape of the connected region is linear.
  • the fluorescence image analysis unit 2315 determines the connected area determined to be linear as an image area corresponding to a blood vessel, and determines the other connected areas as fluorescent leakage sites.
  • the image area determined to be the fluorescent leakage site is set as a lesion candidate site.
  • predetermined size less than predetermined pixel number
  • regions may be noise, you may comprise so that this may be excluded.
  • the fluorescence image analysis unit 2315 first specifies an image region having a particularly low luminance in the fluorescence image. This image area corresponds to the optic nerve head and blood vessels. Next, the fluorescence image analysis unit 2315 specifies a relatively high-luminance image area in an image area other than the low-luminance image area. This relatively high brightness image area corresponds to a fluorescent leakage site (lesion candidate site).
  • Each image region specifying process by the second analysis program is the same as that by the first analysis program, but the algorithm (process flow) for specifying the fluorescence leakage site is different as described above.
  • the setting processing unit 2316 sets a scanning target position for the fluorescent image based on the lesion candidate site specified by the lesion candidate site specifying unit 2311. An example of this setting process will be described.
  • This processing example includes a process of selecting a pattern of the scanning target position and a process of determining a position in the fluorescent image where the scanning target position is set.
  • the setting processing unit 2316 performs a process of selecting a scan target position pattern.
  • This pattern includes a pattern corresponding to the scanning mode of the signal light LS described later.
  • Scanning modes include line scanning, cross scanning, radial scanning, circular scanning, concentric scanning, and helical scanning. The selection of the pattern can be performed manually or automatically.
  • the main control unit 211 can display a user interface for selecting a pattern on the display unit 240A, and the user can select a pattern using the operation unit 240B.
  • the applied pattern can be recorded in an electronic medical record or the like, and the same pattern can be applied with reference to this.
  • the setting processing unit 2316 performs processing for determining the position in the fluorescent image where the scanning target position of this pattern is set. This process is performed based on, for example, the form of the lesion candidate site.
  • the form of the lesion candidate site includes the size and shape of the lesion candidate site.
  • the setting processing unit 2316 specifies, for example, the characteristic position (center, center of gravity, characteristic shape part, etc.) of the lesion candidate part, and passes through this characteristic position. Determine the position of the linear pattern.
  • the setting processing unit 2316 when a pattern corresponding to a scan mode in which a center position exists such as a cross scan, a radial scan, a circular scan, a concentric scan, and a spiral scan is selected, the setting processing unit 2316, for example, And the position of the pattern is determined so that the center position of the pattern is arranged at the feature position.
  • the position of the rectangular pattern is determined so that the entire lesion candidate site is included.
  • the setting processing unit 2316 covers only a part of the lesion candidate site when the lesion candidate site is too large, for example, when the lesion candidate site is larger than the maximum scanning range (maximum length, maximum area, etc.).
  • the position of the pattern can be determined.
  • a plurality of positions where the pattern is set can be obtained so as to cover an area exceeding the maximum scanning range.
  • the fundus oculi observation device 1 can acquire an infrared fundus image as described above.
  • the infrared fundus image is obtained by taking a moving image of the fundus oculi Ef using infrared light.
  • the infrared fundus image is composed of a plurality of still images (frames) obtained at a predetermined frame rate. Each frame is a monochrome image of the fundus oculi Ef.
  • the scan target area specifying unit 232 specifies an image area in the infrared fundus image corresponding to the scan target position set by the scan target position setting unit 231. This image area is called a scanning target area.
  • the scan target area specifying unit 232 functions as an example of a “specifying unit”.
  • processing executed by the scan target area specifying unit 232 will be described.
  • the following processing is applied to each frame of an infrared fundus image that is a moving image. Note that it is not necessary to apply the following processing to all the frames of the infrared fundus image. For example, the processing may be performed every predetermined frame.
  • the scanning target area specifying unit 232 performs matching between the fluorescent image and the frame of the infrared fundus image.
  • This image matching process is performed, for example, by specifying an image area corresponding to a predetermined characteristic part of the fundus oculi Ef for both images and aligning the specified image areas.
  • the position (coordinates) of the pixel in the fluorescence image is associated with the position (coordinate) of the pixel in the frame.
  • the characteristic part of the specific target include an optic nerve head, a macular part, and a blood vessel (branch part thereof).
  • the scanning target area specifying unit 232 specifies the scanning target area in the frame corresponding to the scanning target position set in the fluorescent image based on the association of the pixel positions by the image matching process.
  • the scanning target area specifying unit 232 can perform the same processing for the frames of the infrared fundus image. That is, the scanning target area specifying unit 232 performs matching between the first frame and the second frame, and based on the association of the pixel positions obtained thereby, the scan area and the second frame Is associated with the image area in the frame. This process is applied to, for example, a process for specifying an image region in the second frame corresponding to the scanning target position in the first frame.
  • the program storage unit (second storage unit), the type specification unit (second type specification unit), and the program selection unit (second selection unit) similar to the lesion candidate site specification unit 2311 are scanned targets.
  • the area specifying unit 232 is provided.
  • the program storage unit stores in advance two or more image analysis programs corresponding to two or more fluorescent image types.
  • Each image analysis program is configured in consideration of the luminance characteristics of the corresponding type of fluorescent image, similarly to the analysis program.
  • the type specifying unit executes the same processing as in the case of the lesion candidate site specifying unit 2311 and specifies the type of the fluorescence image.
  • the first type specifying unit and the second type specifying unit may be integrated. In that case, the identification result by the first type identification unit (in this embodiment, the type identification unit 2313) is input to the second selection unit.
  • the program selection unit selects an image analysis program corresponding to the specified type from two or more image analysis programs stored in the program storage unit.
  • the scanning target area specifying unit 232 performs image matching between the fluorescence image and the infrared fundus image (frame thereof) using the selected image analysis program. Then, the scan target area specifying unit 232 specifies the image area in the infrared fundus image associated with the scan target position in the fluorescent image as the scan target area by this image matching.
  • the image processing unit 230 that functions as described above includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, circuit board, and the like.
  • a storage device such as a hard disk drive, a computer program for causing the microprocessor to execute the above functions is stored in advance.
  • the user interface 240 includes a display unit 240A and an operation unit 240B.
  • the display unit 240A includes the display device of the arithmetic control unit 200 and the display device 3 described above.
  • the operation unit 240B includes the operation device of the arithmetic control unit 200 described above.
  • the operation unit 240B may include various buttons, keys, and pointing devices provided on the housing of the fundus oculi observation device 1 or outside.
  • the operation unit 240B may include a joystick, an operation panel, or the like provided on the housing.
  • the display unit 240 ⁇ / b> A may include various display devices such as a touch panel provided on the housing of the fundus camera unit 2.
  • the display unit 240A and the operation unit 240B do not need to be configured as individual devices.
  • a device in which a display function and an operation function are integrated such as a touch panel
  • the operation unit 240B includes the touch panel and a computer program.
  • the operation content for the operation unit 240B is input to the control unit 210 as an electrical signal. Further, operations and information input may be performed using a graphical user interface (GUI) displayed on the display unit 240A and the operation unit 240B.
  • GUI graphical user interface
  • the scanning mode (scanning pattern) of the signal light LS by the fundus oculi observation device 1 includes, for example, a line scan, a cross scan, a radiation scan, a circle scan, a concentric scan, and a spiral (vortex) scan. These scanning modes are selectively used as appropriate in consideration of the observation site of the fundus, the analysis target (such as retinal thickness), the time required for scanning, the precision of scanning, and the like.
  • the line scan scans the signal light LS along a linear locus (straight locus).
  • the direction of the linear locus in the line scan is arbitrary.
  • Line scan includes horizontal scan, vertical scan, and diagonal scan.
  • the horizontal scan scans the signal light LS in the horizontal direction (x direction).
  • the horizontal scan also includes an aspect in which the signal light LS is scanned along a plurality of horizontal scanning lines arranged in the vertical direction (y direction). In this aspect, it is possible to arbitrarily set the scanning line interval. Further, the above-described three-dimensional image can be formed by sufficiently narrowing the interval between adjacent scanning lines (three-dimensional scanning). The same applies to vertical scanning and oblique scanning.
  • the cross scan scans the signal light LS along a cross-shaped trajectory composed of two linear trajectories orthogonal to each other.
  • a cross scan can also be configured by combining a plurality of horizontal scans and a plurality of vertical scans. For example, it is possible to combine line scans of 5 vertical and horizontal lines.
  • the signal light LS is scanned along a radial trajectory composed of a plurality of linear trajectories arranged at a predetermined angle.
  • the cross scan is an example of a radiation scan.
  • the circle scan scans the signal light LS along a circular locus.
  • the signal light LS is scanned along a plurality of circular trajectories arranged concentrically around a predetermined center position.
  • a circle scan is an example of a concentric scan.
  • the signal light LS is scanned along a spiral (spiral) locus while the radius of rotation is gradually reduced (or increased).
  • the galvano scanner 42 is configured to scan the signal light LS in directions orthogonal to each other, the signal light LS can be scanned independently in the x direction and the y direction, respectively. Further, by simultaneously controlling the directions of the two galvanometer mirrors included in the galvano scanner 42, the signal light LS can be scanned along an arbitrary locus on the xy plane. Thereby, various scanning modes as described above can be realized.
  • a tomographic image on a plane stretched by the direction along the scanning line (scanning locus) and the fundus depth direction (z direction) can be acquired.
  • the above-described three-dimensional image can be acquired particularly when the scanning line interval is narrow.
  • the region on the fundus oculi Ef to be scanned with the signal light LS as described above, that is, the region on the fundus oculi Ef to be subjected to OCT measurement is referred to as a scanning region.
  • This scanning region is substantially realized by scanning the signal light LS based on the scanning target position set in the fluorescence image.
  • the scanning area in the three-dimensional scan is a rectangular area in which a plurality of horizontal scans are arranged.
  • the scanning area in the concentric scan is a disk-shaped area surrounded by the locus of the circular scan with the maximum diameter.
  • the scanning area in the radial scan is a disk-shaped (or polygonal) area connecting both end positions of each scan line.
  • FIG. 5 illustrates an example of the operation of the fundus oculi observation device 1. It is assumed that preparations for fundus photography (alignment, focus adjustment, fixation, etc.) have already been made.
  • the fluorescence image acquired by the own device can be stored in the fundus oculi observation device 1 or another device and read and used, or the fluorescence image acquired by the other device can be used. It can also be configured to be stored on one or other device and read and used.
  • the “other apparatus” include PACS (Picture Archiving and Communication Systems), an ophthalmologic image database, and a fundus imaging apparatus that performs fluorescence imaging.
  • Fluorescence imaging of the fundus oculi Ef is performed.
  • an exciter filter and a barrier filter are arranged in the optical path, and imaging illumination light from the imaging light source 15 is used.
  • the main control unit 211 displays the fluorescent image acquired in step 1 on the display unit 240A.
  • An example of the display screen at this time is shown in FIG.
  • the display screen 300 is provided with an image display unit 310 and a GUI unit 320.
  • a fluorescent image G is displayed on the image display unit 310 by the main control unit 211.
  • Various GUIs are displayed on the GUI unit 320.
  • the GUI unit 320 at this stage is provided with an OCT mode button 321.
  • the OCT mode button 321 is operated to shift to an operation mode (OCT mode) for performing OCT measurement.
  • a shooting start button 322, a cancel button 323, a parallel movement button 324, a rotation movement button 325, and a redo button 326 are displayed.
  • the imaging start button 322 is clicked to start OCT measurement.
  • the cancel button 323 is clicked to leave the OCT mode.
  • the translation button 324 is clicked to translate the scan target position once set.
  • the parallel movement button 324 buttons for moving the scanning target position in the upward direction, the downward direction, the left direction, and the right direction are provided.
  • the translation button 324 is clicked once, the main control unit 211 moves the scanning target position by a predetermined distance.
  • the translation button 324 is an example of a “first operation unit”.
  • the rotation movement button 325 is clicked to rotate and move the scanning target position once set.
  • a button for rotating the scanning target position in the clockwise direction and a button for rotating in the counterclockwise direction are provided as the rotational movement button 325.
  • the rotational movement button 325 is clicked once, the main control unit 211 rotates the scanning target position by a predetermined angle.
  • the rotational movement button 325 is an example of a “second operation unit”.
  • the redo button 326 is operated after the scanning target position is translated or rotated, and is clicked to return the scanning target position to the state before the movement.
  • Control modes when the redo button 326 is clicked include control for returning the scanning target position to the initial position and control for returning to the state before the latest movement.
  • the type specifying unit 2313 specifies the type of the fluorescent image
  • the program selecting unit 2314 selects the analysis program corresponding to the specified type, and the fluorescence is based on the selected analysis program.
  • the image analysis unit 2315 identifies a lesion candidate site.
  • the setting processing unit 2316 sets a scanning target position based on the identified lesion candidate site.
  • the main control unit 211 displays information indicating the set scanning target position on the fluorescent image G. This display information is, for example, image information displayed so as to overlap the scanning target position. Further, when the scanning target position is two-dimensional, image information indicating the contour can be displayed. Further, for example, image information indicating the scanning target position such as image information indicating both ends of the linear pattern may be displayed around the scanning target position.
  • the user operates the operation unit 240B (pointing device such as a mouse) to input a desired scanning target position for the displayed fluorescent image.
  • the main control unit 211 displays information indicating the input scan target position. This display information is the same as in the case of automatic setting.
  • FIG. Symbol P indicates a lesion candidate site.
  • An arrow indicated by a symbol Q is display information indicating a scanning target position of a linear pattern. This arrow indicates the direction in which the signal light LS is scanned.
  • the user can change the scanning target position once set by using the parallel movement button 324 and the rotational movement button 325.
  • the scan target area specifying unit 232 specifies an image area in the infrared fundus image corresponding to the scan target position set in step 4. This process is sequentially performed in real time on the frames of the infrared fundus image obtained in time series, for example. Further, an image analysis program used in this process may be selected according to the type of fluorescent image.
  • the main control unit 211 may execute alignment and focus adjustment based on the infrared fundus image as necessary.
  • the main control unit 211 stores information indicating the still image based on one frame of the infrared fundus image and the scanning target area specified for the one frame. Is displayed.
  • the display mode is the same as the fluorescent image G and display information Q shown in FIG. 8, for example. Thus, the preparation operation for performing the OCT measurement is completed.
  • the scan target area specifying unit 232 includes a frame (referred to as a second frame) of the infrared fundus image acquired at a timing corresponding to the display in Step 8 and a frame (first frame) used in the display process in Step 8. Matching with a frame). This process is performed by applying the matching between frames described above. Thereby, the image area in the second frame corresponding to the scan target area specified for the first frame is specified. This image area becomes the scanning target area in the second frame.
  • the main control unit 211 performs OCT measurement by controlling the galvano scanner 42 based on the scanning target area of the second frame to scan the signal light LS.
  • the image forming unit 220 forms a tomographic image of the fundus oculi Ef along the scanning target area based on the detection signal output from the CCD image sensor 115 in accordance with the scanning of the signal light LS in Step 9. This tomographic image is displayed on the display unit 240A by the main control unit 211.
  • the fundus oculi observation device 1 displays a previously acquired fluorescent image of the fundus.
  • the scanning target position of the signal light LS is set for the fluorescent image
  • the fundus oculi observation device 1 in the infrared fundus image obtained by moving image shooting corresponds to an image region (scanning target region) corresponding to the scanning target position.
  • the galvano scanner 42 is controlled based on the scanning target area to perform OCT measurement.
  • the fundus oculi observation device 1 forms a tomographic image of the fundus oculi Ef based on the detection result of the interference light obtained by this OCT measurement.
  • the fundus oculi observation device 1 is configured to analyze a fluorescence image, identify a lesion candidate site of the fundus oculi Ef, and set a scanning target position based on this lesion candidate site.
  • the fundus oculi observation device 1 stores in advance an analysis program corresponding to the type of fluorescent image. Furthermore, the fundus oculi observation device 1 specifies the type of the fluorescence image displayed on the display unit 240A, and selects an analysis program corresponding to the specified type from among the analysis programs stored in advance. Then, the fundus oculi observation device 1 specifies a lesion candidate site by analyzing the fluorescence image using the selected analysis program.
  • the fundus oculi observation device 1 stores in advance an image analysis program corresponding to the type of fluorescent image. Further, the fundus oculi observation device 1 specifies the type of the fluorescence image displayed on the display unit 240A, and selects an image analysis program corresponding to the specified type from among the image analysis programs stored in advance. Then, the fundus oculi observation device 1 performs image matching between the fluorescence image and the infrared fundus image using the selected image analysis program, and the infrared fundus associated with the scanning target position in the fluorescence image by this image matching. An image area in the image is specified as a scanning target area.
  • the types of fluorescent images include a first type that is imaged by administering the fluorescent agent and a second type that is imaged without administering the fluorescent agent.
  • the fundus oculi observation device 1 specifies the type of fluorescent image based on the luminance of the characteristic part of the fundus oculi Ef in the fluorescent image displayed on the display unit 240A.
  • the fundus oculi observation device 1 can specify the type of the fluorescent image based on the identification information.
  • the fundus oculi observation device 1 has an operation unit that receives an operation for setting a scanning target position.
  • the operation unit includes an operation unit 240B (pointing device) and a GUI displayed on the display unit 240A.
  • the operation unit includes a first operation unit that receives an operation for moving the scanning target position in parallel, and a second operation unit that receives an operation for rotating the scanning target position.
  • the fundus oculi observation device 1 corresponds to the fact that the scan target area corresponding to the scan target position is specified, and the still image based on one frame of the infrared fundus image and the information indicating the scan target area specified for the one frame. Are displayed on the display 240A.
  • the fundus oculi observation device 1 matches the new frame of the infrared fundus image obtained at the timing corresponding to the display with the one frame, thereby obtaining the 1 An image area in a new frame corresponding to the scan target area specified for the frame is specified. Then, the fundus oculi observation device 1 performs OCT measurement by controlling the galvano scanner 42 based on the image area in the new frame and scanning the signal light LS.
  • a scan target area in an infrared fundus image corresponding to a scan target position set for a fluorescent image is specified, and the signal light LS is scanned based on the scan target area.
  • OCT measurement can be performed.
  • the scanning target position can be set based on the abnormal part (lesion candidate part) grasped from the fluorescence image. Therefore, it is possible to easily perform OCT measurement of an abnormal part grasped from the fluorescence image.
  • the scanning target position set for the fluorescence image acquired in the past is applied to the current OCT measurement via the infrared fundus image obtained in real time.
  • the second embodiment a case where past information other than the fluorescence image and / or a fundus image other than the infrared fundus image is used will be described.
  • the past information other than the fluorescence image is called distribution information.
  • the distribution information is information representing the distribution of examination results on the fundus acquired by examinations performed in the past. As described above, the inspection includes “imaging” and “measurement”.
  • an infrared image is an image obtained by photographing (infrared photography) using light in the wavelength band of the infrared region, and means both a frame obtained by moving image photography and a still image obtained by still image photography.
  • the non-red light image is an image obtained by photographing using visible light in a wavelength band excluding red (red-free photographing).
  • the projection image is a front image of the fundus obtained by projecting a three-dimensional image obtained by OCT in the z direction.
  • the shadowgram is a front surface of the fundus obtained by projecting a part of a depth region of a three-dimensional image obtained by OCT (for example, a depth region from a predetermined first layer to a second layer) in the z direction. It is an image.
  • An image obtained by photographing the fundus is composed of a plurality of pixels to which position information (coordinates) on the fundus and pixel values (luminance values, RGB values, etc.) are assigned. That is, the image is distribution information in which the pixel value is the inspection result.
  • measurement is an examination for obtaining the distribution of measured values on the fundus.
  • Such measurements include, for example, a visual field test that measures the range of the visual field using a perimeter, an SLO microperimetry that measures retinal visual sensitivity, and the thickness of the fundus layer using an OCT or nerve fiber layer analyzer.
  • the field inspection is described in, for example, Japanese Patent Application Laid-Open No. 2009-34480
  • the SLO microperimetry is described in Japanese Patent Application Laid-Open No. 2003-235800
  • the layer thickness measurement is described in Japanese Patent Application Laid-Open No. 2009-34480.
  • Measurement result information obtained by such measurement is obtained by assigning measurement values to position information (coordinates) on the fundus. That is, the measurement result information is distribution information having the measurement value as the inspection result.
  • these images are all images representing the form of the fundus viewed from the front (corneal side).
  • the fluorescent image of the form it is possible to scan the signal light based on the scanning target position set for the image.
  • a tomographic image or a three-dimensional image (OCT image) by OCT is used as distribution information
  • an image region (fundus surface region) corresponding to the surface of the fundus is specified, and further, the fundus surface region and the infrared fundus image are displayed.
  • image matching can be performed.
  • an image (scanned image) obtained by scanning light on the fundus such as an SLO image or an OCT image
  • scanning position information for example, each of the light scanning positions in this scanning
  • image matching between the scanned image and the infrared fundus image is performed. It can be carried out.
  • the alignment of the infrared fundus image acquired in real time and the distribution information acquired in the past is performed, but the image to be registered for the distribution information is limited to the infrared fundus image. Absent. That is, if the image to be aligned is an image of the fundus that can be aligned with an OCT image obtained by OCT measurement performed continuously or in parallel (sometimes simply referred to as a fundus image). Good.
  • the fundus image may be a front image, a tomographic image, or a three-dimensional image. In the case of a front image, alignment with distribution information can be performed in the same manner as in the above example. In the case of a tomographic image or a three-dimensional image, it is possible to perform alignment with the distribution information by specifying the fundus surface area in real time as described above.
  • the fundus image acquired in real time and the distribution information acquired in the past are directly aligned, but they are configured to align these via other images of the fundus. Is also possible.
  • the accuracy and accuracy of alignment may be reduced.
  • alignment is performed via an image that is the same type as the fundus image and can be aligned with the distribution information (or has already been aligned with the distribution information).
  • an infrared fundus image or a non-red light image
  • another type of image or measurement result information may be used as distribution information.
  • an image of the fundus is generally acquired together with the measurement result information.
  • an infrared fundus image or a non-red light image
  • alignment between the infrared fundus images (or the non-red light images) can be performed.
  • the type of fundus image acquired in real time may be selected according to the type of image acquired together with other types of images or measurement result information.
  • an image serving as an alignment medium is stored in the storage unit 212, for example.
  • the storage unit 212 functions as an example of an “image storage unit”.
  • the image storage unit may be stored in a storage device external to the fundus oculi observation device. Examples of the external storage device include a storage device mounted on a computer connected to the fundus observation device, a fundus observation device, or a storage device connected to the computer directly or via a network.
  • This fundus oculi observation device capable of performing alignment through another type of image or an image acquired together with measurement result information will be described.
  • This fundus oculi observation device has, for example, the configuration shown in FIGS. 1 to 3 (including FIG. 4 as necessary) as in the first embodiment.
  • the reference numerals used in the first embodiment are used as appropriate.
  • the storage unit 212 stores distribution information and an image of the fundus oculi Ef acquired together with the distribution information (for example, a frame of an infrared fundus image; referred to as an accompanying image).
  • the incidental image may be an image other than an infrared image or a non-red light image.
  • the OCT image can be made an auxiliary image by aligning the measurement result information obtained by the visual field inspection and the OCT image using a technique described in Japanese Patent Application Laid-Open No. 2009-34480. Further, by aligning the measurement result information obtained by SLO microperimetry and the SLO image using a technique described in Japanese Patent Application Laid-Open No. 2003-235800, the SLO image can be made an auxiliary image. . Further, the OCT image is made an auxiliary image by aligning the measurement result information obtained by the layer thickness measurement using the OCT and the OCT image by using a technique described in Japanese Patent Application Laid-Open No. 2009-34480. be able to.
  • the main control unit 211 reads distribution information and incidental images from the storage unit 212.
  • the main control unit 211 displays the distribution information read in step 21 on the display unit 240A.
  • the distribution information is displayed on a predetermined display screen. This display screen is provided with a GUI unit similar to that of the first embodiment, for example.
  • the main control unit 211 can display the measurement result information superimposed on the accompanying image. Accordingly, it is possible to easily grasp the positional relationship between the incidental image that is an image of the fundus and the measurement result information that represents the distribution of the measurement results. That is, it is possible to intuitively understand how the measurement result information is distributed in the fundus oculi Ef. By applying this superimposed display process, it is possible to facilitate the manual setting of the scanning target position in step 24.
  • the user operates the GUI unit to instruct a shift to the OCT mode.
  • the main control unit 211 changes the display content of the GUI unit, for example, as in the first embodiment. For example, a shooting start button, a parallel movement button, a rotation movement button, and the like are displayed in the GUI portion whose display contents are changed.
  • the scanning target position setting unit 231 sets a scanning target position for the displayed distribution information. This setting process is performed automatically or manually as in the first embodiment, for example.
  • the main control unit 211 Upon receiving an instruction to start OCT measurement, the main control unit 211 turns on the observation light source 11. Thereby, an infrared fundus image is obtained in real time.
  • the main control unit 211 can display the infrared fundus image as a moving image in real time.
  • the scan target area specifying unit 232 specifies an image area in the incidental image corresponding to the scan target position set for the distribution information in step 24. This process is performed, for example, based on the association of positions already made between the distribution information and the accompanying image. Further, the scan target area specifying unit 232 specifies an image area in the infrared fundus image corresponding to the image area in the accompanying image. This processing is sequentially performed in real time between each frame of the infrared fundus image obtained in time series and the accompanying image, for example. At this time, an image analysis program used in this process may be selected according to the type of the accompanying image.
  • the main controller 211 can execute alignment and focus adjustment based on the infrared fundus image as necessary.
  • the main control unit 211 includes information indicating the still image based on one frame of the infrared fundus image and the scanning target area specified for the one frame. Is displayed.
  • the display mode is the same as that of the first embodiment, for example. Thus, the preparation operation for performing the OCT measurement is completed.
  • the scanning target area specifying unit 232 includes a frame (referred to as a second frame) of the infrared fundus image acquired at the timing corresponding to the display in step 28, and a frame (first frame) used for the display process in step 28. Matching with a frame). This process is performed, for example, by applying the matching between frames described in the first embodiment. Thereby, the image area in the second frame corresponding to the scan target area specified for the first frame is specified. This image area becomes the scanning target area in the second frame.
  • the main control unit 211 performs OCT measurement by controlling the galvano scanner 42 based on the scanning target area of the second frame to scan the signal light LS.
  • the image forming unit 220 forms a tomographic image of the fundus oculi Ef along the scanning target region based on the detection signal output from the CCD image sensor 115 as the signal light LS is scanned in step 29.
  • This tomographic image is displayed on the display unit 240A by the main control unit 211. This is the end of the description of this operation example.
  • the distribution information is an arbitrary image of the fundus or arbitrary measurement result information.
  • the image storage unit such as the storage unit 212, an incidental image of the fundus oculi Ef acquired together with the distribution information is stored.
  • the arbitrary image and the accompanying image are, for example, different types of images.
  • the scanning target position setting unit 231 sets the scanning target position for the distribution information displayed on the display unit 240A.
  • the scan target area specifying unit 232 specifies an image area in the auxiliary image corresponding to the scan target position set for the distribution information, and further specifies an image area in the fundus image corresponding to the image area.
  • This fundus image is, for example, a moving image (for example, an infrared fundus image, a non-red light image, an SLO image, etc.) acquired in real time by a fundus observation device.
  • the main control unit 211 controls the galvano scanner 42 based on the image area in the fundus image specified by the scan target area specifying unit 232 to scan the signal light LS.
  • the image forming unit 220 forms a tomographic image of the fundus oculi Ef based on the detection result of the interference light LC accompanying the scanning of the signal light LS based on this control.
  • the scan target position set for the distribution information can be transferred to the real-time fundus image via the accompanying image acquired together with the scan target position specified thereby.
  • OCT measurement can be performed on the target area. Therefore, it is possible to easily perform OCT measurement of a site of interest obtained from any type of distribution information.
  • OCT measurement of the region of interest can be performed with high accuracy and high accuracy.
  • FIG. 10 shows a configuration example of the fundus oculi observation device according to this embodiment.
  • This fundus oculi observation device has substantially the same configuration as that of the first embodiment. The difference is that a scanning condition setting unit 213 is provided in the control unit 210.
  • the main control unit 211 of this embodiment functions as an example of a “display control unit”. The operation contents of the scanning condition setting unit 213 and the main control unit 211 will be appropriately described below.
  • the main control unit 211 displays an alignment screen 400 as shown in FIG. 11 on the display unit 240A.
  • the alignment screen 400 is provided with an image display unit 410 that displays two images to be aligned. Below the image display section 410, a registration button 421, a cancel button 422, and an OK button 423 are provided.
  • the two images displayed on the image display unit 410 may be any combination.
  • the image H1 displayed on the left side is an infrared fundus image of the fundus oculi Ef acquired in real time by the fundus oculi observation device.
  • the display form of the infrared fundus image H1 may be a moving image display or a still image display based on one frame.
  • the image H2 displayed on the right side is a color fundus image of the fundus oculi Ef acquired in the past.
  • a scanning target position is set for a color fundus image of the fundus oculi Ef acquired in the past and OCT measurement of the fundus oculi Ef is performed based on the scanning target position.
  • the user observes the infrared fundus image H1 and the color fundus image H2, and specifies at least three feature points of the fundus oculi Ef. Further, the user uses the operation unit 240B (pointing device such as a mouse) to display the image positions corresponding to the three or more specified feature points with respect to each of the infrared fundus image H1 and the color fundus image H2. specify.
  • the main control unit 211 superimposes and displays information indicating the designated image position on each of the images H1 and H2. Examples of feature points include the center and edge of the optic disc, characteristic blood vessels, blood vessel bifurcations, and lesions.
  • enhancement processing can be performed on the image.
  • This enhancement process is performed by, for example, performing a two-dimensional Fourier transform or discrete cosine transform on the image to form an image in a frequency space, and removing a predetermined low frequency component in the frequency space, or a predetermined This is executed by applying a band-pass filter that removes the low-frequency component and the predetermined high-frequency component.
  • the range of frequency components to be removed is set as appropriate based on the low frequency components to be removed in real space, the degree of improvement in contrast, and the like.
  • the removal range of the frequency component may be a range set in advance or may be a range set by analyzing an image in the frequency space.
  • a smoothing process is performed on an image to form a smoothed image.
  • a difference image between the smoothed image and the image is formed.
  • the image from which the low frequency component is removed is formed by synthesizing the image and the difference image.
  • a difference image is formed by multiplying the image and / or the smoothed image by a predetermined weight, and the difference image is divided by a value obtained by subtracting the weight from 1 in the synthesis process. It is possible to configure.
  • the weight may be set to a value of 0.7 to 0.9, and a difference image between the smoothed image multiplied by the value and the image may be formed in the difference process.
  • the enhancement processing execution instruction as described above is performed, for example, by operating an enhancement processing designating unit 529 described later.
  • FIG. 12 shows an example of the display mode when four feature points are designated for each of the images H1 and H2.
  • the dots J1 (i) and J2 (i) show the same feature points.
  • the feature points between the two images H1 and H2 may be associated by the user or the main control unit 211.
  • the user inputs identification information indicating each feature point using the operation unit 240B, and the main control unit 211 identifies between the two images H1 and H2.
  • the above association is made by collating information.
  • the main control unit 211 associates feature points at corresponding positions between the two images H1 and H2 as the same thing based on the positional relationship between the designated feature points.
  • the image processing unit 230 aligns the corresponding feature points between the two images H1 and H2 to thereby match the two images H1 and H2. Align between them.
  • the coordinates in the infrared fundus image H1 and the coordinates in the color fundus image H2 are associated with each other. Thereby, when the position in one image of the two images H1 and H2 is designated, the position in the other image corresponding to this designated position is specified. This specifying process is executed by the main control unit 211 or the image processing unit 230, for example.
  • the main control unit 211 displays a scanning target position setting screen 500 as shown in FIG. 13 on the display unit 240A.
  • the scanning target position setting screen 500 includes an image display unit 510, a scanning pattern designation unit 521, a scanning length designation unit 522, an addition average number designation unit 523, a scanning pitch designation unit 524, a position reset button 525, an original image display button 526, A reference image display button 527, a captured image display button 528, an emphasis processing designation unit 529, an OK button 530, and a cancel button 531 are provided.
  • An image H presented in the image display unit 510 of FIG. 13 shows an infrared fundus image H1 or a color fundus image H2.
  • the image H includes the image.
  • the display of the image on the image display unit 510 is a switching display.
  • the main control unit 211 causes the image display unit 510 to display the infrared fundus image H1.
  • the main control unit 211 causes the image display unit 510 to display the color fundus image H2.
  • the main control unit 211 causes the image display unit 510 to display other captured images (for example, incidental images).
  • the scanning pattern designation unit 521, the scanning length designation unit 522, the addition average number designation unit 523, the scanning pitch designation unit 524, and the position reset button 525 are used for the scanning condition input operation in the OCT measurement.
  • the scanning condition means one or more parameters that determine how the signal light LS is scanned. This parameter includes a scanning pattern representing the scanning shape, a scanning length representing the scanning length, an addition average number representing the number of times of scanning to obtain one image, and a scanning point (irradiation spot of the signal light LS).
  • the scanning pitch representing the interval of the above is included.
  • the scanning pattern designating unit 521 is used for designating which one of various scanning patterns as listed in the first embodiment is selectively used. 13 is a pull-down menu, the present invention is not limited to this.
  • the designation result is sent to the scanning condition setting unit 213.
  • the scan length designation unit 522 is used for designating the scan length.
  • the definition of the scanning length is determined in advance according to the scanning pattern, for example. For example, in a scanning pattern composed of a line scan and a combination thereof, the length of each scanning line is a scanning length, and in a circular scanning, the diameter of a circular scanning line is a scanning length. 13 is provided with a plurality of check boxes as options, but the invention is not limited to this (the same applies hereinafter).
  • the addition average number designation unit 523 is used for designating the number of repetitions of scanning.
  • the signal light LS is repeatedly scanned along the same scanning line a designated number of times.
  • the image forming unit 220 forms a tomographic image with reduced random noise by averaging a plurality of data (images) obtained along the same scanning line.
  • the designation result is sent to the scanning condition setting unit 213.
  • the scanning pitch designation unit 524 is used for designating an interval (scanning pitch) between scanning points.
  • the scanning pitch is designated using the scanning pitch designation unit 524, the designation result is sent to the scanning condition setting unit 213.
  • the scanning condition setting unit 213 (or the storage unit 212), information indicating options for each of the above scanning conditions is stored in advance.
  • the scanning condition setting unit 213 refers to this information and combines the scanning conditions specified as described above. For example, “5-line scan” consisting of five line scans in the vertical and horizontal directions is designated as the scan pattern, “6 mm” is designated as the scan length, “16” is designated as the addition average number, and “0.
  • the scanning condition setting unit 213 When “10” is designated, the scanning condition setting unit 213 generates scanning condition information obtained by combining these with reference to the above information, and sends the scanning condition information to the main control unit 211.
  • the scanning condition setting unit 213 and the user interface 240 constitute a “scanning condition setting unit”.
  • the “scanning condition setting unit” does not need to include the user interface 240.
  • This automatic setting is used when the same scanning conditions as the past are applied, such as follow-up observation and pre- and post-operative observation. Also, automatic setting can be applied when conditions such as a disease name or medical condition are associated with scanning conditions in advance.
  • the main control unit 211 determines display contents on the image display unit 510 based on the scanning condition information generated by the scanning condition setting unit 213 and causes the image display unit 510 to display the content.
  • FIG. 13 illustrates an example in which a scannable range image 511, a scan center movable range image 512, and a scan pattern image 513 are superimposed and displayed on the image H.
  • the scannable range image 511 is a frame-like image showing a range in which scanning can be performed based on the scanning condition.
  • the shape of the scannable range image 511 is determined according to the specified content of the scan pattern, and the size thereof is determined according to the specified content of the scan length (and the shooting angle of view and / or display size of the image H).
  • the scan center movable range image 512 is a frame-like image showing a range in which the center position of the scan can be moved in the scan based on the scan condition.
  • the shape of the scan center movable range image 512 is determined according to the specified content of the scan pattern, and the size thereof is determined according to the specified content of the scan length (and the shooting angle of view and / or display size of the image H). .
  • the scanning pattern image 513 is an image having a shape indicating a designated scanning pattern. Note that the scan pattern image 513 does not have to have the same shape as the designated scan pattern. For example, the scan pattern image 513 shown in FIG. 13 shows “5-line scan”, but only the end of “5-line scan” is presented. This is because if the portion other than the end portion of “5-line scan” (particularly the central portion) is superimposed on the image H, observation of the image H may be hindered.
  • the user can move the scanning pattern image 513 using the operation unit 240B.
  • This is an example of an operation for changing the scanning position.
  • This operation is performed using a pointing device such as a mouse.
  • the scanning pattern image 513 can be translated on the image H by performing a drag operation in a state where the pointer is positioned at a part other than a predetermined part (for example, an end) of the scanning pattern image 513.
  • the scanning pattern image 513 can be rotated on the image H by performing a drag operation with the pointer positioned on the predetermined portion of the scanning pattern image 513.
  • the rotation center at this time is an arbitrary position on the scanning pattern image 513 or a position designated in advance on the image H. Further, by clicking on an arbitrary position on the image H, the scanning pattern image 513 can be moved so that the center position of the scanning is arranged at the click position.
  • the scannable range image 511 need not always be displayed.
  • the main control unit 211 causes the scanable range image 511 to be superimposed and displayed in response to an operation for setting the scan target position in the external region within the range defined by the scanable range image 511.
  • the scan target position is set so that the scan center is located in the external area of the scan center movable range image 512.
  • Such display control is executed based on the fact that the positional relationship between the scannable range, the scan center movable range, and the image H is already associated.
  • the main control unit 211 scans the internal area of the scannable range in the scan pattern.
  • the image 513 may be moved and displayed in a superimposed manner. The same applies to the case where the scan target position is set so that the scan center is located in the external area of the scan center movable range image 512. In such processing, the movement destination of the scanning target position is arbitrarily determined.
  • a position on a line segment connecting a predetermined reference position for example, the center position of the image H
  • the set position of the scan target position and belonging to the internal area of the scannable range or the scan center movable range It can be set as the movement destination of the set scanning target position.
  • the position reset button 525 is used to reset such a manual change of the scanning target position and return to a predetermined default position.
  • the user sets the scanning target position while referring to the image H.
  • the scanning target area specifying unit 232 displays the color fundus image.
  • the scan target position position of the scan pattern image 513 set for the image H2 based on the image alignment result
  • the infrared fundus image H1 corresponding to the set scan target position is changed. Specify the image area.
  • the main control unit 211 causes the image display unit 510 to display the infrared fundus image H1, and causes the scan pattern image 513 to be superimposed on the specified image area.
  • the display position on the infrared fundus image H1 is similarly changed based on the image alignment result. That is, according to this operation example, in response to switching of the displayed image, the display positions of the scanable range image 511, the scan center movable range image 512, and the scan pattern image 513 are shifted between the images. It can be changed according to.
  • the main control unit 211 causes the OCT measurement to be performed under the scanning conditions indicated by the scanning pattern image 513 on the infrared fundus image H1 (and the scanning conditions of the addition average number and scanning pitch).
  • the distribution information is an image (particularly the color fundus image H2)
  • the same processing can be performed when the distribution information is measurement result information.
  • the scan target position set for the measurement result information can be moved to the infrared fundus image (real-time fundus image) via the accompanying image.
  • an auxiliary image and an infrared fundus image are displayed side by side on the image display unit 410 of the alignment screen 400 shown in FIG.
  • the main control unit 211 can superimpose and display the measurement result information on the incidental image based on the known positional relationship between the incidental image and the measurement result information.
  • the position of the measurement result information in the incidental image that is, the position of the measurement result information in the fundus oculi Ef can be easily grasped, and the setting of the scanning target position can be facilitated.
  • the main control unit 211 can also superimpose and display the measurement result information on the infrared fundus image based on the positional relationship and the image alignment result. Thereby, the position of the measurement result information in the fundus image obtained in real time, that is, the position of the measurement result information in the currently observed fundus Ef can be easily grasped.
  • This fundus oculi observation device can superimpose and display settable range information indicating a range in which a scan target position can be set (settable range) on distribution information.
  • This settable range information is, for example, a scannable range image 511 and a scan center movable range image 512. Thereby, the setting operation of the scanning target position can be supported. Further, it is possible to prevent setting mistakes in the scanning target position.
  • this fundus oculi observation device can display the settable range information superimposed on the distribution information in response to an operation for setting the scanning target position in the external region of the settable range in the distribution information. .
  • the distribution information can be suitably observed, and when the setting of the scanning target position is inappropriate, the user can be recognized as such.
  • this fundus oculi observation device has a scanning condition setting unit 213 for setting the scanning conditions for the signal light LS in addition to the configuration of the above embodiment.
  • the main control unit 211 (display control unit) of the fundus oculi observation device can switch the form of the settable range information to be superimposed and displayed on the distribution information in accordance with the scan condition setting result. Accordingly, the settable range information in a form corresponding to the scanning condition setting result is superimposed and displayed on the distribution information, so that the setting of the scanning target position can be favorably supported.
  • the scanning target area specifying unit 232 of the fundus oculi observation device sets the inner area of the settable range.
  • a new scanning target position can be set.
  • a new scanning target position can be automatically set at an appropriate position, so that the setting of the scanning target position is favorably supported. Is possible. It is also possible to determine a new scanning target position in consideration of the scanning target position set by the user.
  • this fundus oculi observation device can superimpose measurement result information on an accompanying image. Thereby, the setting of the scanning target position can be favorably supported.
  • this fundus oculi observation device can display measurement result information superimposed on a fundus image (infrared fundus image or the like). Thereby, it is possible to easily grasp the position of measurement result information on the fundus oculi Ef currently being observed.
  • the OCT image, distribution information (image, measurement result information), incidental image, and real-time fundus image obtained thereby can be displayed side by side in any combination. it can.
  • the optical path length difference between the optical path of the signal light LS and the optical path of the reference light LR is changed by changing the position of the optical path length changing unit 41, but this optical path length difference is changed.
  • the method is not limited to this.
  • it is possible to change the optical path length difference by disposing a reflection mirror (reference mirror) in the optical path of the reference light and moving the reference mirror in the traveling direction of the reference light to change the optical path length of the reference light.
  • the optical path length difference may be changed by moving the fundus camera unit 2 or the OCT unit 100 with respect to the eye E to change the optical path length of the signal light LS.
  • the optical path length difference can be changed by moving the measured object in the depth direction (z direction).
  • the computer program for realizing the above embodiment can be stored in any recording medium readable by the computer.
  • this recording medium for example, a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), etc. Can be used.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Hematology (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

 検査結果に基づく眼底のOCT計測の計測位置を容易に設定することが可能な技術を提供する。眼底観察装置の表示部は、過去の検査により取得された眼底における検査結果の分布情報を表示する。撮影部は眼底の動画撮影を行う。断層像形成部は、眼底を経由した信号光と参照光とを干渉させて干渉光を生成して検出する光学系と、眼底を信号光で走査する走査部とを含み、走査に伴う干渉光の検出結果に基づいて眼底の断層像を形成する。設定部は、表示部に表示された分布情報に対して信号光の走査目標位置を設定する。特定部は、動画撮影により得られた眼底画像において走査目標位置に対応する画像領域を特定する。制御部は、特定された画像領域に基づき走査部を制御して信号光を走査させる。断層像形成部は、制御に基づく信号光の走査に伴う干渉光の検出結果に基づいて断層像を形成する。

Description

眼底観察装置
 この発明は、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)を用いて眼底の画像を取得する眼底観察装置に関する。
 近年、レーザ光源等からの光ビームを用いて被測定物体の表面形態や内部形態を表す画像を形成するOCTが注目を集めている。OCTは、X線CTのような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。たとえば眼科分野においては、眼底や角膜等の画像を形成する装置が実用化されている。
 特許文献1には、いわゆる「フーリエドメインOCT(Fourier Domain OCT)」の手法を用いた装置が開示されている。すなわち、この装置は、被測定物体に対して低コヒーレンス光のビームを照射し、その反射光と参照光とを重ね合わせて干渉光を生成し、この干渉光のスペクトル強度分布を取得してフーリエ変換を施すことにより被測定物体の深度方向(z方向)の形態を画像化するものである。更に、この装置は、光ビーム(信号光)をz方向に直交する1方向(x方向)に走査するガルバノミラーを備え、それにより被測定物体の所望の測定対象領域の画像を形成するようになっている。この装置により形成される画像は、光ビームの走査方向(x方向)に沿った深度方向(z方向)の2次元断層像となる。なお、この手法は、特にスペクトラルドメイン(Spectral Domain)とも呼ばれる。
 特許文献2には、信号光を水平方向(x方向)及び垂直方向(y方向)に走査(スキャン)することにより水平方向の2次元断層像を複数形成し、これら複数の断層像に基づいて測定範囲の3次元の断層情報を取得して画像化する技術が開示されている。この3次元画像化としては、たとえば、複数の断層像を垂直方向に並べて表示させる方法や(スタックデータなどと呼ばれる)、スタックデータに基づくボリュームデータ(ボクセルデータ)にレンダリング処理を施して3次元画像を形成する方法などがある。
 特許文献3、4には、他のタイプのOCT装置が開示されている。特許文献3には、被測定物体に照射される光の波長を走査(波長掃引)し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光を検出してスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化するOCT装置が記載されている。このようなOCT装置は、スウェプトソース(Swept Source)タイプなどと呼ばれる。スウェプトソースタイプはフーリエドメインタイプの一種である。
 特許文献4には、OCTを眼科分野に適用した構成が開示されている。なお、OCTが応用される以前には、被検眼を観察するための装置として眼底カメラやスリットランプなどが使用されていた(たとえば特許文献5、特許文献6を参照)。眼底カメラは被検眼に照明光を照射し、その眼底反射光を受光することで眼底を撮影する装置である。スリットランプは、スリット光を用いて角膜の光切片を切り取ることにより角膜の断面の画像を取得する装置である。
 OCTを用いた装置は、高精細の画像を取得できる点、更には断層像や3次元画像を取得できる点などにおいて、眼底カメラ等に対して優位性を持つ。
 このように、OCTを用いた装置は被検眼の様々な部位の観察に適用可能であり、また高精細な画像を取得できることから、様々な眼科疾患の診断への応用がなされてきている。
特開平11-325849号公報 特開2002-139421号公報 特開2007-24677号公報 特開2008-73099公報 特開平9-276232号公報 特開2008-259544号公報
 眼底検査において、血管の状態や血流の状態を把握するための蛍光造影撮影が行われている。蛍光造影撮影には、蛍光剤(フルオレセイン、インドシアニングリーン等)を用いるものと、蛍光剤を用いない自発蛍光撮影(自家蛍光撮影)がある。
 従来、蛍光造影撮影により得られた画像(蛍光画像と呼ぶ)とOCT計測で得られた断層像とを比較観察する場合、蛍光画像とOCT計測時に撮影された眼底画像との位置合わせを行うことで蛍光画像中の異常部位に相当する眼底画像中の位置を特定し、あたかもその位置の断層像が得られたかのように表示を行なっていた。つまり、従来は、蛍光画像と断層像との位置合わせを後処理として行なっていた。
 このような現状に対し、蛍光画像から把握された異常部位の深部の状態を把握するために、その異常部位を実際にOCT計測して断層像を取得したいとの要望があった。また、上記の後処理は、蛍光画像と眼底画像とを比較して行わなければならず、ユーザにとって煩わしい作業であった。
 また、蛍光造影撮影以外の検査の結果に基づいてOCT計測を行う位置を決定したいという要望もあった。ここで、蛍光造影撮影以外の検査には、眼底の画像を取得するための撮影(画像化)や、眼底の機能状態を取得するための測定(眼底機能測定)などがある。画像化により取得される画像としては、カラー眼底像、SLO(Scanning Laser Ophthalmoscope)画像、OCTによる3次元画像、この3次元画像をz方向に積算(投影)して得られるプロジェクション画像、この3次元画像の深さ領域の一部をz方向に積算(投影)して得られるシャドウグラムなどがある。また、眼底機能測定としては、たとえば、視野計を用いて視野の範囲を測定する視野検査、網膜視感度を測定するSLOマイクロペリメトリ(SLOスコトメトリ)、OCTや神経線維層解析装置を用いて眼底の層の厚みを測定する層厚測定のように、眼底における測定値の分布を取得するための測定がある。
 このような検査の結果に基づいてOCT計測を行う位置を設定する作業は、蛍光造影撮影の場合と同様に煩わしいものであった。
 この発明は、上記の問題を解決するためになされたものであり、その目的は、検査結果に基づく眼底のOCT計測の計測位置を容易に設定することが可能な技術を提供することにある。
 上記目的を達成するために、請求項1に記載の発明は、過去に実施された検査により取得された眼底における検査結果の分布情報を表示する表示部と、前記眼底の動画撮影を行う撮影部と、前記眼底を経由した信号光と参照光とを干渉させて干渉光を生成して検出する光学系と、前記眼底を前記信号光で走査する走査部とを含み、前記走査に伴う前記干渉光の検出結果に基づいて前記眼底の断層像を形成する断層像形成部と、前記表示部に表示された前記分布情報に対して前記信号光の走査目標位置を設定する設定部と、前記動画撮影により得られた眼底画像において前記走査目標位置に対応する画像領域を特定する特定部と、特定された前記画像領域に基づき前記走査部を制御して前記信号光を走査させる制御部とを有し、前記断層像形成部は、前記制御に基づく前記信号光の走査に伴う前記干渉光の検出結果に基づいて断層像を形成することを特徴とする眼底観察装置である。
 また、請求項2に記載の発明は、請求項1に記載の眼底観察装置であって、前記設定部は、前記分布情報を解析して前記眼底の病変候補部位を特定する解析部を含み、特定された前記病変候補部位に基づいて前記走査目標位置を設定することを特徴とする。
 また、請求項3に記載の発明は、請求項2に記載の眼底観察装置であって、前記解析部は、2以上の分布情報の種別に対応する2以上の解析プログラムをあらかじめ記憶した第1の記憶部と、前記表示部に表示された前記分布情報の種別を特定する第1の種別特定部と、特定された種別に対応する解析プログラムを前記2以上の解析プログラムから選択する第1の選択部とを含み、選択された解析プログラムを用いて当該分布情報を解析して前記病変候補部位を特定することを特徴とする。
 また、請求項4に記載の発明は、請求項3に記載の眼底観察装置であって、前記第1の種別特定部は、表示された前記分布情報における前記眼底の特徴部位の検査結果に基づいて当該分布情報の種別を特定する。
 また、請求項5に記載の発明は、請求項3に記載の眼底観察装置であって、表示された前記分布情報は、その種別を示す所定の識別情報とあらかじめ関連付けられており、前記第1の種別特定部は、前記識別情報に基づいて当該分布情報の種別を特定することを特徴とする。
 また、請求項6に記載の発明は、請求項1~請求項5のいずれか一項に記載の眼底観察装置であって、前記分布情報は、画素値を前記検査結果とする前記眼底の画像を含み、前記特定部は、2以上の画像の種別に対応する2以上の画像解析プログラムをあらかじめ記憶した第2の記憶部と、前記表示部に表示された前記画像の種別を特定する第2の種別特定部と、特定された種別に対応する画像解析プログラムを前記2以上の画像解析プログラムから選択する第2の選択部とを含み、選択された画像解析プログラムを用いて当該画像と前記眼底画像との画像マッチングを行い、当該画像マッチングにより当該画像中の前記走査目標位置に対応付けられた前記眼底画像中の画像領域を特定することを特徴とする。
 また、請求項7に記載の発明は、請求項6に記載の眼底観察装置であって、前記第2の種別特定部は、表示された前記画像における前記眼底の特徴部位の画素値に基づいて当該画像の種別を特定することを特徴とする。
 また、請求項8に記載の発明は、請求項6に記載の眼底観察装置であって、表示された前記画像は、その種別を示す所定の識別情報とあらかじめ関連付けられており、前記第2の種別特定部は、前記識別情報に基づいて当該画像の種別を特定することを特徴とする。
 また、請求項9に記載の発明は、請求項3~請求項8のいずれか一項に記載の眼底観察装置であって、前記分布情報は、画素値を前記検査結果とする前記眼底の蛍光画像を含み、蛍光画像の種別は、蛍光剤を投与して撮影される第1の種別と、蛍光剤を投与せずに撮影される第2の種別とを含むことを特徴とする。
 また、請求項10に記載の発明は、請求項1~請求項8のいずれか一項に記載の眼底観察装置であって、前記分布情報は、画素値を前記検査結果とする前記眼底の蛍光画像、赤外画像及び無赤色光画像のうちの少なくとも1つを含むことを特徴とする。
 また、請求項11に記載の発明は、請求項1~請求項10のいずれか一項に記載の眼底観察装置であって、前記分布情報とともに取得された前記眼底の付帯画像を記憶する画像記憶部を更に有し、前記設定部は、前記分布情報に対して前記走査目標位置を設定し、前記特定部は、前記分布情報に対して設定された前記走査目標位置に対応する前記付帯画像における画像領域を特定し、この画像領域に対応する前記眼底画像中の画像領域を特定し、前記制御部は、特定された前記眼底画像中の画像領域に基づき前記走査部を制御して前記信号光を走査させ、前記断層像形成部は、当該制御に基づく前記信号光の走査に伴う前記干渉光の検出結果に基づいて断層像を形成することを特徴とする。
 また、請求項12に記載の発明は、請求項11に記載の眼底観察装置であって、前記分布情報は、前記眼底を測定して得られた測定値を前記検査結果とする測定結果情報を含み、前記設定部は、前記測定結果情報に対して前記走査目標位置を設定することを特徴とする。
 また、請求項13に記載の発明は、請求項12に記載の眼底観察装置であって、前記測定結果情報は、視野検査により得られた視野の範囲の測定結果、マイクロペリメトリにより得られた網膜視感度の測定結果、及び、層厚測定により得られた眼底の層の厚みの測定結果のうちの少なくとも1つを含むことを特徴とする。
 また、請求項14に記載の発明は、請求項12又は請求項13に記載の眼底観察装置であって、前記表示部は、前記付帯画像又は前記眼底画像に前記測定結果情報を重畳表示することを特徴とする。
 また、請求項15に記載の発明は、請求項12に記載の眼底観察装置であって、前記分布情報は、前記付帯画像と異なる種別の画像を含み、前記設定部は、当該画像に対して前記走査目標位置を設定することを特徴とする。
 また、請求項16に記載の発明は、請求項11~請求項15のいずれか一項に記載の眼底観察装置であって、前記付帯画像と前記眼底画像とは同じ種別の画像であることを特徴とする。
 また、請求項17に記載の発明は、請求項1~請求項16のいずれか一項に記載の眼底観察装置であって、前記設定部は、前記走査目標位置を設定するための操作を受け付ける操作部を含むことを特徴とする。
 また、請求項18に記載の発明は、請求項17に記載の眼底観察装置であって、前記表示部は、前記走査目標位置の設定が可能な範囲を示す設定可能範囲情報を前記分布情報に重畳表示することを特徴とする。
 また、請求項19に記載の発明は、請求項18に記載の眼底観察装置であって、前記分布情報における前記範囲の外部領域に前記走査目標位置を設定するための操作がなされたことに対応して前記設定可能範囲情報を前記分布情報に重畳表示させる表示制御部を更に有することを特徴とする。
 また、請求項20に記載の発明は、請求項18に記載の眼底観察装置であって、前記信号光の走査条件を設定する走査条件設定部と、前記分布情報に重畳表示させる前記設定可能範囲情報の形態を前記走査条件の設定結果に対応して切り替える表示制御部とを更に有することを特徴とする。
 また、請求項21に記載の発明は、請求項18に記載の眼底観察装置であって、前記設定部は、前記分布情報における前記範囲の外部領域に前記走査目標位置を設定するための操作がなされたことに対応し、前記範囲の内部領域に新たな走査目標位置を設定することを特徴とする。
 また、請求項22に記載の発明は、請求項17~請求項21のいずれか一項に記載の眼底観察装置であって、前記操作部は、表示された前記分布情報に対して設定された前記走査目標位置を平行移動させるための操作を受け付ける第1の操作部を含むことを特徴とする。
 また、請求項23に記載の発明は、請求項17~請求項22のいずれか一項に記載の眼底観察装置であって、前記操作部は、表示された前記分布情報に対して設定された前記走査目標位置を回転移動させるための操作を受け付ける第2の操作部を含むことを特徴とする。
 また、請求項24に記載の発明は、請求項17~請求項23のいずれか一項に記載の眼底観察装置であって、前記操作部は、ポインティングデバイス及び/又はグラフィカルユーザインタフェースを含むことを特徴とする。
 また、請求項25に記載の発明は、請求項1~請求項24のいずれか一項に記載の眼底観察装置であって、前記特定部により前記走査目標位置に対応する画像領域が特定されたことに対応し、前記制御部は、前記眼底画像の1フレームに基づく静止画像と、当該1フレームについて特定された前記画像領域を示す情報とを前記表示部に表示させることを特徴とする。
 また、請求項26に記載の発明は、請求項25に記載の眼底観察装置であって、前記静止画像及び前記情報の表示後に、前記特定部は、当該表示に対応するタイミングで前記撮影部により得られた前記眼底画像の新たなフレームと、前記1フレームとの画像マッチングを行なうことで、前記1フレームについて特定された前記画像領域に対応する前記新たなフレーム中の画像領域を特定し、前記制御部は、前記新たなフレーム中の画像領域に基づき前記走査部を制御して前記信号光を走査させることを特徴とする。
 また、請求項27に記載の発明は、請求項1~請求項26のいずれか一項に記載の眼底観察装置であって、前記分布情報は、前記撮影部を用いて過去に実施された動画撮影若しくは静止画撮影により取得された画像、又は前記断層像形成部により過去に形成された断層像に基づいて生成された情報であることを特徴とする。
 この発明によれば、検査結果に基づいて眼底のOCT計測を行う場合に、その計測位置の決定作業を容易に行うことが可能である。
実施形態に係る眼底観察装置の構成の一例を表す概略図である。 実施形態に係る眼底観察装置の構成の一例を表す概略図である。 実施形態に係る眼底観察装置の構成の一例を表す概略ブロック図である。 実施形態に係る眼底観察装置の構成の一例を表す概略ブロック図である。 実施形態に係る眼底観察装置の動作の一例を表すフローチャートである。 実施形態に係る眼底観察装置の動作を説明するための概略図である。 実施形態に係る眼底観察装置の動作を説明するための概略図である。 実施形態に係る眼底観察装置の動作を説明するための概略図である。 実施形態に係る眼底観察装置の動作の一例を表すフローチャートである。 実施形態に係る眼底観察装置の構成の一例を表す概略ブロック図である。 実施形態に係る眼底観察装置の動作を説明するための概略図である。 実施形態に係る眼底観察装置の動作を説明するための概略図である。 実施形態に係る眼底観察装置の動作を説明するための概略図である。
 この発明に係る眼底観察装置の実施形態の一例について、図面を参照しながら詳細に説明する。この発明に係る眼底観察装置は、OCTを用いて眼底の断層像や3次元画像を形成する。この明細書では、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。なお、この明細書に記載された文献の記載内容を、以下の実施形態の内容として適宜援用することが可能である。
 以下の実施形態では、フーリエドメインタイプのOCTを適用した構成について詳しく説明する。特に、実施形態に係る眼底観察装置は、特許文献4に開示された装置と同様に、スペクトラルドメインOCTの手法を用いて眼底のOCT画像及び眼底像の双方を取得可能である。なお、スペクトラルドメイン以外のタイプ、たとえばスウェプトソースOCTの手法を用いる眼底観察装置に対して、この発明に係る構成を適用することも可能である。また、この実施形態ではOCT装置と眼底カメラとを組み合わせた装置について説明するが、眼底カメラ以外の眼底撮影装置、たとえばSLO、スリットランプ、眼科手術用顕微鏡などに、この実施形態に係る構成を有するOCT装置を組み合わせることも可能である。
〈第1の実施形態〉
[構成]
 図1及び図2に示すように、眼底観察装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
〔眼底カメラユニット〕
 図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を取得するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。観察画像は「眼底画像」の一例であり、眼底カメラユニット2は「撮影部」の一例である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像、又は近赤外光若しくは可視光を照明光として用いたモノクロの静止画像であってもよい。眼底カメラユニット2は、これら以外の画像、たとえばフルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能に構成されていてもよい。その場合、従来の眼底カメラと同様に、照明光学系10にエキサイタフィルタが、撮影光学系30にバリアフィルタが、それぞれ設けられる。
 眼底カメラユニット2には、被検者の顔を支持するための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ(単にCCDと呼ぶことがある)35、38。)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。
 照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efを照明する。なお、観察光源としてLED(Light Emitting Diode)を用いることも可能である。
 観察照明光の眼底反射光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ミラー32により反射される。更に、この眼底反射光は、ハーフミラー39Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)が表示される。なお、撮影光学系のピントが前眼部に合わせられている場合、被検眼Eの前眼部の観察画像が表示される。
 撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)が表示される。なお、観察画像を表示する表示装置3と撮影画像を表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。また、被検眼Eを赤外光で照明して同様の撮影を行う場合には、赤外の撮影画像が表示される。また、撮影光源としてLEDを用いることも可能である。
 LCD(Liquid Crystal Display)39は、固視標や視力測定用指標を表示する。固視標は被検眼Eを固視させるための指標であり、眼底撮影時やOCT計測時などに使用される。
 LCD39から出力された光は、その一部がハーフミラー39Aにて反射され、ミラー32に反射され、合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
 LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。被検眼Eの固視位置としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための位置や、視神経乳頭を中心とする画像を取得するための位置や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための位置などがある。また、固視標の表示位置を任意に変更することも可能である。
 更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための指標(アライメント指標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための指標(スプリット指標)を生成する。
 アライメント光学系50のLED51から出力された光(アライメント光)は、絞り52、53及びリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eの角膜に投影される。
 アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46及び上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー39Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標)は、観察画像とともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント指標の位置を解析して光学系を移動させることによりアライメントを行ってもよい(オートアライメント機能)。
 フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投影される。
 フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット指標の位置を解析して合焦レンズ31及びフォーカス光学系60を移動させてピント合わせを行う(オートフォーカス機能)。また、スプリット指標を視認しつつ手動でピント合わせを行ってもよい。
 ダイクロイックミラー46は、眼底撮影用の光路からOCT計測用の光路を分岐させている。ダイクロイックミラー46は、OCT計測に用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。このOCT計測用の光路には、OCTユニット100側から順に、コリメータレンズユニット40と、光路長変更部41と、ガルバノスキャナ42と、合焦レンズ43と、ミラー44と、リレーレンズ45とが設けられている。
 光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT計測用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、たとえばコーナーキューブと、これを移動する機構とを含んで構成される。
 ガルバノスキャナ42は、OCT計測用の光路を通過する光(信号光LS)の進行方向を変更する。それにより、眼底Efを信号光LSで走査することができる。ガルバノスキャナ42は、たとえば、信号光LSをx方向に走査するガルバノミラーと、y方向に走査するガルバノミラーと、これらを独立に駆動する機構とを含んで構成される。それにより、信号光LSをxy平面上の任意の方向に走査することができる。
〔OCTユニット〕
 図2を参照しつつOCTユニット100の構成の一例を説明する。OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている。この光学系は、従来のスペクトラルドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、低コヒーレンス光を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
 なお、スウェプトソースタイプのOCT装置の場合には、低コヒーレンス光源を出力する光源の代わりに波長掃引光源が設けられるとともに、干渉光をスペクトル分解する光学部材が設けられない。一般に、OCTユニット100の構成については、光コヒーレンストモグラフィのタイプに応じた公知の技術を任意に適用することができる。
 光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm~900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1040~1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。
 光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。
 光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。
 参照光LRは、光ファイバ104により導かれて光減衰器(アッテネータ)105に到達する。光減衰器105は、公知の技術を用いて、演算制御ユニット200の制御の下、光ファイバ104に導かれる参照光LRの光量を自動で調整する。光減衰器105により光量が調整された参照光LRは、光ファイバ104により導かれて偏波調整器(偏波コントローラ)106に到達する。偏波調整器106は、たとえば、ループ状にされた光ファイバ104に対して外部から応力を与えることで、光ファイバ104内を導かれる参照光LRの偏光状態を調整する装置である。なお、偏波調整器106の構成はこれに限定されるものではなく、任意の公知技術を用いることが可能である。偏波調整器106により偏光状態が調整された参照光LRは、ファイバカプラ109に到達する。
 ファイバカプラ103により生成された信号光LSは、光ファイバ107により導かれ、コリメータレンズユニット40により平行光束とされる。更に、信号光LSは、光路長変更部41、ガルバノスキャナ42、合焦レンズ43、ミラー44、及びリレーレンズ45を経由してダイクロイックミラー46に到達する。そして、信号光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて眼底Efに照射される。信号光LSは、眼底Efの様々な深さ位置において散乱(反射を含む)される。眼底Efによる信号光LSの後方散乱光は、往路と同じ経路を逆向きに進行してファイバカプラ103に導かれ、光ファイバ108を経由してファイバカプラ109に到達する。
 ファイバカプラ109は、信号光LSの後方散乱光と、ファイバカプラ103を経由した参照光LRとを干渉させる。これにより生成された干渉光LCは、光ファイバ110により導かれて出射端111から出射される。更に、干渉光LCは、コリメータレンズ112により平行光束とされ、回折格子113により分光(スペクトル分解)され、集光レンズ114により集光されてCCDイメージセンサ115の受光面に投影される。なお、図2に示す回折格子113は透過型であるが、たとえば反射型の回折格子など、他の形態の分光素子を用いることも可能である。
 CCDイメージセンサ115は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ115は、この電荷を蓄積して検出信号を生成し、これを演算制御ユニット200に送る。
 この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。
〔演算制御ユニット〕
 演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ115から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のスペクトラルドメインタイプのOCT装置と同様である。
 また、演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底EfのOCT画像を表示装置3に表示させる。
 また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15及びLED51、61の動作制御、LCD39の動作制御、合焦レンズ31、43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、ガルバノスキャナ42の動作制御などを行う。
 また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光減衰器105の動作制御、偏波調整器106の動作制御、CCDイメージセンサ120の動作制御などを行う。
 演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェースなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼底観察装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、たとえばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、操作デバイス(入力デバイス)や表示デバイスを備えていてもよい。操作デバイスは、たとえば、マウス等のポインティングデバイス、キーボード等を含む。表示デバイスは、たとえばLCD等のフラットパネルディスプレイである。
 眼底カメラユニット2、表示装置3、OCTユニット100及び演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。
〔制御系〕
 眼底観察装置1の制御系の構成について図3及び図4を参照しつつ説明する。
(制御部)
 眼底観察装置1の制御系は、制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェース等を含んで構成される。制御部210には、主制御部211と記憶部212が設けられている。
(主制御部)
 主制御部211は前述の各種制御を行う。特に、主制御部211は、眼底カメラユニット2の合焦駆動部31A、光路長変更部41及びガルバノスキャナ42、更にOCTユニット100の光源ユニット101、光減衰器105及び偏波調整器106を制御する。主制御部211は「制御部」の一例として機能する。
 合焦駆動部31Aは、合焦レンズ31を光軸方向に移動させる。それにより、撮影光学系30の合焦位置が変更される。なお、主制御部211は、図示しない光学系駆動部を制御して、眼底カメラユニット2に設けられた光学系を3次元的に移動させることもできる。この制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとピント合わせが実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。
 また、主制御部211は、記憶部212にデータを書き込む処理や、記憶部212からデータを読み出す処理を行う。
(記憶部)
 記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。また、記憶部212には、眼底観察装置1を動作させるための各種プログラムやデータが記憶されている。なお、この実施形態では蛍光画像を解析するための解析プログラムは後述のプログラム記憶部2312に記憶されているが、解析プログラムを記憶部212に記憶させてもよい。
(画像形成部)
 画像形成部220は、CCDイメージセンサ115からの検出信号に基づいて、眼底Efの断層像の画像データを形成する。この処理には、従来のスペクトラルドメインタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。他のタイプのOCT装置の場合、画像形成部220は、そのタイプに応じた公知の処理を実行する。画像形成部220は、OCT計測用の光学系(干渉光学系、ガルバノスキャナ42を含む)とともに、「断層像形成部」の一例を構成する。また、ガルバノスキャナ42は「走査部」の一例として機能する。
 画像形成部220は、たとえば、前述の回路基板を含んで構成される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。
(画像処理部)
 画像処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。また、画像処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
 画像処理部230は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、画像処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。
 また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断層像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。
 画像処理部230には、走査目標位置設定部231と走査目標領域特定部232が設けられている。
(走査目標位置設定部)
 走査目標位置設定部231は、眼底Efの蛍光画像を処理する。より具体的には、走査目標位置設定部231は、表示部240Aに表示された蛍光画像に対して信号光LSの走査目標位置を設定する。蛍光画像は「分布情報」の一例である。また、走査目標位置設定部231は「設定部」の一例として機能する。
 この蛍光画像は、フルオレセイン蛍光画像やインドシアニングリーン蛍光画像のように被検者に蛍光剤を投与して撮影されたものであってもよいし、蛍光剤の投与を伴わない自発蛍光画像であってもよい。走査目標位置とは、OCT計測を行おうとする位置、つまり信号光LSによる走査を行おうとする位置である。
 走査目標位置は任意に設定可能である。たとえば、ユーザが操作部240Bを操作して所望の走査目標位置を設定することができる。また、蛍光画像中の所定領域を通過するように走査目標位置を自動で設定することも可能である。この所定領域は、視神経乳頭や黄斑部や血管等の眼底の特徴部位であってもよいし、眼底の病変と考えられる部位(病変候補部位と呼ぶ)であってもよい。以下、蛍光画像中の病変候補部位を自動で設定する場合について説明する。
 走査目標位置設定部231は、病変候補部位特定部2311と設定処理部2316を有する。
(病変候補部位特定部)
 病変候補部位特定部2311は、蛍光画像を解析して眼底Efの病変候補部位を特定する。病変候補部位特定部2311は「解析部」の一例として機能する。病変候補部位を特定する処理は任意である。たとえば、病変候補部位特定部2311は、プログラム記憶部2312と、種別特定部2313と、プログラム選択部2314と、蛍光画像解析部2315とによって当該処理を行う。
(プログラム記憶部)
 プログラム記憶部2312は、蛍光画像を解析するための解析プログラムをあらかじめ記憶している。この実施形態では、2以上の蛍光画像の種別に対応する2以上の解析プログラムがプログラム記憶部2312にあらかじめ記憶されている。プログラム記憶部2312は「第1の記憶部」の一例である。
 蛍光画像の種別には、前述のように、蛍光剤を用いて撮影されたものと、蛍光剤を用いずに撮影されたものとがある。また、蛍光剤を用いて撮影された蛍光画像には、フルオレセインやインドシアニングリーンなどの各種蛍光剤を用いたものがある。解析プログラムは、このような種別のそれぞれについて設けられる。なお、幾つかの種別をまとめて1つの種別とみなして解析プログラムを設けることも可能である。この実施形態では、蛍光剤を投与して撮影される第1の種別と、蛍光剤を投与せずに撮影される第2の種別とを考慮する。つまり、プログラム記憶部2312には、第1の種別に対応する第1の解析プログラムと、第2の種別に対応する第2の解析プログラムとがあらかじめ記憶される。蛍光画像の種別と解析プログラムとの対応付けは、たとえばテーブル情報としてプログラム記憶部2312にあらかじめ記憶されている。なお、これら解析プログラムに基づく画像解析処理については後述する。
 第1の解析プログラムは、第1の種別の蛍光画像、すなわち蛍光剤を投与して撮影された蛍光画像において、輝度の高い画像領域のうちから病変候補部位を特定するよう構成される。第1の種別の蛍光画像の撮影は、エキサイタフィルタを用いて得られた励起光を受けた蛍光剤が発する蛍光を検出することにより行われる。したがって、視神経乳頭、血管、蛍光漏出部位等の蛍光を発する部位が比較的明るく描写され、それ以外の部位は比較的暗く描写される。このような輝度特性を考慮して第1の解析プログラムは構成される。
 第2の解析プログラムは、第2の種別の蛍光画像、すなわち蛍光剤を投与せずに撮影された蛍光画像において、輝度の高い画像領域のうちから病変候補部位を特定するよう構成される。第2の種別の蛍光画像の撮影は、網膜色素上皮中のリポフスチンが発する蛍光を検出することにより行われる。したがって、網膜色素上皮が存在しない部位(及びほぼ存在しない部位)、たとえば視神経乳頭や血管は比較的暗く描写され、それ以外の部位(たとえば蛍光漏出部位)は比較的明るく描写される。このような輝度特性を考慮して第2の解析プログラムは構成される。
(種別特定部)
 種別特定部2313は、処理対象となっている蛍光画像の種別を特定する。種別特定部2313は「第1の種別特定部」の一例として機能する。以下、種別を特定する処理の例を2つ説明するが、この処理はこれら手法には限定されず、任意の手法を適用することが可能である。
 蛍光画像の種別を特定する処理の第1の例は、蛍光画像における眼底Efの特徴部位の輝度に基づいて行われる。この特徴部位としては、たとえば視神経乳頭や血管を用いることができる。以下、この処理例を説明する。
 まず、種別特定部2313は、蛍光画像の画素値(輝度)の分布に基づいて、特徴部位に相当する画像領域(画素)を特定する。この処理は、たとえば、輝度に関する閾値処理や、画像領域の形状解析(パターンマッチング等)を用いて行われる。視神経乳頭に相当する画像領域を特定する場合、周囲と比較して輝度が高く(又は低く)、かつ略円形又は略楕円形の画像領域を探索する。また、血管に相当する画像領域を特定する場合、周囲と比較して輝度が高く(又は低く)、かつ線状の画像領域を探索する。
 次に、種別特定部2313は、特定された画像領域の輝度とその周囲の輝度とに基づいて蛍光画像の種別を特定する。この処理の具体例を説明する。特定された画像領域(たとえば血管に相当する画像領域)の輝度が周囲(たとえば血管以外の部位に相当する画像領域)の輝度よりも高い場合、種別特定部2313は、対象の蛍光画像は蛍光剤を投与して撮影された第1の種別であると判定する。他方、特定された画像領域の輝度が周囲の輝度よりも低い場合、種別特定部2313は、対象の蛍光画像は蛍光剤を投与せずに撮影された第2の種別であると判定する。なお、輝度の比較は、たとえば、双方の画像領域に含まれる画素の輝度の平均値を算出して行われる。この場合、周囲の画像領域として所定サイズの画像領域を抽出して平均値の算出を行うことができる。
 蛍光画像の種別を特定する処理の第2の例について説明する。この例においては、種別を示す識別情報が蛍光画像にあらかじめ関連付けられている。この識別情報の例として、医用画像の標準規格DICOM(Digital Imaging and Communications in Medicine)の付帯情報(DICOM タグ)がある。この付帯情報は、蛍光撮影時又はその後に蛍光画像に対して付与される。識別情報の他の例として電子カルテ情報がある。電子カルテには、蛍光画像の種別を入力するための専用の又は汎用の入力スペースが設けられている。蛍光撮影時又はその後に、この入力スペースに手動で又は自動で識別情報が入力される。自動入力は、たとえば、蛍光撮影に用いられる眼底撮影装置から入力される信号に基づいて行われる。また、クリニカルパスが適用される場合など、どの種別の蛍光撮影を行うかあらかじめ決められている場合には、そのあらかじめ決められた情報に基づいて自動入力が行われる。
 種別特定部2313は、上記のような識別情報に基づいて、処理対象となっている蛍光画像の種別を特定する。
(プログラム選択部)
 プログラム選択部2314は、種別特定部2313により特定された種別に対応する解析プログラムを、プログラム記憶部2312に記憶された解析プログラムのうちから選択する。この処理は、たとえばプログラム記憶部2312にあらかじめ記憶されている前述のテーブル情報を参照して行われる。プログラム選択部2314は「第1の選択部」の一例として機能する。
(蛍光画像解析部)
 蛍光画像解析部2315は、プログラム選択部2314により選択された解析プログラムを用いて蛍光画像を解析することで病変候補部位を特定する。この処理の例を、第1の種別及び第2の種別のそれぞれについて説明する。
 蛍光剤を用いる第1の種別の蛍光画像を解析する場合、つまり第1の解析プログラムを用いて蛍光画像を解析する場合について説明する。第1の種別の蛍光画像においては、血管や蛍光漏出部位の輝度が高い。なお、以下の処理において、種別特定部2313による前述の画像処理の結果を利用するようにしてもよい。
 まず、蛍光画像解析部2315は、処理対象の蛍光画像において輝度の高い画像領域を特定する。
 次に、蛍光画像解析部2315は、特定された高輝度の画像領域のうちから病変候補部位を特定する。この処理は、たとえば、高輝度の画像領域を連結領域に分割し、各連結領域の形状に基づいてその連結領域が病変候補部位か否かを判別することにより行われる。ここで、連結領域とは、数学的な意味での「連結」に準じて、隣接する画素の集合を意味する。蛍光画像解析部2315は、高輝度の画像領域に含まれる画素を、隣接する画素からなる集合(つまり連結領域)に分類する。更に、蛍光画像解析部2315は、各連結領域について、その連結領域の形状が線状であるか否か判断する。そして、蛍光画像解析部2315は、線状と判断された連結領域を血管に相当する画像領域と判定し、それ以外の連結領域を蛍光漏出部位と判定する。この蛍光漏出部位と判定された画像領域が病変候補部位とされる。なお、連結領域のうち所定サイズ以下(所定画素数以下)のものはノイズである可能性があるので、これを排除するように構成してもよい。
 蛍光剤を用いない第2の種別の蛍光画像を解析する場合、つまり第2の解析プログラムを用いて蛍光画像を解析する場合について説明する。第2の種別の蛍光画像においては、視神経乳頭や血管の輝度が低く、蛍光漏出部位の輝度が高い。この場合の処理例として、蛍光画像解析部2315はまず、蛍光画像において特に低輝度の画像領域を特定する。この画像領域は視神経乳頭や血管に相当する。次に、蛍光画像解析部2315は、特に低輝度な画像領域以外の画像領域において、比較的高輝度の画像領域を特定する。この比較的高輝度の画像領域が蛍光漏出部位(病変候補部位)に相当する。
 なお、第2の解析プログラムによる各画像領域特定処理は第1の解析プログラムによるものと同様であるが、以上に説明したように蛍光漏出部位を特定するためのアルゴリズム(処理の流れ)が異なる。
(設定処理部)
 設定処理部2316は、病変候補部位特定部2311により特定された病変候補部位に基づき蛍光画像に対して走査目標位置を設定する。この設定処理の例を説明する。この処理例は、走査目標位置のパターンを選択する処理と、走査目標位置が設定される蛍光画像中の位置を決定する処理とを含む。
 まず、設定処理部2316は、走査目標位置のパターンを選択する処理を行う。このパターンには、後述する信号光LSの走査態様に対応するパターンがある。走査態様には、ラインスキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋スキャンなどがある。パターンの選択は、手作業を介して行うこともできるし、自動で行うこともできる。
 前者の例として、主制御部211がパターンを選択するためのユーザインターフェースを表示部240Aに表示させ、ユーザが操作部240Bを用いてパターンを選択するように構成できる。
 後者の例として、疾患名や検査部位等の属性にパターンを対応付けたテーブル情報をあらかじめ記憶しておき、電子カルテ等から属性を取得してこれに対応するパターンを選択するように構成できる。また、適用されたパターンを電子カルテ等に記録しておき、これを参照して同じパターンを適用するように構成できる。
 走査目標位置のパターンが選択されると、設定処理部2316は、このパターンの走査目標位置が設定される蛍光画像中の位置を決定する処理を行う。この処理は、たとえば病変候補部位の形態に基づいて行われる。病変候補部位の形態には、病変候補部位のサイズや形状がある。
 この処理の内容はパターンの選択結果に応じて異なる。ラインスキャンに対応するパターンが選択された場合、設定処理部2316は、たとえば、病変候補部位の特徴位置(中心、重心、特徴的形状の部位等)を特定し、この特徴位置を通過するように直線状のパターンの位置を決定する。また、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋スキャンのように中心位置が存在する走査態様に対応するパターンが選択された場合、設定処理部2316は、たとえば、病変候補部位の特徴位置を特定し、この特徴位置にパターンの中心位置を配置させるようにパターンの位置を決定する。また、3次元スキャンが選択された場合、病変候補部位全体が含まれるように矩形状のパターンの位置を決定する。
 なお、たとえば病変候補部位が最大走査範囲(最大長さ、最大面積等)よりも大きい場合など、病変候補部位が大き過ぎる場合において、設定処理部2316は、病変候補部位の一部のみを被覆するようにパターンの位置を決定することができる。また、最大走査範囲を超える領域を被覆するように、パターンが設定される位置を複数求めることができる。
(走査目標領域特定部)
 眼底観察装置1は、前述のように赤外眼底画像を取得可能である。赤外眼底画像は、赤外光を用いて眼底Efを動画撮影することにより得られる。赤外眼底画像は、所定のフレームレートで得られる複数の静止画像(フレーム)からなる。各フレームは眼底Efのモノクロ画像である。
 走査目標領域特定部232は、走査目標位置設定部231により設定された走査目標位置に対応する赤外眼底画像中の画像領域を特定する。この画像領域を走査目標領域と呼ぶ。走査目標領域特定部232は「特定部」の一例として機能する。以下、走査目標領域特定部232が実行する処理の例を説明する。なお、以下の処理は、動画像である赤外眼底画像の各フレームに適用される。なお、赤外眼底画像の全てのフレームに以下の処理を適用する必要はなく、たとえば所定フレームおきに当該処理を施すようにしてもよい。
 走査目標領域特定部232は、蛍光画像と赤外眼底画像のフレームとのマッチングを行う。この画像マッチング処理は、たとえば、双方の画像について眼底Efの所定の特徴部位に相当する画像領域をそれぞれ特定し、特定された画像領域同士の位置合わせを行うことにより行われる。この画像マッチング処理により、蛍光画像における画素の位置(座標)と、フレームにおける画素の位置(座標)との対応付けがなされる。ここで、特定対象の特徴部位としては、たとえば視神経乳頭、黄斑部、血管(の分岐部)などがある。
 更に、走査目標領域特定部232は、この画像マッチング処理による画素位置の対応付けに基づいて、蛍光画像に設定された走査目標位置に対応するフレーム中の走査目標領域を特定する。
 また、走査目標領域特定部232は、赤外眼底画像のフレーム同士についても同様の処理を行うことができる。つまり、走査目標領域特定部232は、第1のフレームと第2のフレームとのマッチングを行い、それにより得られた画素位置の対応付けに基づいて、第1のフレーム中の画像領域と第2のフレーム中の画像領域とを対応付ける。この処理は、たとえば、第1のフレームにおける走査目標位置に対応する第2のフレーム中の画像領域を特定する処理に適用される。
 蛍光画像の種別に応じて画像マッチング処理を切り替えるように構成することが可能である。その場合、病変候補部位特定部2311と同様のプログラム記憶部(第2の記憶部)、種別特定部(第2の種別特定部)、及びプログラム選択部(第2の選択部)が、走査目標領域特定部232に設けられる。
 プログラム記憶部は、2以上の蛍光画像の種別に対応する2以上の画像解析プログラムをあらかじめ記憶している。各画像解析プログラムは、上記解析プログラムと同様に、対応する種別の蛍光画像の輝度特性を考慮して構成される。
 種別特定部は、病変候補部位特定部2311の場合と同様の処理を実行して蛍光画像の種別を特定する。なお、第1の種別特定部と第2の種別特定部は一体であってよい。その場合、第1の種別特定部(この実施形態では種別特定部2313)による特定結果が第2の選択部に入力される。
 プログラム選択部は、特定された種別に対応する画像解析プログラムを、プログラム記憶部に記憶された2以上の画像解析プログラムから選択する。
 走査目標領域特定部232は、選択された画像解析プログラムを用いて蛍光画像と赤外眼底画像(のフレーム)との画像マッチングを行う。そして、走査目標領域特定部232は、この画像マッチングにより蛍光画像中の走査目標位置に対応付けられた赤外眼底画像中の画像領域を走査目標領域として特定する。
 以上のように機能する画像処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をマイクロプロセッサに実行させるコンピュータプログラムが予め格納されている。
(ユーザインターフェース)
 ユーザインターフェース240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼底観察装置1の筐体や外部に設けられた各種のボタン、キー、ポインティングデバイスが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
 なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェース(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。
〔信号光の走査及びOCT画像について〕
 ここで、信号光LSの走査及びOCT画像について説明しておく。
 眼底観察装置1による信号光LSの走査態様(走査パターン)としては、たとえば、ラインスキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋(渦巻)スキャンなどがある。これらの走査態様は、眼底の観察部位、解析対象(網膜厚など)、走査に要する時間、走査の精密さなどを考慮して適宜に選択的に使用される。
 ラインスキャンは、直線状の軌跡(直線軌跡)に沿って信号光LSを走査するものである。ラインスキャンにおける直線軌跡の向きは任意である。ラインスキャンには、水平スキャン、垂直スキャン、斜めスキャンがある。水平スキャンは、信号光LSを水平方向(x方向)に走査させるものである。水平スキャンには、垂直方向(y方向)に配列された複数の水平方向に延びる走査線に沿って信号光LSを走査させる態様も含まれる。この態様においては、走査線の間隔を任意に設定することが可能である。また、隣接する走査線の間隔を十分に狭くすることにより、前述の3次元画像を形成することができる(3次元スキャン)。垂直スキャンや斜めスキャンについても同様である。
 十字スキャンは、互いに直交する2本の直線軌跡からなる十字型の軌跡に沿って信号光LSを走査するものである。また、複数の水平スキャンと複数の垂直スキャンとを組み合わせることで十字スキャンを構成することもできる。たとえば縦横5本ずつのラインスキャンを組み合わせることができる。放射スキャンは、所定の角度を介して配列された複数の直線軌跡からなる放射状の軌跡に沿って信号光LSを走査するものである。なお、十字スキャンは放射スキャンの一例である。
 円スキャンは、円形状の軌跡に沿って信号光LSを走査させるものである。同心円スキャンは、所定の中心位置の周りに同心円状に配列された複数の円形状の軌跡に沿って信号光LSを走査させるものである。円スキャンは同心円スキャンの一例である。螺旋スキャンは、回転半径を次第に小さく(又は大きく)させながら螺旋状(渦巻状)の軌跡に沿って信号光LSを走査するものである。
 ガルバノスキャナ42は、互いに直交する方向に信号光LSを走査するように構成されているので、信号光LSをx方向及びy方向にそれぞれ独立に走査できる。更に、ガルバノスキャナ42に含まれる2つのガルバノミラーの向きを同時に制御することで、xy面上の任意の軌跡に沿って信号光LSを走査することが可能である。それにより、上記のような各種の走査態様を実現できる。
 上記のような態様で信号光LSを走査することにより、走査線(走査軌跡)に沿う方向と眼底深度方向(z方向)とにより張られる面における断層像を取得することができる。また、特に走査線の間隔が狭い場合には、前述の3次元画像を取得することができる。
 上記のような信号光LSの走査対象となる眼底Ef上の領域、つまりOCT計測の対象となる眼底Ef上の領域を走査領域と呼ぶ。蛍光画像に設定される走査目標位置に基づいて信号光LSを走査することで、この走査領域が実質的に実現される。3次元スキャンにおける走査領域は、複数の水平スキャンが配列された矩形の領域である。また、同心円スキャンにおける走査領域は、最大径の円スキャンの軌跡により囲まれる円盤状の領域である。また、放射スキャンにおける走査領域は、各スキャンラインの両端位置を結んだ円盤状(或いは多角形状)の領域である。
[動作]
 眼底観察装置1の動作について説明する。図5は、眼底観察装置1の動作の一例を表す。なお、眼底撮影の準備(アライメント、フォーカス調整、固視等)は既になされているものとする。
 以下の動作例では、眼底Efの蛍光撮影とOCT計測とを連続して行う場合について説明する。一方、自機で取得された蛍光画像を眼底観察装置1又は他の装置に保存してそれを読み出して使用するように構成することもできるし、他機で取得された蛍光画像を眼底観察装置1又は他の装置に保存してそれを読み出して使用するように構成することもできる。この「他の装置」としては、PACS(Picture Archiving and Communication Systems)、眼科画像データベース、蛍光撮影を行った眼底撮影装置などがある。
(S1:蛍光撮影)
 眼底Efの蛍光撮影を行う。蛍光撮影においては、エキサイタフィルタとバリアフィルタが光路に配置され、撮影光源15からの撮影照明光が用いられる。
(S2:蛍光画像を表示する)
 主制御部211は、ステップ1で取得された蛍光画像を表示部240Aに表示させる。このときの表示画面の例を図6に示す。表示画面300には、画像表示部310とGUI部320とが設けられている。画像表示部310には、主制御部211により蛍光画像Gが表示される。GUI部320には、各種のGUIが表示される。この段階のGUI部320にはOCTモードボタン321が設けられる。OCTモードボタン321は、OCT計測を行うための動作モード(OCTモード)に移行するために操作される。
(S3:OCTモードへ移行する)
 ユーザがマウス(操作部240B)を操作してOCTモードボタン321をクリックすると、主制御部211は、表示画面300のGUI部320の表示内容を変更する。それにより、表示画面300は図7に示す態様となる。
 GUI部320には、撮影開始ボタン322、キャンセルボタン323、平行移動ボタン324、回転移動ボタン325、及び、やり直しボタン326が表示される。撮影開始ボタン322は、OCT計測を開始するためにクリックされる。キャンセルボタン323は、OCTモードから離脱するためにクリックされる。
 平行移動ボタン324は、一旦設定された走査目標位置を平行移動させるためにクリックされる。この動作例では、平行移動ボタン324として、上方向、下方向、左方向及び右方向のそれぞれに走査目標位置を移動させるためのボタンが設けられている。平行移動ボタン324を1回クリックすると、主制御部211は走査目標位置を所定距離だけ移動させる。平行移動ボタン324は「第1の操作部」の例である。
 回転移動ボタン325は、一旦設定された走査目標位置を回転移動させるためにクリックされる。この動作例では、回転移動ボタン325として、走査目標位置を時計回り方向に回転させるためのボタンと、反時計回り方向に回転させるためのボタンとが設けられている。回転移動ボタン325を1回クリックすると、主制御部211は走査目標位置を所定角度だけ回転させる。回転移動ボタン325は「第2の操作部」の例である。
 やり直しボタン326は、走査目標位置に対して平行移動や回転移動が施された後に操作されるものであり、走査目標位置を移動前の状態に戻すためにクリックされる。なお、やり直しボタン326がクリックされたときの制御態様として、走査目標位置を初期位置に戻す制御や、直近の移動がなされる前の状態に戻す制御などがある。
(S4:蛍光画像に走査目標位置を設定する)
 次に、自動で又は手作業で走査目標位置の設定がなされる。
 自動設定の場合、前述のように、種別特定部2313が蛍光画像の種別を特定し、特定された種別に対応する解析プログラムをプログラム選択部2314が選択し、選択された解析プログラムに基づいて蛍光画像解析部2315が病変候補部位を特定する。そして、特定された病変候補部位に基づいて設定処理部2316が走査目標位置を設定する。主制御部211は、設定された走査目標位置を示す情報を蛍光画像Gに表示させる。この表示情報は、たとえば走査目標位置に重ねて表示される画像情報である。また、走査目標位置が2次元的である場合、その輪郭を示す画像情報を表示させることができる。また、たとえば直線状のパターンの両端を示す画像情報などの走査目標位置を示す画像情報を、当該走査目標位置の周囲に表示させるようにしてもよい。
 手動設定の場合、ユーザは、たとえば、操作部240B(マウス等のポインティングデバイス)を操作して、表示された蛍光画像に対して所望の走査目標位置を入力する。主制御部211は、入力された走査目標位置を示す情報を表示させる。この表示情報は、自動設定の場合と同様である。
 設定された走査目標位置の表示態様の例を図8に示す。符号Pは病変候補部位を示す。また、符号Qで示す矢印は、直線状のパターンの走査目標位置を示す表示情報である。この矢印は、信号光LSを走査する方向を示す。
 ユーザは、平行移動ボタン324と回転移動ボタン325を用いて、一旦設定された走査目標位置を変更することが可能である。
(S5:OCT計測の開始を指示する)
 走査目標位置の設定が完了したら、ユーザは、操作部240Bを用いて撮影開始ボタン322をクリックすることにより、OCT計測の開始を指示する。この指示を受けて、主制御部211は、以下に説明するOCT計測の準備動作を開始する。
(S6:赤外眼底画像の取得を開始する)
 撮影開始ボタン322がクリックされたことを受けて、主制御部211は、蛍光撮影用のフィルタを光路から退避させるとともに、観察光源11を点灯させる。それにより赤外眼底画像がリアルタイムで得られる。主制御部211は、この赤外眼底画像をリアルタイムで動画表示させることができる。
(S7:赤外眼底画像中の走査目標領域を特定する)
 走査目標領域特定部232は、ステップ4で設定された走査目標位置に対応する赤外眼底画像中の画像領域を特定する。この処理は、たとえば、時系列に沿って得られる赤外眼底画像のフレームに対して順次にリアルタイムで行われる。また、蛍光画像の種別に応じ、この処理で使用される画像解析プログラムを選択するようにしてよい。
 この段階において、主制御部211が、この赤外眼底画像に基づくアライメント及びフォーカス調整を必要に応じて実行させるようにしてもよい。
(S8:赤外眼底画像と走査目標領域を表示する)
 ステップ7における走査目標領域の特定がなされたことに対応し、主制御部211は、赤外眼底画像の1枚のフレームに基づく静止画像と、この1フレームについて特定された走査目標領域を示す情報とを表示させる。その表示態様は、たとえば図8に示す蛍光画像G及び表示情報Qと同様である。以上で、OCT計測を行うための準備動作は終了となる。
(S9:OCT計測を実施する)
 走査目標領域特定部232は、ステップ8の表示に対応するタイミングで取得された赤外眼底画像のフレーム(第2のフレームと呼ぶ)と、ステップ8の表示処理に供されたフレーム(第1のフレームと呼ぶ)とのマッチングを行なう。この処理は、前述したフレーム間のマッチングを適用して行われる。それにより、第1のフレームについて特定された走査目標領域に対応する第2のフレーム中の画像領域が特定される。この画像領域が、第2のフレームにおける走査目標領域となる。
 続いて、主制御部211は、第2のフレームの走査目標領域に基づきガルバノスキャナ42を制御して信号光LSを走査させることにより、OCT計測を実施する。
(S10:断層像を形成する)
 画像形成部220は、ステップ9における信号光LSの走査に伴ってCCDイメージセンサ115から出力される検出信号に基づいて、走査目標領域に沿う眼底Efの断層像を形成する。この断層像は、主制御部211によって表示部240Aに表示される。
[効果]
 眼底観察装置1の効果について説明する。
 眼底観察装置1は、まず、あらかじめ取得された眼底の蛍光画像を表示する。この蛍光画像に対して信号光LSの走査目標位置が設定されると、眼底観察装置1は、動画撮影により得られた赤外眼底画像においてこの走査目標位置に対応する画像領域(走査目標領域)を特定し、この走査目標領域に基づきガルバノスキャナ42を制御してOCT計測を実施する。そして、眼底観察装置1は、このOCT計測で得られた干渉光の検出結果に基づいて眼底Efの断層像を形成する。
 眼底観察装置1は、蛍光画像を解析して眼底Efの病変候補部位を特定し、この病変候補部位に基づいて走査目標位置の設定を行うように構成されている。
 また、眼底観察装置1は、蛍光画像の種別に対応する解析プログラムをあらかじめ記憶している。更に、眼底観察装置1は、表示部240Aに表示された蛍光画像の種別を特定し、特定された種別に対応する解析プログラムを、あらかじめ記憶された解析プログラムのうちから選択する。そして、眼底観察装置1は、選択された解析プログラムを用いて蛍光画像を解析することにより病変候補部位の特定を行う。
 また、眼底観察装置1は、蛍光画像の種別に対応する画像解析プログラムをあらかじめ記憶している。更に、眼底観察装置1は、表示部240Aに表示された蛍光画像の種別を特定し、特定された種別に対応する画像解析プログラムを、あらかじめ記憶された画像解析プログラムのうちから選択する。そして、眼底観察装置1は、選択された画像解析プログラムを用いて蛍光画像と赤外眼底画像との画像マッチングを行い、この画像マッチングにより蛍光画像中の走査目標位置に対応付けられた赤外眼底画像中の画像領域を走査目標領域として特定する。
 蛍光画像の種別は、蛍光剤を投与して撮影される第1の種別と、蛍光剤を投与せずに撮影される第2の種別とを含んでいる。
 蛍光画像の種別を特定する処理において、眼底観察装置1は、表示部240Aに表示された蛍光画像における眼底Efの特徴部位の輝度に基づいてこの蛍光画像の種別を特定する。
 蛍光画像がその種別を示す所定の識別情報とあらかじめ関連付けられている場合において、眼底観察装置1は、この識別情報に基づいて蛍光画像の種別を特定することができる。
 眼底観察装置1は、走査目標位置を設定するための操作を受け付ける操作部を有する。この操作部は、操作部240B(ポインティングデバイス)と、表示部240Aに表示されるGUIとを含む。また、操作部は、走査目標位置を平行移動させるための操作を受け付ける第1の操作部と、走査目標位置を回転移動させるための操作を受け付ける第2の操作部とを含む。
 眼底観察装置1は、走査目標位置に対応する走査目標領域が特定されたことに対応し、赤外眼底画像の1フレームに基づく静止画像と、この1フレームについて特定された走査目標領域を示す情報とを表示部240Aに表示させる。
 更に、静止画像及び上記情報の表示後に、眼底観察装置1は、この表示に対応するタイミングで得られた赤外眼底画像の新たなフレームと、上記1フレームとのマッチングを行なうことで、この1フレームについて特定された走査目標領域に対応する新たなフレーム中の画像領域を特定する。そして、眼底観察装置1は、新たなフレーム中の画像領域に基づきガルバノスキャナ42を制御して信号光LSを走査させることでOCT計測を行う。
 このような眼底観察装置1によれば、蛍光画像に対して設定された走査目標位置に対応する赤外眼底画像中の走査目標領域を特定し、この走査目標領域に基づき信号光LSを走査してOCT計測を行うことができる。特に、蛍光画像から把握される異常部位(病変候補部位)に基づき走査目標位置を設定することができる。したがって、蛍光画像から把握された異常部位のOCT計測を容易に行うことが可能である。
〈第2の実施形態〉
 第1の実施形態では、過去に取得された蛍光画像に対して設定された走査目標位置を、リアルタイムで得られる赤外眼底画像を介して今回のOCT計測に適用している。これに対し、第2の実施形態では、蛍光画像以外の過去の情報及び/又は赤外眼底画像以外の眼底画像を用いる場合について説明する。
 蛍光画像以外の過去の情報を分布情報と呼ぶ。分布情報は、過去に実施された検査により取得された眼底における検査結果の分布を表す情報である。前述のように、検査には、「撮影」と「測定」がある。
 「撮影」により得られる画像には、第1の実施形態で説明した蛍光画像の他に、たとえば、赤外画像、無赤色光画像、カラー眼底像、SLO画像、OCTによる断層像や3次元画像、プロジェクション画像、シャドウグラムなどがある。赤外画像は、赤外領域の波長帯の光を用いた撮影(赤外撮影)により得られる画像であり、動画撮影により得られたフレームと静止画撮影により得られた静止画像の双方の意味を含む。無赤色光画像は、赤色を除いた波長帯の可視光を用いた撮影(レッドフリー撮影)により得られる画像である。プロジェクション画像は、OCTにより得られた3次元画像をz方向に投影して得られる眼底の正面画像である。シャドウグラムは、OCTにより得られた3次元画像の深さ領域の一部(たとえば所定の第1の層から第2の層までの深さ領域)をz方向に投影して得られる眼底の正面画像である。眼底を撮影して得られる画像は、眼底における位置情報(座標)と画素値(輝度値、RGB値等)とがそれぞれ割り当てられた複数の画素により構成される。つまり、画像は、画素値を上記検査結果とする分布情報である。
 また、「測定」は、眼底における測定値の分布を取得するための検査である。このような測定としては、たとえば、視野計を用いて視野の範囲を測定する視野検査、網膜視感度を測定するSLOマイクロペリメトリ、OCTや神経線維層解析装置を用いて眼底の層の厚みを測定する層厚測定などがある。なお、視野検査についてはたとえば特開2009-34480号公報等に、SLOマイクロペリメトリについては特開2003-235800号公報等に、層厚測定については特開2009-34480号公報等にそれぞれ記載されている。このような測定により得られる測定結果情報は、眼底における位置情報(座標)のそれぞれに対して測定値を割り当てたものである。つまり、測定結果情報は、測定値を上記検査結果とする分布情報である。
 赤外画像又は無赤色光画像が分布情報として用いられる場合、第1の実施形態の蛍光画像の場合と同様に、赤外画像又は無赤色光画像に対して設定された走査目標位置に基づく信号光の走査を行うことができる。
 また、カラー眼底像、SLO画像、プロジェクション画像、又はシャドウグラムが分布情報として用いられる場合、これら画像はいずれも眼底を正面(角膜側)から見た形態を表す画像であるから、第1の実施形態の蛍光画像の場合と同様に、当該画像に対して設定された走査目標位置に基づく信号光の走査を行うことが可能である。
 また、OCTによる断層像や3次元画像(OCT画像)が分布情報として用いられる場合、眼底の表面に相当する画像領域(眼底表面領域)を特定し、更に、この眼底表面領域と赤外眼底画像との画像マッチングを行うように構成できる。それにより、第1の実施形態と同様に、当該OCT画像に対して設定された走査目標位置に基づく信号光の走査を行うことが可能である。
 また、SLO画像やOCT画像のように眼底に対して光を走査して得られた画像(走査画像)が分布情報として用いられる場合、この走査における光の走査位置を示す走査位置情報(たとえば各画素位置に対してあらかじめ対応付けられたガルバノスキャナの向きを示す情報。必要に応じて固視位置を示す情報も用いられる。)に基づいて、この走査画像と赤外眼底画像との画像マッチングを行うことができる。それにより、第1の実施形態と同様に、走査画像に対して設定された走査目標位置に基づく信号光の走査を行うことが可能である。
 以上の例では、リアルタイムで取得される赤外眼底画像と過去に取得された分布情報との位置合わせを行なっているが、分布情報に対する位置合わせ対象となる画像は赤外眼底画像には限られない。つまり、この位置合わせ対象となる画像は、引き続き又は並行して行われるOCT計測により得られるOCT画像との間において位置合わせが可能な眼底の画像(単に眼底画像と呼ぶことがある)であればよい。眼底画像は正面画像であってもよいし、断層画像や3次元画像であってもよい。正面画像である場合には、上記の例と同様にして分布情報との間における位置合わせを行うことができる。断層画像や3次元画像の場合には、上記と同様に眼底表面領域をリアルタイムで特定することにより、分布情報との間における位置合わせを行うことができる。
 以上の例においては、リアルタイムで取得される眼底画像と過去に取得された分布情報とを直接に位置合わせしているが、眼底の他の画像を介してこれらを位置合わせするように構成することも可能である。
 たとえば、眼底画像の種別と分布情報の種別とが異なる場合、位置合わせの精度や確度が低下するおそれがある。その場合、眼底画像と同様の種別であり、かつ、分布情報との間で位置合わせが可能な(又は分布情報との間で既に位置合わせがなされている)画像を介して位置合わせを行うことが可能である。その具体例として、赤外眼底画像(又は無赤色光画像)が眼底画像として用いられ、かつ、他種別の画像又は測定結果情報が分布情報として用いられる場合がある。
 なお、分布情報として測定結果情報が用いられる場合、測定結果情報が測定値の分布を表すものであることから、一般に、測定結果情報とともに眼底の画像が取得される。この眼底の画像として赤外眼底画像(又は無赤色光画像)を用いることにより、赤外眼底画像同士(又は無赤色光画像同士)での位置合わせが可能となる。また、他種別の画像又は測定結果情報とともに取得された画像の種別に応じて、リアルタイムで取得される眼底画像の種別を選択するようにしてもよい。ここで、位置合わせの媒介となる画像は、たとえば記憶部212に記憶される。この場合、記憶部212は「画像記憶部」の一例として機能する。なお、画像記憶部は眼底観察装置の外部の記憶装置に記憶されていてもよい。この外部の記憶装置としては、眼底観察装置に接続されたコンピュータに搭載された記憶装置、眼底観察装置又はこのコンピュータに直接又はネットワークを介して接続された記憶装置などがある。
 以下、他種別の画像又は測定結果情報とともに取得された画像を介して位置合わせを行うことが可能な眼底観察装置について説明する。この眼底観察装置は、たとえば第1の実施形態と同様に、図1~図3(必要に応じて図4も含む)に示す構成を有する。なお、この実施形態において、第1の実施形態で使用した符号を適宜用いることとする。
 この例において、記憶部212には、分布情報と、この分布情報とともに取得された眼底Efの画像(たとえば赤外眼底画像のフレーム。付帯画像と呼ぶ。)とが記憶されているものとする。
 なお、付帯画像は赤外画像や無赤色光画像以外の画像であってもよい。たとえば視野検査で得られた測定結果情報とOCT画像とを特開2009-34480号公報等に記載された技術を用いて位置合わせすることで、OCT画像を付帯画像とすることができる。また、SLOマイクロペリメトリで得られた測定結果情報とSLO画像とを特開2003-235800号公報等に記載された技術を用いて位置合わせすることで、SLO画像を付帯画像とすることができる。また、OCTを用いた層厚測定で得られた測定結果情報とOCT画像とを特開2009-34480号公報等に記載された技術を用いて位置合わせすることで、OCT画像を付帯画像とすることができる。
 以下、図9のフローチャートを参照する。
(S21:分布情報と付帯画像を読み込む)
 主制御部211は、分布情報と付帯画像を記憶部212から読み込む。
(S22:分布情報を表示する)
 主制御部211は、ステップ21で読み込まれた分布情報を表示部240Aに表示させる。分布情報は、所定の表示画面に表示される。この表示画面には、たとえば第1の実施形態と同様のGUI部が設けられている。
 特に分布情報が測定結果情報である場合において、主制御部211は、付帯画像に測定結果情報を重畳表示させることができる。それにより、眼底の画像である付帯画像と、測定結果の分布を表す測定結果情報との間の位置関係を容易に把握することが可能となる。つまり、眼底Efにおいて測定結果情報がどのように分布しているか直感的に把握することが可能となる。この重畳表示処理を適用することで、ステップ24における走査目標位置の手動設定の容易化を図ることができる。
(S23:OCTモードへ移行する)
 ユーザは、GUI部を操作してOCTモードへの移行を指示する。この指示を受けた主制御部211は、たとえば第1の実施形態と同様に、GUI部の表示内容を変更する。表示内容が変更されたGUI部には、たとえば撮影開始ボタン、平行移動ボタン、回転移動ボタン等が表示される。
(S24:分布情報に走査目標位置を設定する)
 走査目標位置設定部231は、表示された分布情報に対して走査目標位置を設定する。この設定処理は、たとえば第1の実施形態と同様に自動で又は手作業で行われる。
(S25:OCT計測の開始を指示する)
 走査目標位置の設定が完了したら、ユーザは、GUI部を操作してOCT計測の開始を指示する。この指示を受けて、主制御部211は、以下に説明するOCT計測の準備動作を開始する。
(S26:赤外眼底画像の取得を開始する)
 OCT計測の開始指示を受けて、主制御部211は、観察光源11を点灯させる。それにより、赤外眼底画像がリアルタイムで得られる。主制御部211は、この赤外眼底画像をリアルタイムで動画表示させることができる。
(S27:付帯画像を介して赤外眼底画像中の走査目標領域を特定する)
 走査目標領域特定部232は、ステップ24において分布情報に対して設定された走査目標位置に対応する付帯画像中の画像領域を特定する。この処理は、たとえば、分布情報と付帯画像との間で既になされている位置の対応付けに基づいて行われる。更に、走査目標領域特定部232は、この付帯画像中の画像領域に対応する赤外眼底画像中の画像領域を特定する。この処理は、たとえば、時系列で得られる赤外眼底画像の各フレームと付帯画像との間で順次にリアルタイムで行われる。このとき、付帯画像の種別に応じて、この処理で使用される画像解析プログラムを選択するようにしてもよい。
 この段階において、主制御部211が、この赤外眼底画像に基づくアライメント及びフォーカス調整を必要に応じて実行させることができる。
(S28:赤外眼底画像と走査目標領域を表示する)
 ステップ27における走査目標領域の特定がなされたことに対応し、主制御部211は、赤外眼底画像の1枚のフレームに基づく静止画像と、この1フレームについて特定された走査目標領域を示す情報とを表示させる。その表示態様は、たとえば第1の実施形態と同様である。以上で、OCT計測を行うための準備動作は終了となる。
(S29:OCT計測を実施する)
 走査目標領域特定部232は、ステップ28の表示に対応するタイミングで取得された赤外眼底画像のフレーム(第2のフレームと呼ぶ)と、ステップ28の表示処理に供されたフレーム(第1のフレームと呼ぶ)とのマッチングを行なう。この処理は、たとえば第1の実施形態で説明したフレーム間のマッチングを適用して行われる。それにより、第1のフレームについて特定された走査目標領域に対応する第2のフレーム中の画像領域が特定される。この画像領域が、第2のフレームにおける走査目標領域となる。
 続いて、主制御部211は、第2のフレームの走査目標領域に基づきガルバノスキャナ42を制御して信号光LSを走査させることにより、OCT計測を実施する。
(S30:断層像を形成する)
 画像形成部220は、ステップ29における信号光LSの走査に伴ってCCDイメージセンサ115から出力される検出信号に基づいて、走査目標領域に沿う眼底Efの断層像を形成する。この断層像は、主制御部211によって表示部240Aに表示される。以上で、この動作例の説明は終了となる。
 この実施形態に係る眼底観察装置の効果について説明する。
 この実施形態において、分布情報は、眼底の任意の画像又は任意の測定結果情報である。また、記憶部212等の画像記憶部には、分布情報とともに取得された眼底Efの付帯画像が記憶されている。ここで、上記任意の画像と付帯画像とは、たとえば、互いに異なる種別の画像である。
 走査目標位置設定部231は、表示部240Aに表示された分布情報に対して走査目標位置を設定する。走査目標領域特定部232は、分布情報に対して設定された走査目標位置に対応する付帯画像における画像領域を特定し、更に、この画像領域に対応する眼底画像中の画像領域を特定する。この眼底画像は、たとえば、眼底観察装置によりリアルタイムで取得される動画像(たとえば赤外眼底像、無赤色光画像、SLO画像等)である。
 主制御部211は、走査目標領域特定部232により特定された眼底画像中の画像領域に基づきガルバノスキャナ42を制御して信号光LSを走査させる。画像形成部220は、この制御に基づく信号光LSの走査に伴う干渉光LCの検出結果に基づいて、眼底Efの断層像を形成する。
 このように作用する眼底観察装置によれば、分布情報に対して設定された走査目標位置を、これとともに取得された付帯画像を介してリアルタイム眼底画像に移すことができ、それにより特定された走査目標領域に対してOCT計測を行うことができる。したがって、任意の種別の分布情報から把握された注目部位のOCT計測を容易に行うことができる。
 また、付帯画像の種別とリアルタイム眼底画像の種別とを一致させることにより(又は、画像マッチング等による位置合わせを比較的高確度、高精度で行うことが可能な種別の組み合わせとすることにより)、上記注目部位のOCT計測を高確度、高精度で行うことができる。
〈第3の実施形態〉
 この実施形態では、第1及び/又は第2の実施形態と組み合わせて使用可能なユーザインターフェースの例を説明する。以下、上記実施形態で用いられた符号を適宜使用して説明を行う。
 この実施形態に係る眼底観察装置の構成例を図10に示す。この眼底観察装置は、第1の実施形態とほぼ同じ構成を有する。相違は、制御部210に走査条件設定部213が設けられている点である。また、この実施形態の主制御部211は「表示制御部」の一例として機能する。走査条件設定部213及び主制御部211の動作内容については以下において適宜説明する。
 主制御部211は、図11に示すような位置合わせ画面400を表示部240Aに表示させる。位置合わせ画面400には、位置合わせの対象となる2つの画像が表示される画像表示部410が設けられている。画像表示部410の下方には、レジストレーションボタン421と、キャンセルボタン422と、OKボタン423が設けられている。
 画像表示部410に表示される2つの画像は任意の組み合わせでよい。以下の説明において、左側に表示される画像H1は、眼底観察装置によりリアルタイムで取得される眼底Efの赤外眼底画像であるとする。赤外眼底画像H1の表示態様は、動画表示であってもよいし、1つのフレームに基づく静止画像表示であってもよい。また、右側に表示される画像H2は、過去に取得された眼底Efのカラー眼底像であるとする。以下、過去に取得された眼底Efのカラー眼底像に対して走査目標位置を設定し、この走査目標位置に基づいて眼底EfのOCT計測を行う場合について説明する。
 ユーザは、赤外眼底画像H1及びカラー眼底像H2を観察し、眼底Efの特徴点を少なくとも3つ特定する。更に、ユーザは、操作部240B(マウス等のポインティングデバイス)を用いて、特定された3つ以上の特徴点に相当する画像位置を、赤外眼底画像H1及びカラー眼底像H2のそれぞれに対して指定する。主制御部211は、指定された画像位置を示す情報を各画像H1、H2に重畳表示させる。なお、特徴点の例として、視神経乳頭の中心や縁部、特徴的な血管、血管の分岐部、病変部などがある。
 これら特徴点の判別が困難な場合には、当該画像に対してエンハンス処理(強調処理)を施すことが可能である。この強調処理は、たとえば、当該画像に対して2次元フーリエ変換や離散コサイン変換を施して周波数空間における画像を形成し、この周波数空間における所定の低周波成分のみを除去するハイパスフィルタ、又は、所定の低周波成分と所定の高周波成分とを除去するバンドパスフィルタを適用することにより実行される。なお、除去される周波数成分の範囲は、実空間における除去対象である低周波成分や、コントラストを向上させる程度などに基づいて適宜に設定される。この周波数成分の除去範囲は、事前に設定された範囲であってもよいし、周波数空間における画像を解析して設定された範囲であってもよい。
 他のエンハンス処理として次のような処理を行うことも可能である。まず、画像に対して平滑化処理を施して平滑化画像を形成する。次に、平滑化画像と当該画像との差分画像を形成する。更に、当該画像と差分画像とを合成することにより、低周波成分が除去された画像を形成する。なお、差分処理において、当該画像及び/又は平滑化画像に所定の重みを乗算することによって差分画像の形成を行い、かつ、合成処理において、1から重みを減算した値で差分画像を除算するように構成することが可能である。また、この重みを0.7以上0.9以下の値とし、差分処理において、当該値が乗算された平滑化画像と当該画像との差分画像を形成するようにしてもよい。以上のような強調処理の実行指示は、たとえば後述の強調処理指定部529を操作することで行われる。
 各画像H1、H2に対して4つの特徴点が指定されたときの表示態様の例を図12に示す。図12において、赤外眼底画像H1に対して指定された特徴点の画像位置は、ドットJ1(i)(i=1~4)で示されている。また、カラー眼底像H2に対して指定された特徴点の画像位置は、ドットJ2(i)(i=1~4)で示されている。各i=1~4について、ドットJ1(i)とドットJ2(i)は、同じ特徴点を示している。
 なお、2つの画像H1、H2の間における特徴点の対応付けは、ユーザが行なってもよいし、主制御部211が行なってもよい。前者の場合、たとえば、特徴点の画像位置を指定するときにユーザが操作部240Bを用いて各特徴点を示す識別情報を入力し、主制御部211が2つの画像H1、H2の間で識別情報を照合することにより上記対応付けがなされる。後者の場合、たとえば、主制御部211は、指定された特徴点の位置関係に基づいて2つの画像H1、H2の間で対応する位置にある特徴点同士を同じものとして対応付ける。
 ユーザが操作部240Bを用いてレジストレーションボタン421をクリックすると、画像処理部230は、2つの画像H1、H2の間で対応する特徴点同士を位置合わせすることにより、2つの画像H1、H2の間の位置合わせを行う。この画像位置合わせにより、赤外眼底画像H1における座標とカラー眼底像H2における座標とが対応付けられる。それにより、2つの画像H1、H2の一方の画像中の位置が指定されたときに、この指定位置に対応する他方の画像中の位置が特定される。この特定処理はたとえば主制御部211又は画像処理部230によって実行される。
 ユーザは画像位置合わせ(レジストレーション)の結果に不満足であれば、操作部240Bを用いてキャンセルボタン422をクリックする。そして、上記作業を再度行う。一方、画像位置合わせが完了したら、ユーザは操作部240Bを用いてOKボタン423をクリックする。これを受けて、主制御部211は、図13に示すような走査目標位置設定画面500を表示部240Aに表示させる。
 走査目標位置設定画面500には、画像表示部510、走査パターン指定部521、走査長指定部522、加算平均枚数指定部523、走査ピッチ指定部524、位置リセットボタン525、原画像表示ボタン526、参照画像表示ボタン527、取り込み画像表示ボタン528、強調処理指定部529、OKボタン530、及びキャンセルボタン531が設けられている。図13の画像表示部510に呈示されている画像Hは、赤外眼底画像H1又はカラー眼底像H2を示す。なお、これら以外の画像が処理に供されている場合、たとえば第2の実施形態の付帯画像が考慮されている場合、画像Hは当該画像も含むものとする。
 画像表示部510には各種画像が表示される。この動作例では、画像表示部510への画像の表示は切り替え表示であるとする。たとえば、原画像表示ボタン526がクリックされると、主制御部211は赤外眼底画像H1を画像表示部510に表示させる。また、参照画像表示ボタン527がクリックされると、主制御部211はカラー眼底像H2を画像表示部510に表示させる。また、取り込み画像表示ボタン528がクリックされると、主制御部211はこれら以外の取り込み画像(たとえば付帯画像)を画像表示部510に表示させる。
 走査パターン指定部521、走査長指定部522、加算平均枚数指定部523、走査ピッチ指定部524、及び位置リセットボタン525は、OCT計測における走査条件の入力操作に用いられる。走査条件とは、信号光LSをどのように走査させるかを決定する1つ以上のパラメータを意味する。このパラメータには、走査の形状を表す走査パターン、走査の長さを表す走査長、1枚の画像を得るための走査の反復回数を表す加算平均枚数、走査点(信号光LSの照射スポット)の間隔を表す走査ピッチなどが含まれる。
 走査パターン指定部521は、第1の実施形態で列挙したような各種走査パターンのうちのいずれを選択的に使用するか指定するために用いられる。なお、図13に示す走査パターン指定部521はプルダウンメニューであるが、これには限定されない。走査パターン指定部521を用いて走査パターンが指定されると、その指定結果が走査条件設定部213に送られる。
 走査長指定部522は、走査長を指定するために用いられる。走査長の定義はたとえば走査パターンに応じてあらかじめ決定されている。たとえば、ラインスキャン及びその組み合わせからなる走査パターンにおいては各走査線の長さが走査長とされ、円スキャンにおいては円形の走査線の直径が走査長とされる。なお、図13に示す走査長指定部522は複数のチェックボックスが選択肢として設けられたものであるが、これには限定されない(以下同様)。走査長指定部522を用いて走査パターンが指定されると、その指定結果が走査条件設定部213に送られる。
 加算平均枚数指定部523は、走査の反復回数を指定するために用いられる。信号光LSは、指定された回数だけ同じ走査線に沿って繰り返し走査される。画像形成部220は、同じ走査線に沿って得られた複数のデータ(画像)を加算平均することにより、ランダムノイズが低減された断層像を形成する。加算平均枚数指定部523を用いて反復回数(加算平均枚数)が指定されると、その指定結果が走査条件設定部213に送られる。
 走査ピッチ指定部524は、走査点の間隔(走査ピッチ)を指定するために用いられる。走査ピッチ指定部524を用いて走査ピッチが指定されると、その指定結果が走査条件設定部213に送られる。
 走査条件設定部213(又は記憶部212)には、上記の各走査条件の選択肢を示す情報があらかじめ記憶されている。走査条件設定部213は、この情報を参照し、以上のようにして指定された走査条件を組み合わせる。たとえば、走査パターンとして縦横5本ずつのラインスキャンからなる「5ラインスキャン」が指定され、走査長として「6mm」が指定され、加算平均枚数として「16」が指定され、走査ピッチとして「0.10」が指定された場合、走査条件設定部213は、これらを組み合わせてなる走査条件情報を上記情報を参照して生成し、主制御部211に送る。
 この動作例では走査条件の設定にユーザによる入力操作が含まれているので、走査条件設定部213及びユーザインターフェース240が「走査条件設定部」を構成している。これに対し、走査条件の設定を自動で行う場合には、「走査条件設定部」はユーザインターフェース240を含む必要はない。この自動設定は、たとえば経過観察や術前術後観察のように過去と同じ走査条件が適用される場合に用いられる。また、病名や病状等の条件と走査条件とがあらかじめ関連付けられている場合などにも自動設定を適用することが可能である。
 主制御部211は、走査条件設定部213により生成された走査条件情報に基づいて、画像表示部510への表示内容を決定して画像表示部510に表示させる。図13には、走査可能範囲画像511と、走査中心可動範囲画像512と、走査パターン画像513とを、画像Hに重畳表示させた例が記載されている。
 走査可能範囲画像511は、当該走査条件に基づいて走査を行うことが可能な範囲を示す枠状の画像である。走査可能範囲画像511の形状は走査パターンの指定内容に応じて決定され、そのサイズは走査長の指定内容(並びに、画像Hの撮影画角及び/又は表示サイズ)に応じて決定される。
 走査中心可動範囲画像512は、当該走査条件に基づく走査において、その走査の中心位置を移動することが可能な範囲を示す枠状の画像である。走査中心可動範囲画像512の形状は、走査パターンの指定内容に応じて決定され、そのサイズは走査長の指定内容(並びに、画像Hの撮影画角及び/又は表示サイズ)に応じて決定される。
 走査パターン画像513は、指定された走査パターンを示す形状の画像である。なお、走査パターン画像513は、指定された走査パターンと同じ形状である必要はない。たとえば図13に示す走査パターン画像513は「5ラインスキャン」を示すものであるが、「5ラインスキャン」の端部のみを呈示している。これは、「5ラインスキャン」の端部以外の部分(特に中央部分)が画像Hに重畳されてしまうと、画像Hの観察を妨げるおそれがあるからである。
 ユーザは、操作部240Bを用いて走査パターン画像513を移動させることができる。これは、走査位置を変更する操作の例である。この操作は、たとえばマウス等のポインティングデバイスを用いて行われる。その具体例として、走査パターン画像513の所定部位(たとえば端部)以外の部位にポインタを位置させた状態でドラッグ操作を行うことで、画像H上において走査パターン画像513を平行移動させることができる。また、走査パターン画像513の上記所定部位にポインタを位置させた状態でドラッグ操作を行うことにより、画像H上において走査パターン画像513を回転移動させることができる。このときの回転中心は、走査パターン画像513上の任意の位置、又は画像H上にあらかじめ指定された位置である。また、画像H上の任意の位置をクリックすることで、走査の中心位置が当該クリック位置に配置されるように走査パターン画像513を移動させることができる。
 なお、走査可能範囲画像511は常時表示されている必要はない。たとえば、走査可能範囲画像511により規定されている範囲の外部領域に走査目標位置を設定するための操作がなされたことに対応して、主制御部211が走査可能範囲画像511を重畳表示させるように構成することができる。走査中心可動範囲画像512の外部領域に走査中心が位置するように走査目標位置が設定された場合についても同様である。このような表示制御は、走査可能範囲や走査中心可動範囲と、画像Hとの位置関係が既に対応付けられていることに基づいて実行される。
 また、走査可能範囲画像511により規定されている範囲の外部領域に走査目標位置を設定するための操作がなされたことに対応して、主制御部211が当該走査可能範囲の内部領域に走査パターン画像513を移動させて重畳表示させるように構成することも可能である。走査中心可動範囲画像512の外部領域に走査中心が位置するように走査目標位置が設定された場合についても同様である。このような処理において、走査目標位置の移動先は任意に決定される。たとえば、所定の基準位置(たとえば画像Hの中心位置)と走査目標位置の設定位置とを結ぶ線分上であって当該走査可能範囲(又は当該走査中心可動範囲)の内部領域に属する位置を、設定された走査目標位置の移動先とすることができる。
 位置リセットボタン525は、このような手動による走査目標位置の変更をリセットして所定のデフォルト位置に復帰させるために用いられる。
 以上のようにしてユーザは画像Hを参照しつつ走査目標位置を設定する。特に、過去に取得された眼底Efのカラー眼底像H2を参照しつつ走査目標位置の設定を行うことが可能である。
 カラー眼底像H2に対する走査目標位置の設定が完了した後に、原画像表示ボタン526がクリックされて赤外眼底画像H1を表示させるための指示がなされると、走査目標領域特定部232は、カラー眼底像H2に対して設定された走査目標位置(走査パターン画像513の位置)を、上記の画像位置合わせ結果に基づき変更することで、設定された走査目標位置に対応する赤外眼底画像H1中の画像領域を特定する。
 主制御部211は、画像表示部510に赤外眼底画像H1を表示させ、かつ、特定された画像領域に走査パターン画像513を重畳表示させる。このとき、走査可能範囲画像511及び走査中心可動範囲画像512についても同様に、画像位置合わせ結果に基づいて、赤外眼底画像H1上における表示位置が変更される。つまり、この動作例によれば、表示される画像の切り替えがなされたことに対応し、走査可能範囲画像511、走査中心可動範囲画像512及び走査パターン画像513の表示位置を、画像間の位置ズレに応じて変更することができる。
 主制御部211は、所定のトリガを受けて、赤外眼底画像H1上の走査パターン画像513が示す走査条件(並びに加算平均枚数及び走査ピッチの各走査条件)でのOCT計測を実行させる。
 以上においては分布情報が画像(特にカラー眼底像H2)の場合について説明したが、分布情報が測定結果情報である場合においても同様の処理を行うことが可能である。その場合において、第2の実施形態で説明したように、測定結果情報に対して設定された走査目標位置を、付帯画像を介して、赤外眼底画像(リアルタイム眼底画像)に移すことができる。このとき、図11に示す位置合わせ画面400の画像表示部410には、たとえば付帯画像と赤外眼底画像とが並べて表示される。
 更に、主制御部211は、付帯画像と測定結果情報との間の既知の位置関係に基づいて、測定結果情報を付帯画像に重畳表示させることができる。これにより、付帯画像における測定結果情報の位置、つまり眼底Efにおける測定結果情報の位置を、容易に把握することができ、走査目標位置の設定の容易化を図ることができる。
 また、主制御部211は、当該位置関係と上記画像位置合わせ結果とに基づいて、測定結果情報を赤外眼底画像に重畳表示させることも可能である。これにより、リアルタイムで得られた眼底画像における測定結果情報の位置、つまり現在観察中の眼底Efにおける測定結果情報の位置を、容易に把握することができる。
 この実施形態に係る眼底観察装置の効果について説明する。
 この眼底観察装置は、走査目標位置の設定が可能な範囲(設定可能範囲)を示す設定可能範囲情報を分布情報に重畳表示することができる。この設定可能範囲情報は、たとえば走査可能範囲画像511や走査中心可動範囲画像512である。それにより、走査目標位置の設定操作を支援することができる。また、走査目標位置の設定ミスを防止することができる。
 また、設定可能範囲情報は常時表示されている必要はない。たとえば、この眼底観察装置は、分布情報における設定可能範囲の外部領域に走査目標位置を設定するための操作がなされたことに対応して、設定可能範囲情報を分布情報に重畳表示させることができる。それにより、分布情報の観察を好適に行うことができるとともに、走査目標位置の設定が不適当であった場合にはその旨をユーザに認識させることができる。
 また、この眼底観察装置は、上記実施形態の構成に加えて、信号光LSの走査条件を設定する走査条件設定部213を有する。更に、この眼底観察装置の主制御部211(表示制御部)は、分布情報に重畳表示させる設定可能範囲情報の形態を、走査条件の設定結果に対応して切り替えることができる。それにより、走査条件の設定結果に応じた形態の設定可能範囲情報が分布情報に重畳表示されるので、走査目標位置の設定を好適に支援することが可能である。
 また、分布情報における設定可能範囲の外部領域に走査目標位置を設定するための操作がなされたことに対応し、この眼底観察装置の走査目標領域特定部232は、この設定可能範囲の内部領域に新たな走査目標位置を設定することができる。それにより、不適当な位置に走査目標位置が設定された場合であっても、適当な位置に新たな走査目標位置を自動設定することができるので、走査目標位置の設定を好適に支援することが可能である。なお、ユーザにより設定された走査目標位置を考慮して新たな走査目標位置を決定することも可能である。
 また、この眼底観察装置は、付帯画像に測定結果情報を重畳表示させることが可能である。それにより、走査目標位置の設定を好適に支援することができる。また、この眼底観察装置は、眼底画像(赤外眼底画像等)に測定結果情報を重畳表示させることができる。それにより、現在観察中の眼底Efにおける測定結果情報の位置を容易に把握することが可能である。
 以上のような処理を介してOCT計測が行われた場合、それにより得られたOCT画像、分布情報(画像、測定結果情報)、付帯画像、リアルタイム眼底画像を任意の組み合わせで並べて表示させることができる。
[変形例]
 以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明の要旨の範囲内における任意の変形(省略、置換、付加等)を適宜に施すことが可能である。
 上記の実施形態においては、光路長変更部41の位置を変更することにより、信号光LSの光路と参照光LRの光路との光路長差を変更しているが、この光路長差を変更する手法はこれに限定されるものではない。たとえば、参照光の光路に反射ミラー(参照ミラー)を配置し、この参照ミラーを参照光の進行方向に移動させて参照光の光路長を変更することによって、当該光路長差を変更することが可能である。また、被検眼Eに対して眼底カメラユニット2やOCTユニット100を移動させて信号光LSの光路長を変更することにより当該光路長差を変更するようにしてもよい。また、特に被測定物体が生体部位でない場合などには、被測定物体を深度方向(z方向)に移動させることにより光路長差を変更することも可能である。
 上記の実施形態を実現するためのコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。
 また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。
1 眼底観察装置
2 眼底カメラユニット
10 照明光学系
30 撮影光学系
31 合焦レンズ
31A 合焦駆動部
41 光路長変更部
42 ガルバノスキャナ
50 アライメント光学系
60 フォーカス光学系
100 OCTユニット
101 光源ユニット
105 光減衰器
106 偏波調整器
115 CCDイメージセンサ
200 演算制御ユニット
210 制御部
211 主制御部
212 記憶部
213 走査条件設定部
220 画像形成部
230 画像処理部
231 走査目標位置設定部
2311 病変候補部位特定部
2312 プログラム記憶部
2313 種別特定部
2314 プログラム選択部
2315 蛍光画像解析部
2316 設定処理部
232 走査目標領域特定部
240A 表示部
240B 操作部
E 被検眼
Ef 眼底
LS 信号光
LR 参照光
LC 干渉光

Claims (27)

  1.  過去に実施された検査により取得された眼底における検査結果の分布情報を表示する表示部と、
     前記眼底の動画撮影を行う撮影部と、
     前記眼底を経由した信号光と参照光とを干渉させて干渉光を生成して検出する光学系と、前記眼底を前記信号光で走査する走査部とを含み、前記走査に伴う前記干渉光の検出結果に基づいて前記眼底の断層像を形成する断層像形成部と、
     前記表示部に表示された前記分布情報に対して前記信号光の走査目標位置を設定する設定部と、
     前記動画撮影により得られた眼底画像において前記走査目標位置に対応する画像領域を特定する特定部と、
     特定された前記画像領域に基づき前記走査部を制御して前記信号光を走査させる制御部と
     を有し、
     前記断層像形成部は、前記制御に基づく前記信号光の走査に伴う前記干渉光の検出結果に基づいて断層像を形成する
     ことを特徴とする眼底観察装置。
  2.  前記設定部は、
     前記分布情報を解析して前記眼底の病変候補部位を特定する解析部を含み、
     特定された前記病変候補部位に基づいて前記走査目標位置を設定する
     ことを特徴とする請求項1に記載の眼底観察装置。
  3.  前記解析部は、
     2以上の分布情報の種別に対応する2以上の解析プログラムをあらかじめ記憶した第1の記憶部と、
     前記表示部に表示された前記分布情報の種別を特定する第1の種別特定部と、
     特定された種別に対応する解析プログラムを前記2以上の解析プログラムから選択する第1の選択部と
     を含み、
     選択された解析プログラムを用いて当該分布情報を解析して前記病変候補部位を特定する
     ことを特徴とする請求項2に記載の眼底観察装置。
  4.  前記第1の種別特定部は、表示された前記分布情報における前記眼底の特徴部位の検査結果に基づいて当該分布情報の種別を特定する請求項3に記載の眼底観察装置。
  5.  表示された前記分布情報は、その種別を示す所定の識別情報とあらかじめ関連付けられており、
     前記第1の種別特定部は、前記識別情報に基づいて当該分布情報の種別を特定する
     ことを特徴とする請求項3に記載の眼底観察装置。
  6.  前記分布情報は、画素値を前記検査結果とする前記眼底の画像を含み、
     前記特定部は、
     2以上の画像の種別に対応する2以上の画像解析プログラムをあらかじめ記憶した第2の記憶部と、
     前記表示部に表示された前記画像の種別を特定する第2の種別特定部と、
     特定された種別に対応する画像解析プログラムを前記2以上の画像解析プログラムから選択する第2の選択部と
     を含み、
     選択された画像解析プログラムを用いて当該画像と前記眼底画像との画像マッチングを行い、当該画像マッチングにより当該画像中の前記走査目標位置に対応付けられた前記眼底画像中の画像領域を特定する
     ことを特徴とする請求項1~請求項5のいずれか一項に記載の眼底観察装置。
  7.  前記第2の種別特定部は、表示された前記画像における前記眼底の特徴部位の画素値に基づいて当該画像の種別を特定することを特徴とする請求項6に記載の眼底観察装置。
  8.  表示された前記画像は、その種別を示す所定の識別情報とあらかじめ関連付けられており、
     前記第2の種別特定部は、前記識別情報に基づいて当該画像の種別を特定する
     ことを特徴とする請求項6に記載の眼底観察装置。
  9.  前記分布情報は、画素値を前記検査結果とする前記眼底の蛍光画像を含み、
     蛍光画像の種別は、蛍光剤を投与して撮影される第1の種別と、蛍光剤を投与せずに撮影される第2の種別とを含む
     ことを特徴とする請求項3~請求項8のいずれか一項に記載の眼底観察装置。
  10.  前記分布情報は、画素値を前記検査結果とする前記眼底の蛍光画像、赤外画像及び無赤色光画像のうちの少なくとも1つを含むことを特徴とする請求項1~請求項8のいずれか一項に記載の眼底観察装置。
  11.  前記分布情報とともに取得された前記眼底の付帯画像を記憶する画像記憶部を更に有し、
     前記設定部は、前記分布情報に対して前記走査目標位置を設定し、
     前記特定部は、前記分布情報に対して設定された前記走査目標位置に対応する前記付帯画像における画像領域を特定し、この画像領域に対応する前記眼底画像中の画像領域を特定し、
     前記制御部は、特定された前記眼底画像中の画像領域に基づき前記走査部を制御して前記信号光を走査させ、
     前記断層像形成部は、当該制御に基づく前記信号光の走査に伴う前記干渉光の検出結果に基づいて断層像を形成する
     ことを特徴とする請求項1~請求項10のいずれか一項に記載の眼底観察装置。
  12.  前記分布情報は、前記眼底を測定して得られた測定値を前記検査結果とする測定結果情報を含み、
     前記設定部は、前記測定結果情報に対して前記走査目標位置を設定する
     ことを特徴とする請求項11に記載の眼底観察装置。
  13.  前記測定結果情報は、視野検査により得られた視野の範囲の測定結果、マイクロペリメトリにより得られた網膜視感度の測定結果、及び、層厚測定により得られた眼底の層の厚みの測定結果のうちの少なくとも1つを含むことを特徴とする請求項12に記載の眼底観察装置。
  14.  前記表示部は、前記付帯画像又は前記眼底画像に前記測定結果情報を重畳表示することを特徴とする請求項12又は請求項13に記載の眼底観察装置。
  15.  前記分布情報は、前記付帯画像と異なる種別の画像を含み、
     前記設定部は、当該画像に対して前記走査目標位置を設定する
     ことを特徴とする請求項12に記載の眼底観察装置。
  16.  前記付帯画像と前記眼底画像とは同じ種別の画像であることを特徴とする請求項11~請求項15のいずれか一項に記載の眼底観察装置。
  17.  前記設定部は、前記走査目標位置を設定するための操作を受け付ける操作部を含むことを特徴とする請求項1~請求項16のいずれか一項に記載の眼底観察装置。
  18.  前記表示部は、前記走査目標位置の設定が可能な範囲を示す設定可能範囲情報を前記分布情報に重畳表示することを特徴とする請求項17に記載の眼底観察装置。
  19.  前記分布情報における前記範囲の外部領域に前記走査目標位置を設定するための操作がなされたことに対応して前記設定可能範囲情報を前記分布情報に重畳表示させる表示制御部を更に有することを特徴とする請求項18に記載の眼底観察装置。
  20.  前記信号光の走査条件を設定する走査条件設定部と、
     前記分布情報に重畳表示させる前記設定可能範囲情報の形態を前記走査条件の設定結果に対応して切り替える表示制御部と
     を更に有することを特徴とする請求項18に記載の眼底観察装置。
  21.  前記設定部は、前記分布情報における前記範囲の外部領域に前記走査目標位置を設定するための操作がなされたことに対応し、前記範囲の内部領域に新たな走査目標位置を設定することを特徴とする請求項18に記載の眼底観察装置。
  22.  前記操作部は、表示された前記分布情報に対して設定された前記走査目標位置を平行移動させるための操作を受け付ける第1の操作部を含むことを特徴とする請求項17~請求項21のいずれか一項に記載の眼底観察装置。
  23.  前記操作部は、表示された前記分布情報に対して設定された前記走査目標位置を回転移動させるための操作を受け付ける第2の操作部を含むことを特徴とする請求項17~請求項22のいずれか一項に記載の眼底観察装置。
  24.  前記操作部は、ポインティングデバイス及び/又はグラフィカルユーザインタフェースを含むことを特徴とする請求項17~請求項23のいずれか一項に記載の眼底観察装置。
  25.  前記特定部により前記走査目標位置に対応する画像領域が特定されたことに対応し、前記制御部は、前記眼底画像の1フレームに基づく静止画像と、当該1フレームについて特定された前記画像領域を示す情報とを前記表示部に表示させることを特徴とする請求項1~請求項24のいずれか一項に記載の眼底観察装置。
  26.  前記静止画像及び前記情報の表示後に、前記特定部は、当該表示に対応するタイミングで前記撮影部により得られた前記眼底画像の新たなフレームと、前記1フレームとの画像マッチングを行なうことで、前記1フレームについて特定された前記画像領域に対応する前記新たなフレーム中の画像領域を特定し、
     前記制御部は、前記新たなフレーム中の画像領域に基づき前記走査部を制御して前記信号光を走査させる
     ことを特徴とする請求項25に記載の眼底観察装置。
  27.  前記分布情報は、前記撮影部を用いて過去に実施された動画撮影若しくは静止画撮影により取得された画像、又は前記断層像形成部により過去に形成された断層像に基づいて生成された情報であることを特徴とする請求項1~請求項26のいずれか一項に記載の眼底観察装置。
PCT/JP2012/071544 2012-02-28 2012-08-27 眼底観察装置 WO2013128680A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/377,082 US9560964B2 (en) 2012-02-28 2012-08-27 Fundus observation apparatus
EP12869703.4A EP2821006B1 (en) 2012-02-28 2012-08-27 Funduscopic device
US15/244,710 US10098542B2 (en) 2012-02-28 2016-08-23 Fundus observation apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012041517 2012-02-28
JP2012-041517 2012-02-28
JP2012103942A JP5981213B2 (ja) 2012-02-28 2012-04-27 眼底観察装置
JP2012-103942 2012-04-27

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/377,082 A-371-Of-International US9560964B2 (en) 2012-02-28 2012-08-27 Fundus observation apparatus
US15/244,710 Division US10098542B2 (en) 2012-02-28 2016-08-23 Fundus observation apparatus

Publications (1)

Publication Number Publication Date
WO2013128680A1 true WO2013128680A1 (ja) 2013-09-06

Family

ID=49081912

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/071544 WO2013128680A1 (ja) 2012-02-28 2012-08-27 眼底観察装置

Country Status (4)

Country Link
US (2) US9560964B2 (ja)
EP (1) EP2821006B1 (ja)
JP (1) JP5981213B2 (ja)
WO (1) WO2013128680A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2926720A3 (en) * 2014-03-31 2015-12-16 Nidek co., Ltd. Fundus Photography Device
CN116206733A (zh) * 2023-02-24 2023-06-02 北京衡渡医学研究有限责任公司 一种眼底图像的影像云平台评估方法及系统

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6217185B2 (ja) * 2013-07-02 2017-10-25 株式会社ニデック 眼科撮影装置及び眼科画像処理プログラム
JP6349751B2 (ja) * 2014-02-03 2018-07-04 株式会社ニデック 眼科用情報処理プログラム
JP6349878B2 (ja) * 2014-03-31 2018-07-04 株式会社ニデック 眼科撮影装置、眼科撮影方法、及び眼科撮影プログラム
JP6354979B2 (ja) * 2014-03-31 2018-07-11 株式会社ニデック 眼底撮影装置
JP6598713B2 (ja) * 2016-03-11 2019-10-30 キヤノン株式会社 情報処理装置
JP2017185057A (ja) * 2016-04-06 2017-10-12 キヤノン株式会社 眼科撮影装置及びその制御方法、並びに、プログラム
JP2016182525A (ja) * 2016-07-29 2016-10-20 株式会社トプコン 眼科撮影装置
JP2018117693A (ja) 2017-01-23 2018-08-02 株式会社トプコン 眼科装置
JP6976147B2 (ja) * 2017-11-24 2021-12-08 株式会社トプコン 眼科情報処理装置、眼科システム、眼科情報処理方法、及びプログラム
US20220012459A1 (en) * 2018-11-16 2022-01-13 Arizona Board Of Regents On Behalf Of The University Of Arizona Identification and control of myopic progression using distortion
TW202027035A (zh) * 2019-01-11 2020-07-16 宏碁股份有限公司 用以獲取螢光眼底圖的方法及其裝置
CN111481164B (zh) * 2019-01-25 2023-04-07 宏碁股份有限公司 用以获取荧光眼底图的方法及其装置
JP7332463B2 (ja) * 2019-12-25 2023-08-23 キヤノン株式会社 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム
JPWO2021131020A1 (ja) * 2019-12-27 2021-07-01
WO2023282339A1 (ja) * 2021-07-07 2023-01-12 株式会社ニコン 画像処理方法、画像処理プログラム、画像処理装置及び眼科装置

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09276232A (ja) 1996-04-12 1997-10-28 Nikon Corp 眼底カメラ
JPH11325849A (ja) 1998-03-30 1999-11-26 Carl Zeiss Jena Gmbh スペクトル干渉に基づく光学・トモグラフィ―および光学表面プロファイル測定装置
JP2002139421A (ja) 2000-11-01 2002-05-17 Fuji Photo Film Co Ltd 光断層画像取得装置
JP2003235800A (ja) 2002-02-20 2003-08-26 Nidek Co Ltd 眼の検査用機器
JP2006507068A (ja) * 2002-11-26 2006-03-02 シーメンス アクチェンゲゼルシャフト 眼の画像の評価をサポートする方法及び装置
JP2007024677A (ja) 2005-07-15 2007-02-01 Sun Tec Kk 光断層画像表示システム
JP2008073099A (ja) 2006-09-19 2008-04-03 Topcon Corp 眼底観察装置、眼底画像表示装置及び眼底観察プログラム
JP2008237237A (ja) * 2007-03-23 2008-10-09 Topcon Corp 眼底観察装置、眼科画像表示装置及びプログラム
JP2008259544A (ja) 2007-04-10 2008-10-30 Topcon Corp スリットランプ
JP2009034480A (ja) 2007-07-31 2009-02-19 Topcon Corp 眼科情報処理装置及び眼科検査装置
JP2010227610A (ja) * 2010-06-18 2010-10-14 Nidek Co Ltd 眼科撮影装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6705726B2 (en) 2002-02-20 2004-03-16 Nidek Co., Ltd. Instrument for eye examination and method
US8223143B2 (en) * 2006-10-27 2012-07-17 Carl Zeiss Meditec, Inc. User interface for efficiently displaying relevant OCT imaging data
JP4971872B2 (ja) * 2007-05-23 2012-07-11 株式会社トプコン 眼底観察装置及びそれを制御するプログラム
JP5432625B2 (ja) * 2009-07-29 2014-03-05 株式会社トプコン 眼科観察装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09276232A (ja) 1996-04-12 1997-10-28 Nikon Corp 眼底カメラ
JPH11325849A (ja) 1998-03-30 1999-11-26 Carl Zeiss Jena Gmbh スペクトル干渉に基づく光学・トモグラフィ―および光学表面プロファイル測定装置
JP2002139421A (ja) 2000-11-01 2002-05-17 Fuji Photo Film Co Ltd 光断層画像取得装置
JP2003235800A (ja) 2002-02-20 2003-08-26 Nidek Co Ltd 眼の検査用機器
JP2006507068A (ja) * 2002-11-26 2006-03-02 シーメンス アクチェンゲゼルシャフト 眼の画像の評価をサポートする方法及び装置
JP2007024677A (ja) 2005-07-15 2007-02-01 Sun Tec Kk 光断層画像表示システム
JP2008073099A (ja) 2006-09-19 2008-04-03 Topcon Corp 眼底観察装置、眼底画像表示装置及び眼底観察プログラム
JP2008237237A (ja) * 2007-03-23 2008-10-09 Topcon Corp 眼底観察装置、眼科画像表示装置及びプログラム
JP2008259544A (ja) 2007-04-10 2008-10-30 Topcon Corp スリットランプ
JP2009034480A (ja) 2007-07-31 2009-02-19 Topcon Corp 眼科情報処理装置及び眼科検査装置
JP2010227610A (ja) * 2010-06-18 2010-10-14 Nidek Co Ltd 眼科撮影装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2821006A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2926720A3 (en) * 2014-03-31 2015-12-16 Nidek co., Ltd. Fundus Photography Device
US9723978B2 (en) 2014-03-31 2017-08-08 Nidek Co., Ltd. Fundus photography device
US10117573B2 (en) 2014-03-31 2018-11-06 Nidek Co., Ltd. Fundus photography device
CN116206733A (zh) * 2023-02-24 2023-06-02 北京衡渡医学研究有限责任公司 一种眼底图像的影像云平台评估方法及系统
CN116206733B (zh) * 2023-02-24 2023-12-15 北京衡渡医学研究有限责任公司 一种眼底图像的影像云平台评估方法及系统

Also Published As

Publication number Publication date
JP2013208415A (ja) 2013-10-10
US20150010226A1 (en) 2015-01-08
JP5981213B2 (ja) 2016-08-31
US20160360963A1 (en) 2016-12-15
US9560964B2 (en) 2017-02-07
US10098542B2 (en) 2018-10-16
EP2821006A4 (en) 2015-10-14
EP2821006B1 (en) 2020-08-26
EP2821006A1 (en) 2015-01-07

Similar Documents

Publication Publication Date Title
JP5981213B2 (ja) 眼底観察装置
JP5867719B2 (ja) 光画像計測装置
JP5912358B2 (ja) 眼底観察装置
JP2011024930A (ja) 眼科観察装置
JP5941761B2 (ja) 眼科撮影装置及び眼科画像処理装置
JP6392275B2 (ja) 眼科撮影装置、眼科画像表示装置および眼科画像処理装置
JP6411728B2 (ja) 眼科観察装置
JP5837143B2 (ja) 眼科観察装置、その制御方法、及びプログラム
JP5658305B2 (ja) 眼科観察装置、その制御方法、及びプログラム
JP6254724B2 (ja) 眼底観察装置
JP6099782B2 (ja) 眼科撮影装置
JP2018023818A (ja) 眼科観察装置
JP6503040B2 (ja) 眼科観察装置
JP6021289B2 (ja) 血流情報生成装置、血流情報生成方法、及びプログラム
JP6404431B2 (ja) 眼科観察装置
JP6254729B2 (ja) 眼科撮影装置
JP6106300B2 (ja) 眼科撮影装置
JP6106299B2 (ja) 眼科撮影装置及び眼科画像処理装置
JP2018023815A (ja) 眼科観察装置
JP2018023819A (ja) 眼科観察装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12869703

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14377082

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012869703

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE