WO2011013314A1 - 眼科観察装置 - Google Patents

眼科観察装置 Download PDF

Info

Publication number
WO2011013314A1
WO2011013314A1 PCT/JP2010/004579 JP2010004579W WO2011013314A1 WO 2011013314 A1 WO2011013314 A1 WO 2011013314A1 JP 2010004579 W JP2010004579 W JP 2010004579W WO 2011013314 A1 WO2011013314 A1 WO 2011013314A1
Authority
WO
WIPO (PCT)
Prior art keywords
operation mode
image
analysis
information
unit
Prior art date
Application number
PCT/JP2010/004579
Other languages
English (en)
French (fr)
Inventor
関根明彦
小幡信輔
山田勝啓
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to EP10804067.6A priority Critical patent/EP2460460B1/en
Priority to US13/387,007 priority patent/US8724870B2/en
Publication of WO2011013314A1 publication Critical patent/WO2011013314A1/ja
Priority to US14/086,429 priority patent/US20140078466A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4795Scattering, i.e. diffuse reflection spatially resolved investigating of object in scattering medium
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0091Fixation targets for viewing direction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02015Interferometers characterised by the beam path configuration
    • G01B9/02029Combination with non-interferometric systems, i.e. for measuring the object
    • G01B9/0203With imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02083Interferometers characterised by particular signal processing and presentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers
    • G01B9/02091Tomographic interferometers, e.g. based on optical coherence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/6821Eye

Definitions

  • the present invention relates to an ophthalmologic observation apparatus that forms an image of an eye to be examined using optical coherence tomography (OCT).
  • OCT optical coherence tomography
  • OCT that forms an image representing the surface form and internal form of an object to be measured using a light beam from a laser light source or the like has attracted attention. Since OCT has no invasiveness to the human body like X-ray CT, it is expected to be applied particularly in the medical field and the biological field. For example, in the field of ophthalmology, an apparatus for forming an image of the fundus oculi, cornea, etc. has entered a practical stage.
  • Patent Document 1 discloses an apparatus to which OCT is applied.
  • the measuring arm scans an object with a rotary turning mirror (galvanomirror)
  • a reference mirror is installed on the reference arm
  • the intensity of the interference light of the light beam from the measuring arm and the reference arm is dispersed at the exit.
  • An interferometer is provided for analysis by the instrument.
  • the reference arm is configured to change the phase of the reference light beam stepwise by a discontinuous value.
  • Patent Document 1 uses a so-called “Fourier Domain OCT (Fourier Domain OCT)” technique.
  • Fourier Domain OCT Frier Domain OCT
  • a low-coherence beam is irradiated onto the object to be measured, the reflected light and the reference light are superimposed to generate interference light, and the spectral intensity distribution of the interference light is acquired and subjected to Fourier transform.
  • the form of the object to be measured in the depth direction (z direction) is imaged.
  • this type of technique is also called a spectral domain.
  • the apparatus described in Patent Document 1 includes a galvanometer mirror that scans a light beam (signal light), thereby forming an image of a desired measurement target region of the object to be measured. Since this apparatus is configured to scan the light beam only in one direction (x direction) orthogonal to the z direction, the image formed by this apparatus is in the scanning direction (x direction) of the light beam. It becomes a two-dimensional tomogram in the depth direction (z direction) along.
  • a plurality of two-dimensional tomographic images in the horizontal direction are formed by scanning (scanning) the signal light in the horizontal direction (x direction) and the vertical direction (y direction), and based on the plurality of tomographic images.
  • a technique for acquiring and imaging three-dimensional tomographic information of a measurement range is disclosed. Examples of the three-dimensional imaging include a method of displaying a plurality of tomographic images side by side in a vertical direction (referred to as stack data) and a method of rendering a plurality of tomographic images to form a three-dimensional image. Conceivable.
  • Patent Documents 3 and 4 disclose other types of OCT apparatuses.
  • Patent Document 3 scans the wavelength of light applied to an object to be measured, acquires a spectral intensity distribution based on interference light obtained by superimposing reflected light of each wavelength and reference light
  • an OCT apparatus for imaging the form of an object to be measured by performing Fourier transform on the object is described.
  • Such an OCT apparatus is called a swept source type.
  • the swept source type is a kind of Fourier domain type.
  • Patent Document 4 the traveling direction of light is obtained by irradiating the object to be measured with light having a predetermined beam diameter, and analyzing the component of interference light obtained by superimposing the reflected light and the reference light.
  • An OCT apparatus for forming an image of an object to be measured in a cross-section orthogonal to is described. Such an OCT apparatus is called a full-field type or an en-face type.
  • Patent Document 5 discloses a configuration in which OCT is applied to the ophthalmic field.
  • ophthalmic observation devices such as a fundus camera and a slit lamp have been used before OCT is applied to the ophthalmic field (see, for example, Patent Document 6 and Patent Document 7).
  • a fundus camera is a device that shoots the fundus by illuminating the subject's eye with illumination light and receiving the fundus reflection light.
  • a slit lamp is a device that acquires an image of a cross-section of the cornea by cutting off a light section of the cornea using slit light.
  • the ophthalmic observation apparatus using OCT has an advantage over the conventional ophthalmic imaging apparatus in that a high-definition image can be acquired, and further, a tomographic image and a three-dimensional image can be acquired.
  • an ophthalmic observation apparatus using OCT can be applied to observation of various parts of an eye to be examined, and can acquire high-definition images, and thus has been applied to diagnosis of various ophthalmic diseases. .
  • the setting items at the time of examination include an imaging region, a scanning method, an image analysis method, a display layout, a print layout, and the like.
  • the setting operation of various items as described above was manually performed by an operator. If the setting is appropriate, information necessary for diagnosis can be handled without excess or deficiency, but the setting is not always made appropriately. For example, if the operator is unfamiliar with the device or is not familiar with the disease, he / she may be wondering how to combine the setting items in order to obtain information necessary for diagnosis. May not be able to be judged.
  • the present invention has been made to solve the above problems, and an object thereof is to provide an ophthalmologic observation apparatus that can easily and sufficiently acquire information used for diagnosis of an eye to be examined. There is.
  • the invention according to claim 1 divides low-coherence light into signal light and reference light, and superimposes the signal light passing through the eye to be examined and the reference light passing through the reference light path.
  • Output means for outputting inspection result information including the analysis result of the image by the analyzing means, and for each of a plurality of operation modes according to the type of inspection, the optical system, the image forming means, the analyzing means, and Storage means for preliminarily storing operation mode information associated with at least one operation content of the output means, designation means for designating one of the plurality of operation modes, and the designated operation
  • the operation content associated with the operation mode is specified with reference to the operation mode information stored in the storage unit, and the optical system, the image forming unit, the analysis unit, and / or the An ophthalmologic observation
  • the invention according to claim 2 is the ophthalmologic observation apparatus according to claim 1, wherein the optical system provides a visual target for fixing the eye to be examined in a predetermined fixation direction.
  • the operation mode information is associated with a fixation direction by the fixation optical system for each of the plurality of operation modes, and the control means is A fixation direction associated with the specified operation mode is specified with reference to the operation mode information, and the target for controlling the fixation optical system to fixate in the specified fixation direction is determined. It is characterized by being presented.
  • the invention described in claim 3 is the ophthalmologic observation apparatus according to claim 2, wherein the fixation optical system includes a display device that displays the target and the target displayed.
  • a projection optical system for projecting onto the optometry, and the operation mode information is associated with a display position of the target on the display device as a fixation direction for each of the plurality of operation modes, and the control
  • the means specifies a display position associated with the designated operation mode with reference to the operation mode information, and further controls the display device to display the view at the specified display position on the display device. The mark is displayed.
  • the invention according to claim 4 is the ophthalmologic observation apparatus according to claim 1, wherein the optical system includes scanning means for scanning an irradiation position of the signal light with respect to the eye to be examined, and the operation mode In the information, for each of the plurality of operation modes, a scanning pattern of the irradiation position by the scanning unit and an image type formed by the image forming unit are associated, and the control unit A scanning pattern and an image type associated with a designated operation mode are specified with reference to the operation mode information, and the scanning position is controlled to scan the irradiation position of the signal light with the specified scanning pattern. And controlling the image forming means to form an image of the eye to be examined of the specified image type.
  • the invention according to claim 5 is the ophthalmologic observation apparatus according to claim 1, wherein the analysis means calculates a thickness of a predetermined layer of the eye to be examined, and a lesion in the eye to be examined.
  • a plurality of analysis processes including a lesion specifying analysis for specifying a position can be executed, and at least one of the plurality of analysis processes is associated with each of the plurality of operation modes in the operation mode information.
  • the control means specifies an analysis process associated with the designated operation mode with reference to the operation mode information, and further controls the analysis means to execute the specified analysis process. It is characterized by that.
  • the invention according to claim 6 is the ophthalmologic observation apparatus according to claim 1, wherein the operation mode information includes information included in the examination result information for each of the plurality of operation modes.
  • a type and an output layout of the inspection result information by the output unit are associated with each other, and the control unit specifies an information type and an output layout associated with the designated operation mode with reference to the operation mode information. Further, the output means is controlled to output the inspection result information including the specified information type in the specified output layout.
  • a fixation optical system for presenting a target for fixing the eye to be examined in a predetermined fixation direction to the subject eye, low coherence light as signal light and reference light. Generating the interference light by superimposing the signal light passing through the eye to be examined and the reference light passing through the reference light path;
  • An optical system that includes a superimposing unit that detects the generated interference light, an image forming unit that forms an image of the eye based on the detection result of the interference light by the detection unit, and A plurality of layer thickness analyzes for analyzing a formed image to obtain a thickness of a predetermined layer of the eye to be examined; and a lesion specifying analysis for analyzing the formed image to identify a position of a lesion in the eye to be examined.
  • Analysis means capable of executing Output means for outputting inspection result information including an analysis result of an image by the analysis means, and a fixation direction by the fixation optical system for each of a plurality of operation modes according to the type of inspection, and the scanning means by the scanning means Scanning pattern of irradiation position, image type formed by the image forming unit, at least one of the plurality of analysis processes, information type included in the inspection result information, and output of the inspection result information by the output unit
  • Storage means for preliminarily storing operation mode information associated with a layout; designation means for designating one of the plurality of operation modes; fixation direction associated with the designated operation mode; a scanning pattern;
  • the image type, analysis process, information type, and output layout are specified with reference to the operation mode information, and the fixation optical system is controlled to The target for fixation in the specified fixation direction is presented, the scanning unit is controlled to scan the irradiation position of the signal light with the specified scanning pattern, and the image forming unit is controlled.
  • An ophthalmic observation apparatus comprising: a control unit that arranges and outputs the examination result information in the specified output layout.
  • the invention according to claim 8 is the ophthalmic observation apparatus according to claim 7, wherein the plurality of operation modes include a macular inspection mode for inspecting the macular of the fundus, and the operation mode information includes In the macular examination mode, the fixation direction for macular for irradiating the signal light to the macula and the vicinity thereof is associated as the fixation direction, and a plurality of irradiation positions arranged in a lattice point form are associated with each other.
  • a three-dimensional scan for sequentially irradiating the signal light a radial scan for sequentially irradiating the signal light to a plurality of irradiation positions arranged in a radial pattern, or a plurality of irradiation positions arranged in a straight line.
  • the scanning pattern is the three-dimensional scanning
  • the three-dimensional image or the scanning pattern is the radial scan.
  • a tomographic image is associated as the image type
  • a retina thickness analysis for obtaining a retina thickness and comparing it with a predetermined standard thickness is associated as the analysis process.
  • the comparison result by the retinal thickness analysis is associated as the information type
  • the macular inspection template in which the tomographic image and the comparison result are arranged in a predetermined arrangement is associated as the output layout.
  • the invention according to claim 9 is the ophthalmologic observation apparatus according to claim 7, wherein the plurality of operation modes include a nipple inspection mode for inspecting the optic nerve head of the fundus, and the operation mode information
  • a nipple inspection mode for inspecting the optic nerve head of the fundus
  • the operation mode information In the nipple inspection mode, a nipple fixation direction for irradiating the signal light to the optic nerve head and the vicinity thereof is associated as the fixation direction, and a plurality of irradiation positions arranged in a circular shape
  • a circle scan that sequentially irradiates the signal light or a three-dimensional scan that sequentially irradiates the signal light to a plurality of irradiation positions arranged in a lattice point is associated as the scan pattern.
  • a tomographic image or a three-dimensional image is associated as the image type when the scanning pattern is the three-dimensional scanning
  • RN RNFL thickness analysis for determining L (retinal nerve fiber layer) thickness and comparing it with a predetermined standard thickness and papillary shape analysis for detecting the hole of the retina and analyzing the shape of the optic nerve head are related as the analysis processing.
  • the tomogram, the comparison result by the RNFL thickness analysis, and the nipple shape analysis result are associated as the information type, and the tomogram, the comparison result, and the nipple shape analysis result are set to a predetermined value.
  • the nipple inspection templates arranged by arrangement are associated as the output layout.
  • the invention according to claim 10 is the ophthalmic observation apparatus according to claim 7, wherein the plurality of operation modes include a glaucoma examination mode for examining glaucoma, and the operation mode information includes For the glaucoma examination mode, the fixation direction for the macular for irradiating the signal light to the macula and its vicinity and the fixation direction for the nipple for irradiating the signal light to the optic nerve head and its vicinity are said to be fixed.
  • a three-dimensional scan which is associated as a viewing direction and sequentially irradiates the signal light to a plurality of irradiation positions arranged in a lattice point, is associated as the scanning pattern, and a three-dimensional image of the macula and its vicinity
  • An optic disc and a three-dimensional image in the vicinity of the optic disc are associated as the image type
  • an RNFL thickness analysis and a retina for obtaining an RNFL (retinal nerve fiber layer) thickness and comparing it with a predetermined standard thickness
  • Papillary shape analysis for detecting the hole and analyzing the shape of the optic disc is associated as the analysis processing
  • the tomographic image, the result of the comparison by the RNFL thickness analysis, and the result of the nipple shape analysis are the information.
  • a glaucoma diagnosis template in which the tomographic image, the result of the comparison, and the result of the nipple shape analysis are arranged in a predetermined arrangement is associated as the output layout.
  • the invention according to claim 11 is the ophthalmologic observation apparatus according to claim 7, wherein the plurality of operation modes include a macular degeneration inspection mode for inspecting macular degeneration, and the operation mode information
  • the macular degeneration inspection mode the macular fixation direction for irradiating the signal light to the macula and the vicinity thereof is associated as the fixation direction, and a plurality of irradiations arranged in a lattice point form
  • a three-dimensional scan that sequentially irradiates the signal light to a position is associated as the scanning pattern, and a macular and a neighboring three-dimensional image are associated as the image type.
  • the drusen analysis for obtaining the distribution of drusen are related as the analysis processing, and the tomographic image, the result of the retina thickness analysis by the retina thickness analysis, and A result of the drusen analysis is associated as the information type, and a macular degeneration diagnosis template in which the tomographic image, the result of the retinal thickness analysis, and the result of the drusen analysis are arranged in a predetermined arrangement is associated as the output layout. It is characterized by that.
  • the invention according to claim 12 is the ophthalmologic observation apparatus according to claim 1, further comprising input means for inputting patient identification information, wherein the control means receives the operation mode in each examination.
  • the specifying means retrieves the operation mode stored together with the patient identification information from the storage means in the past.
  • the control means controls the optical system, the image forming means, the analyzing means and / or the output means based on the operation content associated with the searched operation mode.
  • the invention according to claim 13 is the ophthalmologic observation apparatus according to claim 7, further comprising input means for inputting patient identification information, wherein the control means receives the operation mode in each examination.
  • the specifying means retrieves the operation mode stored together with the patient identification information from the storage means in the past.
  • the control means controls the optical system, the image forming means, the analyzing means and / or the output means based on the operation content associated with the searched operation mode.
  • the invention according to claim 14 is the ophthalmologic observation apparatus according to claim 1, further comprising input means for inputting patient identification information, and timing means for timing the current date and time, wherein the operation mode
  • the information is associated with the operation mode with an examination interval indicating a time interval for performing the examination in the operation mode, and the control means sets the operation mode in each examination with the inputted patient identification information and the time count.
  • the designation means retrieves the operation mode and date and time stored together with the patient identification information from the storage means in the past.
  • the selected operation mode is selected from among the plurality of operation modes, and the control unit is configured to select the optical system, the image forming unit, the analysis unit, and / or the control unit based on the operation content associated with the selected operation mode.
  • the output means is controlled.
  • the invention described in claim 15 is the ophthalmologic observation apparatus according to claim 7, further comprising input means for inputting patient identification information, and time measuring means for measuring the current date and time, and the operation mode.
  • the information is associated with the operation mode with an examination interval indicating a time interval for performing the examination in the operation mode, and the control means sets the operation mode in each examination with the inputted patient identification information and the time count.
  • the designation means retrieves the operation mode and date and time stored together with the patient identification information from the storage means in the past.
  • the selected operation mode is selected from among the plurality of operation modes, and the control unit is configured to select the optical system, the image forming unit, the analysis unit, and / or the control unit based on the operation content associated with the selected operation mode.
  • the output means is controlled.
  • the invention according to claim 16 is the ophthalmic observation apparatus according to claim 1, further comprising input means for inputting patient identification information, wherein the control means is an analysis result obtained by the analysis means. If there is an abnormality in the storage unit, the storage means stores the abnormality presence information indicating that fact together with the input patient identification information, and the operation mode information includes the abnormality for the operation mode. Is associated with operation content change information representing a change in the operation content, and when the patient identification information is input by the input device, the designation unit stores the abnormality presence information stored together with the patient identification information in the past.
  • the control means Said optical system based on the operation content of the changed, the image forming means, for controlling said analyzing means and / or said output means, it is characterized.
  • the invention according to claim 17 is the ophthalmic observation apparatus according to claim 7, further comprising input means for inputting patient identification information, wherein the control means is an analysis result obtained by the analysis means. If there is an abnormality in the storage unit, the storage means stores the abnormality presence information indicating that fact together with the input patient identification information, and the operation mode information includes the abnormality for the operation mode. Is associated with operation content change information representing a change in the operation content, and when the patient identification information is input by the input device, the designation unit stores the abnormality presence information stored together with the patient identification information in the past.
  • the control means Said optical system based on the operation content of the changed, the image forming means, for controlling said analyzing means and / or said output means, it is characterized.
  • the invention according to claim 18 is the ophthalmologic observation apparatus according to claim 1, wherein the fundus of the subject's eye is irradiated with illumination light, and the fundus reflection light of the illumination light is received to photograph the fundus.
  • the operation mode information is associated with at least one of the plurality of operation modes, and the operation mode information is designated by the designation unit.
  • the control unit controls the photographing unit based on the operation content to form a photographed image of the fundus. .
  • the invention according to claim 19 is the ophthalmologic observation apparatus according to claim 7, wherein the fundus of the subject's eye is irradiated with illumination light, and the fundus reflected light of the illumination light is received to photograph the fundus.
  • the operation mode information is associated with at least one of the plurality of operation modes, and the operation mode information is designated by the designation unit.
  • the control unit controls the photographing unit based on the operation content to form a photographed image of the fundus. .
  • the invention according to claim 20 is the ophthalmologic observation apparatus according to claim 1, further comprising operation means for editing the operation content associated with the operation mode by the operation mode information. It is characterized by that.
  • the invention according to claim 21 is the ophthalmologic observation apparatus according to claim 7, further comprising operation means for editing the operation content associated with the operation mode by the operation mode information. It is characterized by that.
  • the ophthalmic observation apparatus can selectively execute a plurality of operation modes, and previously stores operation mode information for associating operation contents with each operation mode.
  • the ophthalmic observation apparatus specifies the operation content associated with the operation mode with reference to the operation mode information, and based on the specified operation content, the optical system and the image forming unit Controlling the analysis means and / or the output means.
  • a series of processes according to the designated operation mode can be automatically executed, so that information used for diagnosis of the eye to be examined can be easily and sufficiently acquired. Is possible.
  • the ophthalmic observation apparatus forms a tomographic image or a three-dimensional image of the eye to be examined using optical coherence tomography.
  • Any type of optical coherence tomography can be applied to this ophthalmic observation apparatus.
  • a configuration involving scanning of signal light is employed, a Fourier domain type, a swept source type, or the like is applied.
  • an image acquired by optical coherence tomography may be referred to as an OCT image.
  • a measurement operation for forming an OCT image may be referred to as OCT measurement.
  • an ophthalmologic observation apparatus that performs fundus OCT measurement by applying the Fourier domain type will be described in detail.
  • an ophthalmologic observation apparatus capable of performing both fundus OCT measurement and fundus imaging as in the apparatus disclosed in Patent Document 5 is taken up.
  • the ophthalmologic observation apparatus is not limited to fundus examination, and may be an apparatus for examining other parts of the eye to be examined (for example, cornea, crystalline lens, vitreous body, etc.).
  • the ophthalmologic observation apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200.
  • the retinal camera unit 2 has almost the same optical system as a conventional retinal camera.
  • the OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus.
  • the arithmetic control unit 200 includes a computer that executes various arithmetic processes and control processes.
  • the fundus camera unit 2 shown in FIG. 1 is provided with an optical system for forming a two-dimensional image (fundus image) representing the surface form of the fundus oculi Ef of the eye E to be examined.
  • the fundus image includes an observation image and a captured image.
  • the observation image is, for example, a monochrome moving image formed at a predetermined frame rate using near infrared light.
  • the captured image is a color image obtained by flashing visible light, for example.
  • the photographed image includes a fluorescence photographed image such as a fluorescein fluorescence image and an indocyanine green fluorescence image.
  • the fundus camera unit 2 is provided with a chin rest and a forehead for supporting the subject's face so that the face of the subject does not move, as in a conventional fundus camera. Further, the fundus camera unit 2 is provided with an illumination optical system 10 and a photographing optical system 30 as in the conventional fundus camera.
  • the illumination optical system 10 irradiates the fundus oculi Ef with illumination light.
  • the photographing optical system 30 guides the fundus reflection light of the illumination light to the imaging device (CCD image sensors 35 and 38).
  • the imaging optical system 30 guides the signal light from the OCT unit 100 to the fundus oculi Ef and guides the signal light passing through the fundus oculi Ef to the OCT unit 100.
  • the illumination optical system 10 and the photographing optical system 30 are examples of the “photographing means” of the present invention.
  • the observation light source 11 of the illumination optical system 10 is composed of, for example, a halogen lamp.
  • the light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20. Then, the observation illumination light is reflected by the peripheral part (region around the hole part) of the perforated mirror 21 and illuminates the fundus oculi Ef via the objective lens 22.
  • the fundus reflection light of the observation illumination light is refracted by the objective lens 22, passes through a hole formed in the central region of the aperture mirror 21, passes through the dichroic mirror 55, passes through the focusing lens 31, and then goes through the dichroic mirror. 32 is reflected. Further, the fundus reflection light passes through the half mirror 40, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens 34.
  • the CCD image sensor 35 detects fundus reflected light at a predetermined frame rate, for example.
  • the display device 3 displays an image (observation image) K based on fundus reflected light detected by the CCD image sensor 35.
  • the photographing light source 15 is constituted by, for example, a xenon lamp.
  • the light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light.
  • the fundus reflection light of the imaging illumination light is guided to the dichroic mirror 33 through the same path as that of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37 of the CCD image sensor 38.
  • An image is formed on the light receiving surface.
  • On the display device 3, an image (captured image) H based on fundus reflection light detected by the CCD image sensor 38 is displayed.
  • the display device 3 that displays the observation image K and the display device 3 that displays the captured image H may be the same or different.
  • the LCD 39 displays a fixation target and a visual target for visual acuity measurement.
  • the fixation target is a target for fixing the eye E to be examined, and is used when photographing the fundus or forming a tomographic image.
  • a part of the light output from the LCD 39 is reflected by the half mirror 40, reflected by the dichroic mirror 32, passes through the focusing lens 31 and the dichroic mirror 55, and passes through the hole of the perforated mirror 21.
  • the light is refracted by the objective lens 22 and projected onto the fundus oculi Ef.
  • the fixation direction (also called fixation position) of the eye E can be changed.
  • the fixation direction of the eye E for example, as in a conventional fundus camera, a direction for obtaining an image centered on the macular portion of the fundus oculi Ef (macular fixation direction), or an image centered on the optic nerve head
  • a direction for acquiring the image papillary fixation direction
  • a direction for acquiring an image centered on the fundus center between the macula and the optic nerve head fundus center fixation direction
  • the LCD 39 is an example of the “display device” of the present invention.
  • the optical element group that projects the fixation target displayed on the LCD 39 onto the fundus oculi Ef constitutes an example of the “projection optical system” of the present invention.
  • the LCD 39 and the optical element group constitute an example of the “fixation optical system” of the present invention.
  • the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60 as in the conventional fundus camera.
  • the alignment optical system 50 generates a visual target (alignment visual target) for performing alignment (alignment) of the apparatus optical system with respect to the eye E.
  • the focus optical system 60 generates a visual target (split visual target) for focusing on the fundus oculi Ef.
  • the light (alignment light) output from the LED (Light Emitting Diode) 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, and passes through the hole portion of the perforated mirror 21. It passes through and is projected onto the cornea of the eye E by the objective lens 22.
  • the corneal reflection light of the alignment light passes through the objective lens 22 and the hole, and a part thereof passes through the dichroic mirror 55, passes through the focusing lens 31, is reflected by the dichroic mirror 32, and passes through the half mirror 40. Then, it is reflected by the dichroic mirror 33 and projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens 34.
  • a light reception image (alignment target) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image K.
  • the user performs alignment by performing the same operation as that of a conventional fundus camera. Further, the arithmetic control unit 200 may perform alignment by analyzing the position of the alignment target and moving the optical system.
  • the reflecting surface of the reflecting rod 67 is obliquely provided on the optical path of the illumination optical system 10.
  • the light (focus light) output from the LED 61 of the focus optical system 60 passes through the relay lens 62, is separated into two light beams by the split target plate 63, passes through the two-hole aperture 64, and is reflected by the mirror 65.
  • the light is once focused on the reflecting surface of the reflecting bar 67 by the condenser lens 66 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, and forms an image on the fundus oculi Ef by the objective lens 22.
  • the fundus reflection light of the focus light is detected by the CCD image sensor 35 through the same path as the corneal reflection light of the alignment light.
  • a light reception image (split target) by the CCD image sensor 35 is displayed on the display device 3 together with the observation image.
  • the arithmetic and control unit 200 analyzes the position of the split target and moves the focusing lens 31 and the focus optical system 60 to focus, as in the conventional case. Alternatively, focusing may be performed manually while visually checking the split target.
  • An optical path including a mirror 41, a collimator lens 42, and galvanometer mirrors 43 and 44 is provided behind the dichroic mirror 32. This optical path is guided to the OCT unit 100.
  • the galvanometer mirror 44 scans the signal light LS from the OCT unit 100 in the x direction.
  • the galvanometer mirror 43 scans the signal light LS in the y direction.
  • the signal light LS can be scanned in an arbitrary direction on the xy plane. Thereby, the irradiation position of the signal light LS on the fundus oculi Ef can be scanned two-dimensionally.
  • the OCT unit 100 is provided with an optical system for acquiring an OCT image of the fundus oculi Ef (see FIG. 2).
  • This optical system has the same configuration as a conventional Fourier domain type OCT apparatus. That is, this optical system divides low-coherence light into reference light and signal light, and generates interference light by causing interference between the signal light passing through the fundus oculi Ef and the reference light passing through the reference optical path. It is configured to detect spectral components. This detection result (detection signal) is sent to the arithmetic control unit 200.
  • optical element group stored in the OCT unit 100 and the optical element group on the optical path of the signal light stored in the fundus camera unit 2 constitute an example of the “optical system” of the present invention.
  • the light source unit 101 outputs a broadband low-coherence light L0.
  • the low coherence light L0 includes, for example, a near-infrared wavelength band (about 800 nm to 900 nm) and has a temporal coherence length of about several tens of micrometers. Note that near-infrared light having a wavelength band invisible to the human eye, for example, a center wavelength of about 1050 to 1060 nm, may be used as the low-coherence light L0.
  • the light source unit 101 includes a super luminescent diode (Super Luminescent Diode: SLD), an LED, and an optical output device such as an SOA (Semiconductor Optical Amplifier).
  • SLD Super Luminescent Diode
  • LED an LED
  • SOA semiconductor Optical Amplifier
  • the low coherence light L0 output from the light source unit 101 is guided to the fiber coupler 103 by the optical fiber 102, and is divided into the signal light LS and the reference light LR.
  • the fiber coupler 103 functions as both a means for splitting light (splitter) and a means for combining light (coupler), but here it is conventionally referred to as a “fiber coupler”.
  • the signal light LS is guided by the optical fiber 104 and becomes a parallel light beam by the collimator lens unit 105. Further, the signal light LS is reflected by the respective galvanometer mirrors 44 and 43, collected by the collimator lens 42, reflected by the mirror 41, transmitted through the dichroic mirror 32, and through the same path as the light from the LCD 39, the fundus oculi Ef. Is irradiated. The signal light LS is scattered and reflected on the fundus oculi Ef. The scattered light and reflected light may be collectively referred to as fundus reflected light of the signal light LS. The fundus reflection light of the signal light LS travels in the opposite direction on the same path and is guided to the fiber coupler 103.
  • the reference light LR is guided by the optical fiber 106 and becomes a parallel light beam by the collimator lens unit 107. Further, the reference light LR is reflected by the mirrors 108, 109, 110, is attenuated by the ND (Neutral Density) filter 111, is reflected by the mirror 112, and forms an image on the reflection surface of the reference mirror 114 by the collimator lens 113. . The reference light LR reflected by the reference mirror 114 travels in the opposite direction on the same path and is guided to the fiber coupler 103.
  • An optical element for dispersion compensation such as a pair prism
  • an optical element for polarization correction such as a wavelength plate
  • the fiber coupler 103 combines the fundus reflection light of the signal light LS and the reference light LR reflected by the reference mirror 114.
  • the interference light LC thus generated is guided by the optical fiber 115 and emitted from the emission end 116. Further, the interference light LC is converted into a parallel light beam by the collimator lens 117, dispersed (spectral decomposition) by the diffraction grating 118, condensed by the condenser lens 119, and projected onto the light receiving surface of the CCD image sensor 120.
  • the diffraction grating 118 shown in FIG. 2 is a transmission type, but a reflection type diffraction grating may be used.
  • the CCD image sensor 120 is, for example, a line sensor, and detects each spectral component of the split interference light LC and converts it into electric charges.
  • the CCD image sensor 120 accumulates this electric charge and generates a detection signal. Further, the CCD image sensor 120 sends this detection signal to the arithmetic control unit 200.
  • a Michelson type interferometer is used, but any type of interferometer such as a Mach-Zehnder type can be appropriately used.
  • any type of interferometer such as a Mach-Zehnder type can be appropriately used.
  • another form of image sensor for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor or the like can be used.
  • CMOS Complementary Metal Oxide Semiconductor
  • the configuration of the arithmetic control unit 200 will be described.
  • the arithmetic control unit 200 analyzes the detection signal input from the CCD image sensor 120 and forms an OCT image of the fundus oculi Ef.
  • the arithmetic processing for this is the same as that of a conventional Fourier domain type OCT apparatus.
  • the arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100.
  • the arithmetic control unit 200 displays an OCT image such as a tomographic image G (see FIG. 2) of the fundus oculi Ef on the display unit 3.
  • the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15 and the LEDs 51 and 61, the operation control of the LCD 39, the movement control of the focusing lens 31, and the movement control of the reflector 67. Further, movement control of the focus optical system 60, operation control of the galvanometer mirrors 43 and 44, and the like are performed.
  • the arithmetic control unit 200 performs operation control of the light source unit 101, movement control of the reference mirror 114 and collimator lens 113, operation control of the CCD image sensor 120, and the like.
  • the arithmetic control unit 200 includes, for example, a microprocessor, a RAM, a ROM, a hard disk drive, a communication interface, and the like, as in a conventional computer.
  • a computer program for controlling the ophthalmic observation apparatus 1 is stored in a storage device such as a hard disk drive.
  • the arithmetic control unit 200 may include a dedicated circuit board that forms an OCT image based on a detection signal from the CCD image sensor 120.
  • the arithmetic control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.
  • the fundus camera unit 2, the display device 3, the OCT unit 100, and the arithmetic control unit 200 may be configured integrally (that is, in a single casing) or may be configured separately.
  • Control system The configuration of the control system of the ophthalmologic observation apparatus 1 will be described with reference to FIGS. 3 and 4.
  • the ophthalmologic observation apparatus 1 selectively executes a plurality of operation modes.
  • the operation mode is a mode in which various operation items of the ophthalmic observation apparatus 1 are combined and executed as a series of operations, and is also called a macro function or the like.
  • the operation items include the fixation target display position (that is, the fixation direction of the eye E), the scanning pattern of the signal light LS, the type of image to be formed (tomographic image, three-dimensional image, etc.), the type of analysis processing, There are types of information (inspection result information) output as inspection results, an output layout of inspection result information, and the like.
  • the ophthalmologic observation apparatus 1 executes each operation mode by combining options in these operation items.
  • a printer 300 is connected to the arithmetic control unit 200.
  • a driver for the printer 300 is preinstalled in the arithmetic control unit 200 so that various types of information can be printed out.
  • the control system of the ophthalmologic observation apparatus 1 is configured around the control unit 210 of the arithmetic control unit 200.
  • the control unit 210 includes, for example, the aforementioned microprocessor, RAM, ROM, hard disk drive, communication interface, and the like.
  • the control unit 210 is provided with a main control unit 211 and a storage unit 213.
  • the main control unit 211 performs the various controls described above.
  • the main control unit 211 controls the LCD 39 of the fundus camera unit 2, the scanning drive unit 70 and the focusing drive unit 80, and the light source unit 101 and the reference drive unit 130 of the OCT unit 100.
  • the scanning drive unit 70 includes a servo motor, for example, and independently changes the directions of the galvanometer mirrors 43 and 44.
  • the focusing drive unit 80 includes, for example, a pulse motor, and moves the focusing lens 31 in the optical axis direction. Thereby, the focus position of the light toward the fundus oculi Ef is changed.
  • the reference driving unit 130 includes, for example, a pulse motor, and moves the collimator lens 113 and the reference mirror 114 integrally along the traveling direction of the reference light LR.
  • the main control unit 211 performs a process of writing data to the storage unit 213 and a process of reading data from the storage unit 213.
  • the main control unit 211 is provided with an operation mode control unit 212.
  • the operation mode control unit 212 performs various controls for executing the operation mode.
  • the operation mode control unit 212 includes an operation mode designation unit 212a, a fixation direction control unit 212b, a scanning pattern control unit 212c, an image control unit 212d, an analysis control unit 212e, an output information control unit 212f, And an output control unit 212g.
  • the main control unit 211 including the operation mode control unit 212 is an example of the “control unit” of the present invention.
  • the operation mode designating unit 212a designates the selected operation mode as an operation mode to be executed.
  • the operation mode designation unit 212a can designate the operation mode to be executed automatically or semi-automatically at a timing other than when the operator selects the operation mode. This process will be described later as a modified example.
  • the operation mode designating unit 212a provides the operation mode designation result to each of the fixation direction control unit 212b, the scanning pattern control unit 212c, the image control unit 212d, the analysis control unit 212e, the output information control unit 212f, and the output control unit 212g. Send.
  • the operation mode designating unit 212a corresponds to an example of “designating means” of the present invention.
  • the operation device such as the operation unit 250 used for the operation and the operation mode designating unit 212a correspond to “designating means”.
  • the fixation direction control unit 212b refers to the operation mode information 214 stored in the storage unit 213, and identifies the fixation direction associated with the operation mode specified by the operation mode specification unit 212a.
  • the operation mode information 214 is stored in each part of the apparatus (optical system, image forming unit 220, image processing unit 230, display device 3, display unit 240, printer 300, etc.) for each operation mode. This is information that associates the operation content.
  • the fixation direction control unit 212b controls the fixation optical system so that the eye E is presented with a fixation target for fixing in the specified fixation direction.
  • the fixation direction is changed by switching the display position of the fixation target by the LCD 39.
  • the fixation direction control unit 212b controls the LCD 39 to display the fixation target at a display position corresponding to the specified fixation direction.
  • the scan pattern control unit 212c refers to the operation mode information 214, and specifies a scan pattern associated with the operation mode specified by the operation mode specifying unit 212a. As described later, the scan pattern includes a three-dimensional scan, a radial scan, a line scan, a circle scan, and the like.
  • the scanning pattern control unit 212c controls the scanning driving unit 70 so as to scan the signal light LS with the specified scanning pattern.
  • the image control unit 212d refers to the operation mode information 214 and identifies the image type associated with the operation mode specified by the operation mode specifying unit 212a. Examples of the image type include a tomographic image, a three-dimensional image, and a captured image.
  • the image control unit 212d can specify the image type based on the scanning pattern specified by the scanning pattern control unit 212c. As an example, there are a case where a three-dimensional scan and a three-dimensional image are associated with each other, a case where a radial scan (or line scan or circle scan) and a tomographic image are associated with each other.
  • the image control unit 212d forms an image of the specified image type.
  • the image control unit 212d controls the image forming unit 220 to form a tomographic image of the fundus oculi Ef.
  • the image control unit 212d controls the image forming unit 220 to form a plurality of tomographic images of the fundus oculi Ef, and further the 3D image of the image processing unit 230.
  • the forming unit 231 is controlled to form a three-dimensional image based on these tomographic images.
  • the image control unit 212d controls the fundus camera unit 2 to acquire the captured image H of the fundus oculi Ef.
  • the analysis control unit 212e refers to the operation mode information 214 and identifies an analysis process associated with the operation mode specified by the operation mode specifying unit 212a.
  • Types of analysis processing include processing for analyzing macular status, processing for analyzing optic disc status, processing for analyzing the presence and extent of glaucoma, processing for analyzing the presence and extent of macular degeneration, etc. There is.
  • analysis control unit 212e causes the analysis processing unit 232 of the image processing unit 230 to execute the specified analysis processing.
  • the output information control unit 212f refers to the operation mode information 214 and identifies the information type associated with the operation mode specified by the operation mode specifying unit 212a. This information type is a type of information included in the inspection result information output as the inspection result.
  • the output information control unit 212f collects information of the specified information type. Various types of information acquired by the ophthalmic observation apparatus 1 are stored in the storage unit 213 (at least temporarily). The output information control unit 212f selectively reads out information of the specified information type from the storage unit 213. Alternatively, the output information control unit 212f adds a tag or a flag to information of the specified information type among the information stored in the storage unit 213 so that the information can be identified.
  • the output information control unit 212f collects information necessary for generating the information, and further controls the image processing unit 230 and the like to collect the information.
  • the target information is generated based on the information.
  • the output information control unit 212f reads the analysis result and the image from the storage unit 213 and sends the analysis result and the image to the image processing unit 230 to generate an image in which the analysis result is reflected.
  • Common information items include subject information (patient ID, patient name, patient age, etc.), subject eye information (identification information for left and right eyes, etc.), examination date, doctor name, and the like. Further, the examination results (findings, inquiry results, etc.) and other examination results (sight values, intraocular pressure values, etc.) may also be set as common information items.
  • the output control unit 212g refers to the operation mode information 214, and specifies an output layout associated with the operation mode specified by the operation mode specifying unit 212a.
  • the output layout is information representing the arrangement of each information when outputting the inspection result information.
  • the output layout includes a display layout for display output and a print layout for print output.
  • Each output layout includes, for example, a screen image for display output and a template image of a paper layout for print output. These template images are stored in the storage unit 213 in advance.
  • the output control unit 212g applies the information collected by the output information control unit 212f to the specified output layout for output.
  • Each information is given identification information such as a tag representing the information type.
  • identification information such as a tag representing the information type.
  • a division form is set in which the entire screen and paper are divided into areas for presenting each information.
  • Each presentation area is associated with identification information of the information.
  • the output control unit 212g arranges each piece of information collected as inspection result information in a presentation area associated with the identification information.
  • the output control unit 212g controls the display device 3 and the display unit 240, creates display image data based on the image template in which the collected information is arranged, and based on the display image data. Display the screen.
  • the output control unit 212g creates print image data based on the image template in which the collected information is arranged, and sends the print image data to the printer 300 to print on paper.
  • the storage unit 213 stores various data.
  • the stored data includes, for example, OCT image data, fundus image data, eye information to be examined, and the like.
  • the eye information includes information about the subject such as patient ID and name, and information about the eye such as left / right eye identification information.
  • the storage unit 213 stores operation mode information 214 in advance.
  • the operation mode information 214 indicates the operation contents of each unit (optical system, image forming unit 220, image processing unit 230, display device 3, display unit 240, printer 300, etc.) for each operation mode. It is information that is related.
  • the storage unit 213 corresponds to the “storage unit” of the present invention.
  • the operation mode information 214 is configured as a table as shown in FIG.
  • “macular examination mode”, “papillary examination mode”, “glaucoma examination mode”, and “macular degeneration examination mode” are provided as operation modes that are selectively executed.
  • the operation mode information 214 associates the contents (operation contents) of each operation item with each operation mode. Details of the operation content (particularly analysis processing) will be described later.
  • the macular inspection mode is an operation mode for inspecting the macular state of the fundus oculi Ef.
  • macular fixation direction is associated as the fixation direction
  • three-dimensional (3D)”, “radial”, and “line” are associated as the scanning pattern
  • fundus image is associated with the image type.
  • Normal data comparison is an analysis process for comparing a standard value (here, retinal thickness) of a normal eye with an inspection result.
  • a diagram representing this comparison result is the “Normal comparison diagram”.
  • the nipple inspection mode is an operation mode for inspecting the state of the optic nerve head of the fundus oculi Ef.
  • “papillary fixation direction” is associated as a fixation direction
  • “circle” and “3D” are associated as scanning patterns
  • “fundus image”, “tomographic image” and “3D image” is associated
  • “RNFL thickness analysis”, “Normal data comparison”, and “papillary shape analysis” are associated as analysis processes
  • “fundus image”, “representative tomographic image”, “Normal comparison” are associated as information types.
  • the figure and the nipple shape parameter are associated with each other, the nipple template is associated with the display layout, and the nipple template is associated with the print layout.
  • Each nipple template is for displaying information of the above information type in a predetermined arrangement.
  • Each nipple template corresponds to the “nipple inspection template” of the present invention.
  • the nipple shape parameter is an analysis result by nipple shape analysis.
  • the glaucoma inspection mode is an operation mode for inspecting the presence and degree of glaucoma.
  • “macular fixation direction” and “papillary fixation direction” are associated as fixation directions
  • “macular 3D” and “nipple 3D” are associated as scanning patterns
  • “fundus” is selected as the image type.
  • Each glaucoma template is for displaying information of the above information type in a predetermined arrangement.
  • Each glaucoma template corresponds to the “glaucoma diagnosis template” of the present invention.
  • a “mosaic image” is also called a panoramic image or the like, and is a wide area obtained by pasting together a plurality of captured images obtained by separately capturing different parts of the fundus (including the macular and optic nerve head). It is an image.
  • “Normal data comparison” is an analysis process for comparing a standard value (in this case, RNFL thickness) of a normal eye with an examination result. A diagram representing this comparison result is the “Normal comparison diagram”.
  • “Fundamental image superimposition” means superimposing a normal comparison diagram on a fundus image.
  • the macular degeneration inspection mode is an operation mode for inspecting the presence and degree of (aging) macular degeneration.
  • macular fixation direction is associated as a fixation direction
  • 3D is associated as a scanning pattern
  • “fundus image”, “tomographic image”, and “three-dimensional image” are associated as image types.
  • “fundus image (Drusen display)”, “representative tomographic image”, and “Drusen distribution graph / table” are associated with each other as information types.
  • “macular degeneration template” is associated with the display layout
  • “macular degeneration template” is associated with the print layout.
  • normal comparison may be further performed as analysis processing.
  • Each macular degeneration template is for displaying information of the above information type in a predetermined arrangement.
  • Each macular degeneration template corresponds to the “macular degeneration diagnostic template” of the present invention.
  • Drusen is a waste product accumulated between the Bruch's membrane and the pigment epithelium.
  • the “Drusen analysis” is an analysis process for obtaining a distribution state of Drusen. Superimposing the analysis result on the fundus image is “Drusen display”.
  • the operation mode information according to the present invention is not limited to that shown in FIG. As an example, it is possible to apply operation mode information relating to operation modes corresponding to various parts of the eye to be examined and operation modes corresponding to various ophthalmic diseases.
  • the operation mode information 214 can be edited according to the medical institution where the ophthalmic observation apparatus 1 is installed and the doctor who uses the ophthalmic observation apparatus 1.
  • This editing work is performed, for example, by displaying a predetermined editing screen (for example, a table as shown in FIG. 5) on the display unit 240 and adding / deleting the operation content using the operation unit 250. It is also possible to add or delete operation modes.
  • the operation unit 250 used in this way corresponds to the “operation means” of the present invention.
  • the image forming unit 220 forms tomographic image data of the fundus oculi Ef based on the detection signal from the CCD image sensor 120.
  • This process includes processes such as noise removal (noise reduction), filter processing, and FFT (Fast Fourier Transform) as in the conventional Fourier domain type optical coherence tomography.
  • the image forming unit 220 includes, for example, the above-described circuit board and communication interface.
  • image data and “image” presented based on the “image data” may be identified with each other.
  • the image processing unit 230 performs various types of image processing and analysis processing on the image formed by the image forming unit 220. For example, the image processing unit 230 executes various correction processes such as image brightness correction and dispersion correction.
  • the image processing unit 230 includes a three-dimensional image forming unit 231 and an analysis processing unit 232.
  • the image processing unit 230 includes, for example, the above-described microprocessor, RAM, ROM, hard disk drive, circuit board, and the like.
  • the three-dimensional image forming unit 231 forms image data of a three-dimensional image of the fundus oculi Ef by executing an interpolation process for interpolating pixels between tomographic images formed by the image forming unit 220.
  • 3D image data means image data in which pixel positions are defined by a 3D coordinate system.
  • image data of a three-dimensional image there is image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data.
  • the three-dimensional image forming unit 231 When displaying an image based on volume data, the three-dimensional image forming unit 231 performs a rendering process (volume rendering, MIP (Maximum Intensity Projection), etc.) on the volume data, and a specific line-of-sight direction.
  • the image data of a pseudo three-dimensional image as viewed from the above is formed.
  • This pseudo three-dimensional image is displayed on a display device such as the display unit 240.
  • the stack data is image data obtained by three-dimensionally arranging a plurality of tomographic images obtained along a plurality of scanning lines based on the positional relationship of the scanning lines. That is, the stack data is image data obtained by expressing a plurality of tomographic images originally defined by individual two-dimensional coordinate systems using one three-dimensional coordinate system (that is, embedding in one three-dimensional space). is there. Note that volume data can be formed by performing interpolation processing on such stack data.
  • a two-dimensional tomographic image based on the three-dimensional image. This process is executed as follows, for example. First, a cross section is designated for a three-dimensional image. Next, voxels on the specified cross section are selected. Then, each selected voxel is converted into a two-dimensional pixel to form a two-dimensional tomographic image.
  • the image forming unit 220 and the three-dimensional image forming unit 231 are examples of the “image forming unit” of the present invention.
  • the analysis processing unit 232 performs analysis processing on the image of the fundus oculi Ef.
  • Examples of the analysis target image include a tomographic image, a three-dimensional image, and a captured image.
  • the analysis processing unit 232 corresponds to “analysis means” of the present invention.
  • the analysis processing unit 232 executes, for example, the following analysis processing: (1) retinal thickness analysis; (2) normal comparison of retinal thickness; (3) RNFL thickness analysis; (4) RNFL thickness normal comparison; (5 ) Nipple shape analysis; (6) Drusen analysis.
  • the retinal thickness analysis and RNFL thickness analysis are examples of the “layer thickness analysis” of the present invention. Drusen analysis is an example of the “lesion identification analysis” of the present invention.
  • analysis processing executed by the analysis processing unit 232 is not limited to these.
  • the analysis processing unit 232 is configured to be able to execute analysis processing according to the examination site of the eye to be examined, the disease to be examined, and the like. Each analysis process is executed based on a dedicated computer program, for example.
  • the retinal thickness analysis is a process for analyzing a fundus tomographic image or a three-dimensional image to obtain a retina thickness distribution.
  • retinal thickness There are various definitions of retinal thickness. For example, when the thickness from the inner boundary membrane to the inner granule layer (inscribed / external contact of photoreceptor cells) is used as the retinal thickness, the thickness from the inner border membrane to the retinal pigment epithelial layer may be used as the retinal thickness. .
  • the retinal thickness obtained by retinal thickness analysis is one of these definitions.
  • the retinal thickness analysis is executed as follows, for example. First, an OCT image of the fundus is analyzed to identify an image region corresponding to a predetermined boundary region (for example, the inner boundary membrane and the retinal pigment epithelium layer). Then, the number of pixels between the specified boundary portions is counted to obtain the retinal thickness (distance in the depth direction).
  • the processing for analyzing the OCT image to determine the thickness of the fundus layer is performed in addition to the above-mentioned Patent Document 5, as well as JP2007-325831A, JP2008-206684A, and JP2009. -61203, JP-A-2009-66015, and the like.
  • boundary part may be designated manually.
  • the OCT image is displayed on the display unit 240, and this is observed to identify the boundary part, and the specified boundary part is designated using the operation unit 250. Further, the boundary portion specified by the image analysis may be manually corrected.
  • the normal comparison of the retinal thickness is an analysis process for comparing the retinal thickness obtained by the retinal thickness analysis with the normal data.
  • Normal data is the standard value (standard thickness) of the retinal thickness of healthy eyes. Normal data is created by measuring a large number of retinal thicknesses of healthy eyes and obtaining statistical values (average value, standard deviation) of the measurement results. The normal comparison is to determine whether or not the retinal thickness of the eye E is included in the range of the normal eye.
  • the above retinal thickness analysis and normal comparison are collectively referred to as “retinal thickness analysis”.
  • the range of retinal thickness in a diseased eye is obtained, and analysis processing is performed to determine whether or not the retinal thickness obtained by retinal thickness analysis is included in the range. Also good.
  • the RNFL thickness analysis is an analysis process for analyzing a tomographic image and a three-dimensional image of the fundus to obtain the thickness of the RNFL (Retinal Fiber Fiber Layer) of the fundus.
  • RNFL Retinal Fiber Fiber Layer
  • an image region corresponding to the boundary portion of the RNFL is specified, and the number of pixels between the specified boundary portions is counted to obtain the RNFL thickness (distance in the depth direction). Is executed.
  • the normal comparison of the RNFL thickness is an analysis process for comparing the RNFL thickness obtained by the RNFL thickness analysis with the normal data (standard thickness). This normal data is also created in the same manner as the retinal thickness.
  • the above RNFL thickness analysis and normal comparison are collectively referred to as “RNFL thickness analysis”.
  • Papillary shape analysis is an analysis process in which a tomographic image or a three-dimensional image of the fundus is analyzed to detect a hole in the retina (a cut or a defective portion) to obtain the shape of the optic disc.
  • the nipple shape analysis is performed by, for example, analyzing a tomographic image or the like to identify an image region corresponding to the optic nerve head and the retinal surface in the vicinity thereof, and analyzing the identified image region to analyze its global shape or local shape (unevenness). ) (Papillae shape parameter) is obtained.
  • papillary shape parameters include the optic disc cup diameter, disc diameter, rim diameter, and nipple depth.
  • Drusen analysis is an analysis process for analyzing a photographed image (fundus image) and an OCT image to obtain a distribution state of Drusen on the fundus.
  • This distribution state includes the position and area of Drusen on the fundus.
  • Drusen analysis based on the photographed image is executed, for example, by determining whether the pixel value of each pixel of the photographed image is included in a predetermined range and specifying the pixels included in the predetermined range.
  • Drusen is drawn with a characteristic color (yellowish white), and therefore a range of pixel values corresponding to this characteristic color is set in advance as the predetermined range.
  • Drusen based on the brightness (luminance value) of the image and the shape of Drusen (small, substantially circular raised shape).
  • the OCT image is analyzed to identify the image region corresponding to the Bruch's membrane and the image region corresponding to the pigment epithelium, and a small substantially circular shape based on the pixel value between these image regions.
  • This can be executed by specifying an image region corresponding to the raised shape of the image as a Druse (candidate).
  • the image region specifying process based on such a shape can be performed by, for example, image matching with a template having the shape.
  • an image of the fundus may be displayed and an image area corresponding to Drusen may be designated manually.
  • the analysis processing unit 232 obtains the distribution, the number, the area, and the like of the position of the drusen on the fundus based on the image region corresponding to the drusen thus identified.
  • This alignment process is a two-dimensional image (integrated image) formed by integrating pixel values of an OCT image (particularly a three-dimensional image) in the depth direction, as described in, for example, Japanese Patent Application Laid-Open No. 2007-252692. Is performed, and the integrated image and the captured image are aligned.
  • the position on the captured image and the position on the OCT image can be associated with each other.
  • the position on the captured image corresponding to the measurement position of the retinal thickness or RNFL thickness based on the OCT image can be specified.
  • the analysis processing unit 232 includes a macular analysis unit 233, a nipple analysis unit 234, a glaucoma analysis unit 235, and a macular degeneration analysis unit 236.
  • Each analysis unit 233 to 236 is a combination of some of the plurality of analysis processes described above. In other words, each of the analysis units 233 to 236 performs a predetermined analysis process by executing the macro as a combination of some computer programs corresponding to a plurality of analysis processes.
  • the macular analysis unit 233 executes the retinal thickness analysis and the normal comparison of the retinal thickness to create a test result of the macular state.
  • the nipple analysis unit 234 executes an RNFL thickness analysis, a RNFL thickness normal comparison and a nipple shape analysis, and creates a test result of the nipple state.
  • the glaucoma analysis unit 235 performs an RNFL thickness analysis, a RNFL thickness normal comparison, and a papillary shape analysis to create a glaucoma test result.
  • the macular degeneration analysis unit 236 executes a retinal thickness analysis and a Drusen analysis to create a test result of macular degeneration.
  • the macular degeneration analysis unit 236 may perform normal comparison of retinal thickness.
  • These analysis units 233 to 236 are provided so as to correspond to the operation content of the analysis processing in the operation mode information 214. Instead of executing the analysis process as a preset macro as described above, the computer program of the analysis process to be executed is selected based on the operation mode information 214, and the analysis process is performed based on the selected computer program. You may make it perform.
  • the display unit 240 includes the display device of the arithmetic control unit 200 described above.
  • the display unit 240 may include various display devices such as a touch panel monitor provided on the housing of the fundus camera unit 2.
  • the operation unit 250 includes the operation device of the arithmetic control unit 200 described above. Further, the operation unit 250 may include various buttons and keys provided on the housing of the ophthalmologic observation apparatus 1 or outside. For example, when the fundus camera unit 2 has a housing similar to that of a conventional fundus camera, the operation unit 250 may include a joystick, an operation panel, or the like provided on the housing.
  • the display unit 240 and the operation unit 250 do not need to be configured as individual devices.
  • a device in which a display function and an operation function are integrated such as a touch panel monitor, can be used.
  • Examples of the scanning pattern of the signal light LS by the ophthalmologic observation apparatus 1 include a horizontal scan, a vertical scan, a cross scan, a radial scan, a circle scan, a concentric scan, and a spiral scan. These scanning patterns are selectively used as appropriate in consideration of the observation site of the fundus, the analysis target (such as retinal thickness), the time required for scanning, the precision of scanning, and the like.
  • the horizontal scan is to scan the signal light LS in the horizontal direction (x direction).
  • the horizontal scan also includes an aspect in which the signal light LS is scanned along a plurality of horizontal scanning lines arranged in the vertical direction (y direction). In this aspect, it is possible to arbitrarily set the scanning line interval. Further, the above-described three-dimensional image can be formed by sufficiently narrowing the interval between adjacent scanning lines (three-dimensional scanning). The same applies to the vertical scan. Linear scans such as horizontal scans and vertical scans may be collectively referred to as line scans.
  • the cross scan scans the signal light LS along a cross-shaped trajectory composed of two linear trajectories (straight trajectories) orthogonal to each other.
  • the signal light LS is scanned along a radial trajectory composed of a plurality of linear trajectories arranged at a predetermined angle.
  • the cross scan is an example of a radiation scan.
  • the circle scan scans the signal light LS along a circular locus.
  • the signal light LS is scanned along a plurality of circular trajectories arranged concentrically around a predetermined center position.
  • a circle scan is an example of a concentric scan.
  • the signal light LS is scanned along a spiral (spiral) locus while the radius of rotation is gradually reduced (or increased).
  • the galvanometer mirrors 43 and 44 are configured to scan the signal light LS in directions orthogonal to each other, the signal light LS can be scanned independently in the x direction and the y direction, respectively. Furthermore, by simultaneously controlling the directions of the galvanometer mirrors 43 and 44, it is possible to scan the signal light LS along an arbitrary locus on the xy plane. Thereby, various scanning patterns as described above can be realized.
  • a tomographic image in the depth direction (x direction) along the scanning line (scanning locus) can be formed.
  • the above-described three-dimensional image can be formed.
  • the region on the fundus oculi Ef to be scanned with the signal light LS as described above is called a scanning region.
  • the scanning area in the three-dimensional scan is a rectangular area in which a plurality of horizontal scans are arranged.
  • the scanning area in the concentric scan is a disk-shaped area surrounded by the locus of the circular scan with the maximum diameter.
  • the scanning area in the radial scan is a disk-shaped (or polygonal) area connecting both end positions of each scan line.
  • the main control unit 211 causes the display unit 240 to display a predetermined screen for selecting an operation mode.
  • the operator selects an operation mode using the operation unit 250.
  • the operation mode designating unit 212a designates the selected operation mode and sends the designation result to each of the control units 212b to 212g (S1). In this operation example, a case where the macular inspection mode is designated will be described.
  • Each control unit 212b to 212g specifies the operation content with reference to the operation mode information 214 (S2). Specifically, the fixation direction control unit 212b specifies the “macular fixation direction” as the fixation direction of the eye to be examined, and the scanning pattern control unit 212c sets “3D”, “radial”, and “scanning patterns of the signal light LS”. The “line” is specified, the image control unit 212d specifies “fundus image”, “tomographic image”, and “3D image” as image types, and the analysis control unit 212e performs “net thickness analysis” and “normal comparison” as analysis processing.
  • the output information control unit 212f specifies “fundus image”, “representative tomographic image”, and “normal comparison diagram” as the information type, and the output control unit 212g specifies “macular template” as the display layout. At the same time, the “macular template” is specified as the print layout.
  • the fixation direction control unit 212b controls the LCD 39 to display a fixation target at a position on the screen corresponding to the macular fixation direction, thereby fixing the eye E to be examined in the macular fixation direction (S3).
  • the main control unit 211 controls the light source unit 101 to output the low coherence light L0
  • the scanning pattern control unit 212c controls the scan driving unit 70 to control the signal light based on the low coherence light L0.
  • the LS is scanned along the scanning pattern of the three-dimensional scan (S4). In the three-dimensional scan, the signal light LS is sequentially irradiated to a plurality of irradiation positions arranged in a lattice point shape.
  • the OCT unit 100 superimposes the signal light LS and the reference light LR to generate and detect interference light LC. This detection signal is transmitted to the arithmetic control unit 200.
  • the OCT measurement may be started in response to the operator performing a predetermined operation (such as pressing an operation button), or may be fixed based on an image of the fundus oculi Ef (such as an observation image K). You may make it start automatically by determining a state.
  • the image control unit 212d controls the image forming unit 220 to form a tomographic image based on the detection signal from the OCT unit 100 (S5). Since the three-dimensional scan is executed, a plurality of tomographic images along a plurality of parallel scanning lines are formed.
  • the main control unit 211 causes the storage unit 213 to store the formed tomographic images.
  • the image control unit 212d sends these tomographic images to the image processing unit 230 and controls the three-dimensional image forming unit 231 to form a three-dimensional image (S6).
  • the main control unit 211 causes the storage unit 213 to store the formed three-dimensional image.
  • This three-dimensional image depicts the macular of the fundus oculi Ef and the form in the vicinity thereof.
  • the main control unit 211 and the scanning pattern control unit 212c execute a radial scan in the same manner as in Step 4 (S7).
  • the signal light LS is sequentially irradiated to a plurality of irradiation positions arranged in a radial pattern.
  • the image control unit 212d controls the image forming unit 220 to form a tomographic image based on the detection signal obtained by the radial scan (S8). Thereby, a plurality of tomographic images arranged radially about the position of the macula are obtained.
  • the main control unit 211 causes the storage unit 213 to store the obtained tomographic images.
  • the main control unit 211 and the scanning pattern control unit 212c execute line scanning in the same manner as in step 4 (S9).
  • the signal light LS is sequentially irradiated to a plurality of irradiation positions arranged in a straight line.
  • the image control unit 212d controls the image forming unit 220 to form a tomographic image based on the detection signal obtained by the line scan (S10). Thereby, a tomographic image along a scanning line passing through the macula is obtained.
  • the main control unit 211 causes the storage unit 213 to store the obtained tomographic image. This completes the OCT measurement.
  • the image control unit 212d controls the fundus camera unit 2 to photograph the fundus oculi Ef (S11).
  • the main control unit 211 stores the captured image in the storage unit 213.
  • the analysis control unit 212e sends the acquired tomographic image, three-dimensional image, and captured image (fundus image) to the image processing unit 230, and controls the macular analysis unit 233 to execute retinal thickness analysis and normal comparison (S12). .
  • the macular analyzer 233 generates a Normal comparison chart as the analysis result.
  • the main control unit 211 causes the storage unit 213 to store the generated Normative comparison diagram.
  • the output information control unit 212f includes a fundus image (a captured image), a representative tomographic image (for example, a tomographic image obtained by a line scan), And the normal comparison chart is read from the storage unit 213 (S13). At this time, information related to the common information item is also read.
  • the output control unit 212g reads the display or printing macular template from the storage unit 213. Further, the output control unit 212g applies the information read out in step 13 to the macular template to create output image data (display image data and / or print image data), and outputs the output image data to the output image data. Based on this, the display unit 240 and the printer 300 are controlled to output a display screen and a print image (S14). This completes the operation related to the macular inspection mode.
  • the circle scan and the three-dimensional scan are sequentially executed with the eye E fixed in the nipple fixation direction.
  • the arithmetic and control unit 200 forms a tomographic image along a circular scanning line with the position of the optic nerve head (the center of the nipple) approximately as the center based on the detection signal based on the circle scan.
  • the arithmetic control unit 200 forms a plurality of tomographic images based on the detection signals based on the three-dimensional scan, and forms a three-dimensional image based on these tomographic images. This three-dimensional image is an image depicting the optic disc and its vicinity.
  • the fundus camera unit 2 photographs the fundus oculi Ef.
  • the nipple analysis unit 234 performs RNFL thickness analysis, normal comparison, and nipple shape analysis based on the acquired OCT image or the like, and creates a Normal comparison diagram as an analysis result.
  • the arithmetic control unit 200 arranges and outputs a fundus image, a representative tomographic image (for example, a tomographic image based on a circle scan), a normal comparison chart, and a nipple shape parameter to a nipple template.
  • a three-dimensional scan is executed with the eye E fixed in the macular fixation direction to form a three-dimensional image depicting the macula and its vicinity.
  • the fixation direction of the eye E is changed to the nipple fixation direction, a three-dimensional scan is executed, and a three-dimensional image depicting the optic nerve head and its vicinity is formed.
  • the fundus camera unit 2 photographs the fundus oculi Ef.
  • the glaucoma analysis unit 235 performs an RNFL thickness analysis, a normal comparison, and a nipple shape analysis based on the acquired OCT image and the like, and creates a normal comparison diagram as an analysis result.
  • the arithmetic control unit 200 outputs the fundus image, the representative tomographic image, the normal comparison chart, and the papillary shape parameter to the glaucoma template.
  • This representative tomographic image shows, for example, the tomographic image that is formed based on the three-dimensional image of the macula, the cross-section of the position of the macula, and the position of the optic nerve head that is formed based on the three-dimensional image of the optic disc. It is a tomogram with a cross section.
  • a three-dimensional scan is executed with the eye E fixed in the macular fixation direction to form a three-dimensional image depicting the macula and its vicinity.
  • the fundus camera unit 2 photographs the fundus oculi Ef.
  • the macular degeneration analysis unit 236 performs retinal thickness analysis based on the acquired OCT image, and also performs Drusen analysis based on the OCT image and the captured image (fundus image).
  • the arithmetic control unit 200 arranges and outputs the fundus image, the representative tomographic image, the result of the retinal thickness analysis, and the result of the Drusen analysis on the template for macular degeneration.
  • This representative tomographic image is, for example, a tomographic image that is formed based on a three-dimensional image of the macular and has a cross section at the position of the macular.
  • the ophthalmic observation apparatus 1 divides the low coherence light L0 into the signal light LS and the reference light LR, and superimposes the signal light LS passing through the eye E (fundus Ef) and the reference light LR passing through the reference optical path.
  • An optical system that generates and detects the interference light LC is formed, and an OCT image of the eye E (fundus Ef) is formed based on the detection result of the interference light LC.
  • the ophthalmologic observation apparatus 1 performs an analysis process on the formed OCT image and outputs examination result information including the analysis result.
  • the ophthalmic observation apparatus 1 can selectively execute a plurality of operation modes.
  • the ophthalmologic observation apparatus 1 stores in advance operation mode information 214 that associates various operation contents with each operation mode. When one operation mode is designated, the ophthalmologic observation apparatus 1 specifies the operation content associated with this operation mode with reference to the operation mode information 214, and the optical system and the image formation are performed based on the specified operation content.
  • the display unit 240, the display device 3, and the printer 300 are examples of the “output unit” of the present invention.
  • a communication interface such as a LAN card functions as an output unit.
  • a drive device that records the information on the recording medium functions as an output unit.
  • the ophthalmologic observation apparatus 1 includes photographing means (fundus camera unit 2) for photographing the fundus oculi Ef.
  • photographing means fundus camera unit 2 for photographing the fundus oculi Ef.
  • the operation content of the photographing unit is associated with the designated operation mode, that is, when the fact that a color image, a fluorescence image, or the like is acquired is recorded in the operation mode information 214
  • the ophthalmic observation apparatus 1 Based on the operation content, the photographing means is controlled to form a photographed image H of the fundus oculi Ef.
  • the formed captured image H is output as inspection result information together with the OCT image and the analysis result.
  • the ophthalmic observation apparatus has input means for inputting patient identification information such as a patient ID and a patient name.
  • an input means is comprised by the operation part 250, for example.
  • the patient identification information can be read and input from this recording medium.
  • the input means in this case includes a recording medium reader.
  • the input means is constituted by the main control unit 211, for example.
  • automatic input there is a case where an electronic medical record of the patient has already been opened and patient identification information recorded in the electronic medical record is automatically input.
  • the main control unit 211 stores the operation mode (identification information) in association with the patient identification information input by the input unit in the storage unit 213. At this time, it is desirable to store information such as the inspection date and time together. The main control unit 211 executes this process every time an inspection is performed.
  • the operation mode designating unit 212a searches the storage unit 213 for an operation mode stored together with the patient identification information in the past. If not found, the operation mode control unit 212 causes the display unit 240 to display a screen for selecting an operation mode, and shifts to manual operation mode designation.
  • the operation mode control unit 212 refers to the operation mode information 214 and specifies the operation content associated with the searched operation mode. Furthermore, the operation mode control unit 212 controls the optical system, the image forming unit 220, the image processing unit 230, the display unit 240, and the like based on the specified operation content to execute the processing of the operation mode.
  • [Modification 2] A plurality of inspections may be performed when the same inspection is repeatedly performed such as follow-up observation. Each test does not necessarily have the same execution interval. For example, inspection A may be performed at intervals of 2 weeks, and inspection B may be performed at intervals of 3 weeks. In such a case, it would be convenient if the inspection to be performed today can be automatically specified and the operation mode can be automatically specified. In this modification, a configuration capable of realizing such processing will be described.
  • the ophthalmic observation apparatus has the same input means as that of Modification 1. Furthermore, this ophthalmic observation apparatus is provided with a time measuring means for measuring the current date and time.
  • This time measuring means is constituted by, for example, a microprocessor having a time measuring function.
  • the operation mode information of this modified example is associated with the operation content for each operation mode as in the above embodiment, and is also associated with information (inspection interval) indicating the time interval for performing the inspection in the operation mode. ing.
  • the operation mode control unit 212 stores the operation mode in each examination in the storage unit 213 together with the input patient identification information and the date and time (examination date and time) measured by the time measuring means. Thereby, the patient identification information and the examination date and time are associated with each examination (each operation mode) performed.
  • the operation mode designating unit 212a searches the storage unit 213 for an operation mode and an examination date and time stored together with the patient identification information in the past. If not found, the operation mode control unit 212 causes the display unit 240 to display a screen for selecting an operation mode, and shifts to manual operation mode designation.
  • the operation mode designating unit 212a calculates the difference between the searched past date and time and the current date and time measured by the time measuring means to obtain the inspection interval. Further, the operation mode designating unit 212a refers to the operation mode information and selects an operation mode associated with the obtained inspection interval. At this time, the obtained inspection interval and the inspection interval recorded in the operation mode information need not be equal. The operation mode designating unit 212a specifies an inspection interval closest to the obtained inspection interval from the operation mode information, and selects an operation mode associated with the specified inspection interval. Thereby, even if there is some error in the actual inspection interval, the operation mode of the current inspection can be selected.
  • the operation mode control unit 212 refers to the operation mode information and specifies the operation content associated with the selected operation mode. Furthermore, the operation mode control unit 212 controls the optical system, the image forming unit 220, the image processing unit 230, the display unit 240, and the like based on the specified operation content to execute the processing of the operation mode.
  • the next inspection may be different. For example, when there is no abnormality in the previous inspection, inspection A is performed this time, and when abnormality is found in the previous inspection, inspection B may be performed this time. In such a case, it is convenient if the operation content can be automatically changed according to the result of the previous inspection. In this modification, a configuration capable of realizing such processing will be described.
  • the ophthalmic observation apparatus has the same input means as that of Modification 1.
  • the operation mode control unit 212 stores information (abnormality presence information) indicating the fact together with the patient identification information input by the input unit.
  • the presence / absence of abnormality can be determined, for example, by whether or not the layer thickness is included in the allowable range (standard thickness) in the normal comparison.
  • the operation mode information of this modification is associated with the operation content for each operation mode, as in the above embodiment, and with operation content change information indicating a change in the operation content when there is an abnormality.
  • the operation content change information is, for example, for changing the operation content so that the analysis process B is performed in addition to the analysis process A when an abnormality exists. Further, the operation content change information may be such that when an abnormality exists, the operation content change information is switched to an inspection in another operation mode, or an inspection in another operation mode is added.
  • the operation mode designating unit 212a searches the storage unit 213 for abnormality presence information stored together with the patient identification information in the past. If the abnormality presence information is not retrieved, the original operation mode is executed without changing the operation content.
  • the operation mode designating unit 212a changes the operation content of the operation mode based on the operation content change information. Based on the changed operation content, the operation mode control unit 212 controls the optical system, the image forming unit 220, the image processing unit 230, the display unit 240, and the like to execute processing in the operation mode.
  • the first example is a value in the eye on the opposite side of the eye E (referred to as the opposite eye).
  • This modification is applicable when the retinal thickness or RNFL thickness (referred to as retinal thickness) in the opposite eye has been measured.
  • This modification is effective, for example, when the opposite eye is a healthy eye or when the disease is milder than the eye E.
  • a difference in retinal thickness between the left and right eyes can be grasped.
  • the second example is a measurement value in a past examination.
  • the retinal thickness obtained in the current inspection is compared with the retinal thickness obtained in the past (for example, the previous inspection).
  • changes from the past such as retinal thickness can be grasped.
  • by repeating such a comparison it is possible to grasp changes with time such as the retinal thickness.
  • fixation direction, scanning pattern, image type, analysis processing, information type, display layout, and print layout are set as operation items. It is possible to create and use operation mode information set as an item. In order to automate the process, it is desirable to set many operation items.
  • the position of the reference mirror 114 is changed to change the optical path length difference between the optical path of the signal light LS and the optical path of the reference light LR, but the method of changing the optical path length difference is limited to this. Is not to be done.
  • the optical path length difference can be changed by moving the fundus camera unit 2 or the OCT unit 100 with respect to the eye E to change the optical path length of the signal light LS. It is also effective to change the optical path length difference by moving the measurement object in the depth direction (z direction), particularly when the measurement object is not a living body part.
  • the computer program in the above embodiment can be stored in any recording medium readable by a computer.
  • this recording medium for example, an optical disk, a magneto-optical disk (CD-ROM / DVD-RAM / DVD-ROM / MO, etc.), a magnetic storage medium (hard disk / floppy (registered trademark) disk / ZIP, etc.), etc. are used. Is possible. It can also be stored in a storage device such as a hard disk drive or memory.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Eye Examination Apparatus (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

 診断に用いられる情報を容易にかつ過不足なく取得できる眼科観察装置を提供する。眼科観察装置1は眼底EfのOCT計測を行ってOCT画像を形成し、このOCT画像に対して解析処理を施して、その解析結果を含む検査結果情報を出力する。眼科観察装置1は、複数の動作モードを選択的に実行可能とされる。眼科観察装置1は、各動作モードに対して各種動作内容が関連付けられた動作モード情報214を予め記憶している。1つの動作モードが指定されると、眼科観察装置1は、この動作モードに関連付けられた動作内容を動作モード情報214を参照して特定し、特定された動作内容に基づいて光学系、画像形成部220、3次元画像形成部231、解析処理部232、表示部240、プリンタ300等を制御する。

Description

眼科観察装置
 この発明は、光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)を用いて被検眼の画像を形成する眼科観察装置に関する。
 近年、レーザ光源等からの光ビームを用いて被測定物体の表面形態や内部形態を表す画像を形成するOCTが注目を集めている。OCTは、X線CTのような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。たとえば眼科分野においては、眼底や角膜等の画像を形成する装置が実用化段階に入っている。
 特許文献1にはOCTを適用した装置が開示されている。この装置は、測定腕が回転式転向鏡(ガルバノミラー)により物体を走査し、参照腕に参照ミラーが設置されており、その出口に計測腕及び参照腕からの光束の干渉光の強度を分光器で分析する干渉器が設けられている。更に、参照腕は、参照光光束位相を不連続な値で段階的に変えるように構成されている。
 特許文献1の装置は、いわゆる「フーリエドメインOCT(Fourier Domain OCT)」の手法を用いるものである。すなわち、被測定物体に対して低コヒーレンス光のビームを照射し、その反射光と参照光とを重ね合わせて干渉光を生成し、この干渉光のスペクトル強度分布を取得してフーリエ変換を施すことにより被測定物体の深度方向(z方向)の形態を画像化するものである。なお、このタイプの手法は、特にスペクトラルドメイン(Spectral Domain)とも呼ばれる。
 更に、特許文献1に記載の装置は、光ビーム(信号光)を走査するガルバノミラーを備え、それにより被測定物体の所望の測定対象領域の画像を形成するようになっている。この装置においては、z方向に直交する1方向(x方向)にのみ光ビームを走査するように構成されているので、この装置により形成される画像は、光ビームの走査方向(x方向)に沿った深度方向(z方向)の2次元断層像となる。
 特許文献2には、信号光を水平方向(x方向)及び垂直方向(y方向)に走査(スキャン)することにより水平方向の2次元断層像を複数形成し、これら複数の断層像に基づいて測定範囲の3次元の断層情報を取得して画像化する技術が開示されている。この3次元画像化としては、たとえば、複数の断層像を垂直方向に並べて表示させる方法や(スタックデータなどと呼ばれる)、複数の断層像にレンダリング処理を施して3次元画像を形成する方法などが考えられる。
 特許文献3、4には、他のタイプのOCT装置が開示されている。特許文献3には、被測定物体に照射される光の波長を走査し、各波長の光の反射光と参照光とを重ね合わせて得られる干渉光に基づいてスペクトル強度分布を取得し、それに対してフーリエ変換を施すことにより被測定物体の形態を画像化するOCT装置が記載されている。このようなOCT装置は、スウェプトソース(Swept Source)タイプなどと呼ばれる。スウェプトソースタイプはフーリエドメインタイプの一種である。
 また、特許文献4には、所定のビーム径を有する光を被測定物体に照射し、その反射光と参照光とを重ね合わせて得られる干渉光の成分を解析することにより、光の進行方向に直交する断面における被測定物体の画像を形成するOCT装置が記載されている。このようなOCT装置は、フルフィールド(full-field)タイプ、或いはインファス(en-face)タイプなどと呼ばれる。
 特許文献5には、OCTを眼科分野に適用した構成が開示されている。なお、OCTが眼科分野に応用される以前から、眼底カメラやスリットランプ等の眼科観察装置が使用されている(たとえば特許文献6、特許文献7を参照)。眼底カメラは被検眼に照明光を照射し、その眼底反射光を受光することで眼底を撮影する装置である。スリットランプは、スリット光を用いて角膜の光切片を切り取ることにより角膜の断面の画像を取得する装置である。
 OCTを用いた眼科観察装置は、高精細の画像を取得できる点、更には断層像や3次元画像を取得できる点などにおいて、従来の眼科撮影装置に対して優位性を持つ。
 このように、OCTを用いた眼科観察装置は被検眼の様々な部位の観察に適用可能であり、また高精細な画像を取得できることから、様々な眼科疾患の診断への応用がなされてきている。
特開平11-325849号公報 特開2002-139421号公報 特開2007-24677号公報 特開2006-153838号公報 特開2008-73099公報 特開平9-276232号公報 特開2008-259544号公報
 しかし、様々な疾患の診断に使用されるということは、被検眼の様々な部位を様々な設定条件の下で検査する必要が生じる。たとえば、或る疾患の診断においては眼底の黄斑付近の3次元画像に対して所定の解析処理を施す必要があり、他の疾患の診断においては視神経乳頭周辺の同心円状の画像を取得して別の解析処理を施す必要がある。なお、検査時の設定項目としては、撮影部位、スキャン方法、画像の解析方法、表示レイアウト、印刷レイアウトなどがある。
 従来の装置では、上記のような各種項目の設定操作は、オペレータが手作業で行っていた。設定が適正ならば診断に必要な情報を過不足なく取り扱うことができるが、常に適正に設定がなされる訳ではない。たとえば、オペレータが当該装置に不慣れな場合や当該疾患に詳しくない場合などには、診断に必要な情報を取得するために上記設定項目をどのように組み合わせればよいか迷ってしまったり、場合によっては判断できなかったりするおそれがある。
 このようにオペレータの判断で上記項目を設定すると、診断に必要な情報を取得できなかったり、逆に不要な情報まで取得してしまったりといった問題が起こりうる。そうすると、診断を適正に行えないおそれが生じる。また、検査を再度行ったり、必要な情報と不要な情報とを選り分けたりするなど、無駄な時間や手間が掛かってしまう。
 なお、たとえ設定操作に熟練しているとしても、複数の項目をその都度設定するのは手間であり、また時間も掛かる。
 この発明は、以上のような問題を解決するためになされたもので、その目的は、被検眼の診断に用いられる情報を容易にかつ過不足なく取得することが可能な眼科観察装置を提供することにある。
 上記目的を達成するために、請求項1に記載の発明は、低コヒーレンス光を信号光と参照光とに分割し、被検眼を経由した前記信号光と参照光路を経由した参照光とを重畳させて干渉光を生成して検出する光学系と、前記光学系による前記干渉光の検出結果に基づいて前記被検眼の画像を形成する画像形成手段と、前記形成された画像を解析する解析手段と、前記解析手段による画像の解析結果を含む検査結果情報を出力する出力手段と、検査の種別に応じた複数の動作モードのそれぞれに対し、前記光学系、前記画像形成手段、前記解析手段及び前記出力手段のうちの少なくとも1つの動作内容が関連付けられた動作モード情報を予め記憶する記憶手段と、前記複数の動作モードのうちの1つを指定する指定手段と、前記指定された動作モードに関連付けられた動作内容を前記記憶部に記憶された動作モード情報を参照して特定し、前記特定された動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する制御手段と、を備えることを特徴とする眼科観察装置である。
 また、請求項2に記載の発明は、請求項1に記載の眼科観察装置であって、前記光学系は、前記被検眼を所定の固視方向に固視させるための視標を前記被検眼に呈示する固視光学系を含み、前記動作モード情報には、前記複数の動作モードのそれぞれに対して前記固視光学系による固視方向を関連付けられており、前記制御手段は、前記指定された動作モードに関連付けられた固視方向を前記動作モード情報を参照して特定し、更に、前記固視光学系を制御して当該特定された固視方向に固視させるための前記視標を呈示させる、ことを特徴とする。
 また、請求項3に記載の発明は、請求項2に記載の眼科観察装置であって、前記固視光学系は、前記視標を表示する表示デバイスと、前記表示された視標を前記被検眼に投影する投影光学系とを含み、前記動作モード情報には、前記複数の動作モードのそれぞれに対する固視方向として、前記表示デバイス上の前記視標の表示位置が関連付けられており、前記制御手段は、前記指定された動作モードに関連付けられた表示位置を前記動作モード情報を参照して特定し、更に、前記表示デバイスを制御して前記表示デバイス上の当該特定された表示位置に前記視標を表示させる、ことを特徴とする。
 また、請求項4に記載の発明は、請求項1に記載の眼科観察装置であって、前記光学系は、前記被検眼に対する前記信号光の照射位置を走査する走査手段を含み、前記動作モード情報には、前記複数の動作モードのそれぞれに対して、前記走査手段による前記照射位置の走査パターンと、前記画像形成手段により形成される画像種別とが関連付けられており、前記制御手段は、前記指定された動作モードに関連付けられた走査パターン及び画像種別を前記動作モード情報を参照して特定し、更に、前記走査手段を制御して当該特定された走査パターンで前記信号光の照射位置を走査させ、前記画像形成手段を制御して当該特定された画像種別の前記被検眼の画像を形成させる、ことを特徴とする。
 また、請求項5に記載の発明は、請求項1に記載の眼科観察装置であって、前記解析手段は、前記被検眼の所定層の厚さを求める層厚解析と前記被検眼における病変の位置を特定する病変特定解析とを含む複数の解析処理を実行可能であり、前記動作モード情報には、前記複数の動作モードのそれぞれに対して前記複数の解析処理のうちの少なくとも1つが関連付けられており、前記制御手段は、前記指定された動作モードに関連付けられた解析処理を前記動作モード情報を参照して特定し、更に、前記解析手段を制御して当該特定された解析処理を実行させる、ことを特徴とする。
 また、請求項6に記載の発明は、請求項1に記載の眼科観察装置であって、前記動作モード情報には、前記複数の動作モードのそれぞれに対して、前記検査結果情報に含まれる情報種別と前記出力手段による前記検査結果情報の出力レイアウトとを関連付けられており、前記制御手段は、前記指定された動作モードに関連付けられた情報種別及び出力レイアウトを前記動作モード情報を参照して特定し、更に、前記出力手段を制御して当該特定された情報種別を含む前記検査結果情報を当該特定された出力レイアウトで配置して出力させる、ことを特徴とする。
 また、請求項7に記載の発明は、被検眼を所定の固視方向に固視させるための視標を前記被検眼に呈示する固視光学系と、低コヒーレンス光を信号光と参照光とに分割する分割手段と、前記被検眼に対する前記信号光の照射位置を走査する走査手段と、前記被検眼を経由した前記信号光と参照光路を経由した参照光とを重畳させて干渉光を生成する重畳手段と、前記生成された干渉光を検出する検出手段とを含む光学系と、前記検出手段による前記干渉光の検出結果に基づいて前記被検眼の画像を形成する画像形成手段と、前記形成された画像を解析して前記被検眼の所定層の厚さを求める層厚解析と、前記形成された画像を解析して前記被検眼における病変の位置を特定する病変特定解析とを含む複数の解析処理を実行可能な解析手段と、前記解析手段による画像の解析結果を含む検査結果情報を出力する出力手段と、検査の種別に応じた複数の動作モードのそれぞれに対し、前記固視光学系による固視方向、前記走査手段による前記照射位置の走査パターン、前記画像形成手段により形成される画像種別、前記複数の解析処理のうちの少なくとも1つ、前記検査結果情報に含まれる情報種別、及び前記出力手段による前記検査結果情報の出力レイアウトが関連付けられた動作モード情報を予め記憶する記憶手段と、前記複数の動作モードのうちの1つを指定する指定手段と、前記指定された動作モードに関連付けられた固視方向、走査パターン、画像種別、解析処理、情報種別及び出力レイアウトを前記動作モード情報を参照して特定し、更に、前記固視光学系を制御して当該特定された固視方向に固視させるための前記視標を呈示させ、前記走査手段を制御して当該特定された走査パターンで前記信号光の照射位置を走査させ、前記画像形成手段を制御して当該特定された画像種別の前記被検眼の画像を形成させ、前記解析手段を制御して当該特定された解析処理を実行させ、前記出力手段を制御して当該特定された情報種別を含む前記検査結果情報を当該特定された出力レイアウトで配置して出力させる制御手段と、を備えることを特徴とする眼科観察装置である。
 また、請求項8に記載の発明は、請求項7に記載の眼科観察装置であって、前記複数の動作モードは、眼底の黄斑を検査するための黄斑検査モードを含み、前記動作モード情報には、前記黄斑検査モードに対し、黄斑及びその近傍に前記信号光を照射するための黄斑用固視方向が前記固視方向として関連づけられており、格子点状に配列された複数の照射位置に順次に前記信号光を照射する3次元スキャン、放射線状に配置された複数の照射位置に順次に前記信号光を照射するラジアルスキャン又は直線状に配置された複数の照射位置に順次に前記信号光を照射するラインスキャンが前記走査パターンとして関連づけられており、前記走査パターンが前記3次元スキャンである場合には3次元画像が又は前記走査パターンが前記ラジアルスキャン若しくは前記ラインスキャンの場合には断層像が前記画像種別として関連づけられており、網膜厚を求めて所定の標準厚と比較する網膜厚解析が前記解析処理として関連づけられており、断層像及び前記網膜厚解析による前記比較の結果が前記情報種別として関連づけられており、前記断層像及び前記比較の結果を所定の配置で並べた黄斑検査テンプレートが前記出力レイアウトとして関連づけられている、ことを特徴とする。
 また、請求項9に記載の発明は、請求項7に記載の眼科観察装置であって、前記複数の動作モードは、眼底の視神経乳頭を検査するための乳頭検査モードを含み、前記動作モード情報には、前記乳頭検査モードに対し、視神経乳頭及びその近傍に前記信号光を照射するための乳頭用固視方向が前記固視方向として関連づけられており、円形状に配置された複数の照射位置に順次に前記信号光を照射するサークルスキャン又は格子点状に配列された複数の照射位置に順次に前記信号光を照射する3次元スキャンが前記走査パターンとして関連づけられており、前記走査パターンが前記サークルスキャンの場合には断層像が又は前記走査パターンが前記3次元スキャンである場合には3次元画像が前記画像種別として関連づけられており、RNFL(網膜神経線維層)厚を求めて所定の標準厚と比較するRNFL厚解析と網膜の孔部を検出して視神経乳頭の形状を解析する乳頭形状解析とが前記解析処理として関連づけられており、断層像と前記RNFL厚解析による前記比較の結果と前記乳頭形状解析の結果とが前記情報種別として関連づけられており、前記断層像と前記比較の結果と前記乳頭形状解析の結果とを所定の配置で並べた乳頭検査テンプレートが前記出力レイアウトとして関連づけられている、ことを特徴とする。
 また、請求項10に記載の発明は、請求項7に記載の眼科観察装置であって、前記複数の動作モードは、緑内障の検査を行うための緑内障検査モードを含み、前記動作モード情報には、前記緑内障検査モードに対し、黄斑及びその近傍に前記信号光を照射するための黄斑用固視方向と視神経乳頭及びその近傍に前記信号光を照射するための乳頭用固視方向とが前記固視方向として関連づけられており、格子点状に配列された複数の照射位置に順次に前記信号光を照射する3次元スキャンが前記走査パターンとして関連づけられており、黄斑及びその近傍の3次元画像と視神経乳頭及びその近傍の3次元画像とが前記画像種別として関連づけられており、RNFL(網膜神経線維層)厚を求めて所定の標準厚と比較するRNFL厚解析と網膜の孔部を検出して視神経乳頭の形状を解析する乳頭形状解析とが前記解析処理として関連づけられており、断層像と前記RNFL厚解析による前記比較の結果と前記乳頭形状解析の結果とが前記情報種別として関連づけられており、前記断層像と前記比較の結果と前記乳頭形状解析の結果とを所定の配置で並べた緑内障診断テンプレートが前記出力レイアウトとして関連づけられている、ことを特徴とする。
 また、請求項11に記載の発明は、請求項7に記載の眼科観察装置であって、前記複数の動作モードは、黄斑変性の検査を行うための黄斑変性検査モードを含み、前記動作モード情報には、前記黄斑変性検査モードに対し、黄斑及びその近傍に前記信号光を照射するための黄斑用固視方向が前記固視方向として関連づけられており、格子点状に配列された複数の照射位置に順次に前記信号光を照射する3次元スキャンが前記走査パターンとして関連づけられており、黄斑及びその近傍の3次元画像が前記画像種別として関連づけられており、網膜厚を求めて所定の標準厚と比較する網膜厚解析とドルーゼンの分布を求めるドルーゼン解析とが前記解析処理として関連づけられており、断層像、前記網膜厚解析による前記網膜厚解析の結果及び前記ドルーゼン解析の結果が前記情報種別として関連づけられており、前記断層像、前記網膜厚解析の結果及び前記ドルーゼン解析の結果を所定の配置で並べた黄斑変性診断テンプレートが前記出力レイアウトとして関連づけられている、ことを特徴とする。
 また、請求項12に記載の発明は、請求項1に記載の眼科観察装置であって、患者識別情報を入力する入力手段を更に備え、前記制御手段は、各検査における動作モードを前記入力された患者識別情報とともに前記記憶手段に記憶させ、前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された動作モードを前記記憶手段から検索し、前記制御手段は、前記検索された動作モードに関連づけられた動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、ことを特徴とする。
 また、請求項13に記載の発明は、請求項7に記載の眼科観察装置であって、患者識別情報を入力する入力手段を更に備え、前記制御手段は、各検査における動作モードを前記入力された患者識別情報とともに前記記憶手段に記憶させ、前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された動作モードを前記記憶手段から検索し、前記制御手段は、前記検索された動作モードに関連づけられた動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、ことを特徴とする。
 また、請求項14に記載の発明は、請求項1に記載の眼科観察装置であって、患者識別情報を入力する入力手段と、現在の日時を計時する計時手段とを更に備え、前記動作モード情報には、前記動作モードに対し、当該動作モードで検査を行う時間間隔を表す検査間隔が関連づけられており、前記制御手段は、各検査における動作モードを前記入力された患者識別情報及び前記計時された日時とともに前記記憶手段に記憶させ、前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された動作モード及び日時を前記記憶手段から検索し、前記検索された過去の日時と前記計時手段により計時されている現在の日時との差を算出して検査間隔を求め、前記求められた検査間隔に関連づけられた動作モードを前記複数の動作モードのうちから選択し、前記制御手段は、前記選択された動作モードに関連づけられた動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、ことを特徴とする。
 また、請求項15に記載の発明は、請求項7に記載の眼科観察装置であって、患者識別情報を入力する入力手段と、現在の日時を計時する計時手段とを更に備え、前記動作モード情報には、前記動作モードに対し、当該動作モードで検査を行う時間間隔を表す検査間隔が関連づけられており、前記制御手段は、各検査における動作モードを前記入力された患者識別情報及び前記計時された日時とともに前記記憶手段に記憶させ、前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された動作モード及び日時を前記記憶手段から検索し、前記検索された過去の日時と前記計時手段により計時されている現在の日時との差を算出して検査間隔を求め、前記求められた検査間隔に関連づけられた動作モードを前記複数の動作モードのうちから選択し、前記制御手段は、前記選択された動作モードに関連づけられた動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、ことを特徴とする。
 また、請求項16に記載の発明は、請求項1に記載の眼科観察装置であって、患者識別情報を入力する入力手段を更に備え、前記制御手段は、前記解析手段により得られた解析結果に異常が存在した場合に、その旨を表す異常存在情報を前記入力された患者識別情報とともに前記記憶手段に記憶させ、前記動作モード情報には、前記動作モードに対し、前記異常が存在した場合における動作内容の変更を表す動作内容変更情報が関連づけられており、前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された異常存在情報を前記記憶手段から検索し、前記異常存在情報が検索された場合、前記動作内容変更情報に基づいて前記動作モードの動作内容を変更し、前記制御手段は、前記変更後の動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、ことを特徴とする。
 また、請求項17に記載の発明は、請求項7に記載の眼科観察装置であって、患者識別情報を入力する入力手段を更に備え、前記制御手段は、前記解析手段により得られた解析結果に異常が存在した場合に、その旨を表す異常存在情報を前記入力された患者識別情報とともに前記記憶手段に記憶させ、前記動作モード情報には、前記動作モードに対し、前記異常が存在した場合における動作内容の変更を表す動作内容変更情報が関連づけられており、前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された異常存在情報を前記記憶手段から検索し、前記異常存在情報が検索された場合、前記動作内容変更情報に基づいて前記動作モードの動作内容を変更し、前記制御手段は、前記変更後の動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、ことを特徴とする。
 また、請求項18に記載の発明は、請求項1に記載の眼科観察装置であって、被検眼の眼底に照明光を照射し、この照明光の眼底反射光を受光して前記眼底の撮影画像を形成する撮影手段を更に備え、前記動作モード情報には、前記複数の動作モードのうちの少なくとも1つに対し、前記撮影手段の動作内容が関連づけられており、前記指定手段により指定された動作モードに対して前記撮影手段の動作内容が関連づけられている場合、前記制御手段は、当該動作内容に基づいて前記撮影手段を制御して前記眼底の撮影画像を形成させる、ことを特徴とする。
 また、請求項19に記載の発明は、請求項7に記載の眼科観察装置であって、被検眼の眼底に照明光を照射し、この照明光の眼底反射光を受光して前記眼底の撮影画像を形成する撮影手段を更に備え、前記動作モード情報には、前記複数の動作モードのうちの少なくとも1つに対し、前記撮影手段の動作内容が関連づけられており、前記指定手段により指定された動作モードに対して前記撮影手段の動作内容が関連づけられている場合、前記制御手段は、当該動作内容に基づいて前記撮影手段を制御して前記眼底の撮影画像を形成させる、ことを特徴とする。
 また、請求項20に記載の発明は、請求項1に記載の眼科観察装置であって、前記動作モード情報により前記動作モードに対して関連づけられる動作内容を編集するための操作手段を更に備える、ことを特徴とする。
 また、請求項21に記載の発明は、請求項7に記載の眼科観察装置であって、前記動作モード情報により前記動作モードに対して関連づけられる動作内容を編集するための操作手段を更に備える、ことを特徴とする。
 この発明に係る眼科観察装置は複数の動作モードを選択的に実行可能であり、各動作モードに対して動作内容を関連付ける動作モード情報を予め記憶している。1つの動作モードが指定されると、この眼科観察装置は、この動作モードに関連付けられた動作内容を動作モード情報を参照して特定し、特定された動作内容に基づいて光学系、画像形成手段、解析手段及び/又は出力手段を制御する。
 このような眼科観察装置によれば、指定された動作モードに応じた一連の処理を自動的に実行することができるので、被検眼の診断に用いられる情報を容易にかつ過不足なく取得することが可能である。
この発明に係る眼科観察装置の実施形態の構成の一例を表す概略図である。 この発明に係る眼科観察装置の実施形態の構成の一例を表す概略図である。 この発明に係る眼科観察装置の実施形態の構成の一例を表す概略ブロック図である。 この発明に係る眼科観察装置の実施形態の構成の一例を表す概略ブロック図である。 この発明に係る眼科観察装置の実施形態の動作モード情報の一例の概要を表すテーブルである。 ここの発明に係る眼科観察装置の実施形態の動作の一例を表すフローチャートである。
 この発明に係る眼科観察装置の実施形態の一例について、図面を参照しながら詳細に説明する。
 この発明に係る眼科観察装置は、光コヒーレンストモグラフィを用いて被検眼の断層像や3次元画像を形成する。この眼科観察装置には任意のタイプの光コヒーレンストモグラフィを適用することが可能である。なお、信号光の走査を伴う構成を採用する場合には、フーリエドメインタイプやスウェプトソースタイプなどが適用される。以下、光コヒーレンストモグラフィによって取得される画像をOCT画像と呼ぶことがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。
 以下の実施形態では、フーリエドメインタイプを適用して眼底のOCT計測を行う眼科観察装置について詳しく説明する。特に、この実施形態では、特許文献5に開示された装置と同様に、眼底のOCT計測及び眼底撮影の双方を実行可能な眼科観察装置を取り上げる。
 なお、この発明に係る眼科観察装置は、眼底検査用には限定されず、被検眼の他の部位(たとえば角膜、水晶体、硝子体等)を検査するための装置でもよい。
[構成]
 図1及び図2に示すように、眼科観察装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含んで構成される。眼底カメラユニット2は、従来の眼底カメラとほぼ同様の光学系を有する。OCTユニット100には、眼底のOCT画像を取得するための光学系が設けられている。演算制御ユニット200は、各種の演算処理や制御処理等を実行するコンピュータを具備している。
〔眼底カメラユニット〕
 図1に示す眼底カメラユニット2には、被検眼Eの眼底Efの表面形態を表す2次元画像(眼底像)を形成するための光学系が設けられている。眼底像には、観察画像や撮影画像などが含まれる。観察画像は、たとえば、近赤外光を用いて所定のフレームレートで形成されるモノクロの動画像である。撮影画像は、たとえば、可視光をフラッシュ発光して得られるカラー画像である。また、撮影画像には、フルオレセイン蛍光画像やインドシアニングリーン蛍光画像等の蛍光撮影画像も含まれる。
 眼底カメラユニット2には、従来の眼底カメラと同様に、被検者の顔が動かないように支えるための顎受けや額当てが設けられている。更に、眼底カメラユニット2には、従来の眼底カメラと同様に照明光学系10と撮影光学系30が設けられている。照明光学系10は眼底Efに照明光を照射する。撮影光学系30は、この照明光の眼底反射光を撮像装置(CCDイメージセンサ35、38)に導く。また、撮影光学系30は、OCTユニット100からの信号光を眼底Efに導くとともに、眼底Efを経由した信号光をOCTユニット100に導く。照明光学系10及び撮影光学系30は、この発明の「撮影手段」の一例である。
 照明光学系10の観察光源11は、たとえばハロゲンランプにより構成される。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、対物レンズ22を経由して眼底Efを照明する。
 観察照明光の眼底反射光は、対物レンズ22により屈折され、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、合焦レンズ31を経由し、ダイクロイックミラー32により反射される。更に、この眼底反射光は、ハーフミラー40を透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、たとえば所定のフレームレートで眼底反射光を検出する。表示装置3には、CCDイメージセンサ35により検出された眼底反射光に基づく画像(観察画像)Kが表示される。
 撮影光源15は、たとえばキセノンランプにより構成される。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。撮影照明光の眼底反射光は、観察照明光のそれと同様の経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。表示装置3には、CCDイメージセンサ38により検出された眼底反射光に基づく画像(撮影画像)Hが表示される。なお、観察画像Kを表示する表示装置3と撮影画像Hを表示する表示装置3は、同一のものであってもよいし、異なるものであってもよい。
 LCD(Liquid Crystal Display)39は、固視標や視力測定用視標を表示する。固視標は被検眼Eを固視させるための視標であり、眼底撮影時や断層像形成時などに使用される。
 LCD39から出力された光は、その一部がハーフミラー40にて反射され、ダイクロイックミラー32に反射され、合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過し、対物レンズ22により屈折されて眼底Efに投影される。
 LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視方向(固視位置とも呼ばれる)を変更できる。被検眼Eの固視方向としては、たとえば従来の眼底カメラと同様に、眼底Efの黄斑部を中心とする画像を取得するための方向(黄斑固視方向)や、視神経乳頭を中心とする画像を取得するための方向(乳頭固視方向)や、黄斑部と視神経乳頭との間の眼底中心を中心とする画像を取得するための方向(眼底中心固視方向)などがある。
 LCD39はこの発明の「表示デバイス」の一例である。LCD39に表示された固視標を眼底Efに投影する上記光学素子群は、この発明の「投影光学系」の一例を構成する。また、LCD39及び上記光学素子群はこの発明の「固視光学系」の一例を構成する。
 更に、眼底カメラユニット2には、従来の眼底カメラと同様にアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する装置光学系の位置合わせ(アライメント)を行うための視標(アライメント視標)を生成する。フォーカス光学系60は、眼底Efに対してフォーカス(ピント)を合わせるための視標(スプリット視標)を生成する。
 アライメント光学系50のLED(Light Emitting Diode)51から出力された光(アライメント光)は、絞り52、53及びリレーレンズ54を経由してダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過し、対物レンズ22により被検眼Eの角膜に投影される。
 アライメント光の角膜反射光は、対物レンズ22及び上記孔部を経由し、その一部がダイクロイックミラー55を透過し、合焦レンズ31を通過し、ダイクロイックミラー32により反射され、ハーフミラー40を透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント視標)は、観察画像Kとともに表示装置3に表示される。ユーザは、従来の眼底カメラと同様の操作を行ってアライメントを実施する。また、演算制御ユニット200がアライメント視標の位置を解析して光学系を移動させることによりアライメントを行ってもよい。
 フォーカス調整を行う際には、照明光学系10の光路上に反射棒67の反射面が斜設される。フォーカス光学系60のLED61から出力された光(フォーカス光)は、リレーレンズ62を通過し、スプリット視標板63により二つの光束に分離され、二孔絞り64を通過し、ミラー65に反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、対物レンズ22により眼底Efに結像される。
 フォーカス光の眼底反射光は、アライメント光の角膜反射光と同様の経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット視標)は、観察画像とともに表示装置3に表示される。演算制御ユニット200は、従来と同様に、スプリット視標の位置を解析して合焦レンズ31及びフォーカス光学系60を移動させてピント合わせを行う。また、スプリット視標を視認しつつ手動でピント合わせを行ってもよい。
 ダイクロイックミラー32の後方には、ミラー41、コリメータレンズ42、及びガルバノミラー43、44を含む光路が設けられている。この光路はOCTユニット100に導かれている。
 ガルバノミラー44は、OCTユニット100からの信号光LSをx方向に走査する。ガルバノミラー43は、信号光LSをy方向に走査する。これら二つのガルバノミラー43、44により、信号光LSをxy平面上の任意の方向に走査することができる。それにより、眼底Efに対する信号光LSの照射位置を2次元的に走査することが可能となる。
〔OCTユニット〕
 OCTユニット100には、眼底EfのOCT画像を取得するための光学系が設けられている(図2を参照)。この光学系は、従来のフーリエドメインタイプのOCT装置と同様の構成を有する。すなわち、この光学系は、低コヒーレンス光を参照光と信号光に分割し、眼底Efを経由した信号光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光のスペクトル成分を検出するように構成されている。この検出結果(検出信号)は演算制御ユニット200に送られる。
 OCTユニット100に格納された光学素子群、及び眼底カメラユニット2に格納された信号光の光路上の光学素子群は、この発明の「光学系」の一例を構成する。
 光源ユニット101は広帯域の低コヒーレンス光L0を出力する。低コヒーレンス光L0は、たとえば、近赤外領域の波長帯(約800nm~900nm程度)を含み、数十マイクロメートル程度の時間的コヒーレンス長を有する。なお、人眼では視認できない波長帯、たとえば1050~1060nm程度の中心波長を有する近赤外光を低コヒーレンス光L0として用いてもよい。
 光源ユニット101は、スーパールミネセントダイオード(Super Luminescent Diode:SLD)や、LEDや、SOA(Semiconductor Optical Amplifier)等の光出力デバイスを含んで構成される。
 光源ユニット101から出力された低コヒーレンス光L0は、光ファイバ102によりファイバカプラ103に導かれて信号光LSと参照光LRに分割される。なお、ファイバカプラ103は、光を分割する手段(スプリッタ;splitter)、及び、光を合成する手段(カプラ;coupler)の双方の作用を有するが、ここでは慣用的に「ファイバカプラ」と称する。
 信号光LSは、光ファイバ104により導光され、コリメータレンズユニット105により平行光束となる。更に、信号光LSは、各ガルバノミラー44、43により反射され、コリメータレンズ42により集光され、ミラー41により反射され、ダイクロイックミラー32を透過し、LCD39からの光と同じ経路を通って眼底Efに照射される。信号光LSは、眼底Efにおいて散乱、反射される。この散乱光及び反射光をまとめて信号光LSの眼底反射光と称することがある。信号光LSの眼底反射光は、同じ経路を逆向きに進行してファイバカプラ103に導かれる。
 参照光LRは、光ファイバ106により導光され、コリメータレンズユニット107により平行光束となる。更に、参照光LRは、ミラー108、109、110により反射され、ND(Neutral Density)フィルタ111により減光され、ミラー112に反射され、コリメータレンズ113により参照ミラー114の反射面に結像される。参照ミラー114に反射された参照光LRは、同じ経路を逆向きに進行してファイバカプラ103に導かれる。なお、分散補償用の光学素子(ペアプリズム等)や、偏光補正用の光学素子(波長板等)を参照光LRの光路(参照光路)に設けてもよい。
 ファイバカプラ103は、信号光LSの眼底反射光と、参照ミラー114に反射された参照光LRとを合波する。これにより生成された干渉光LCは、光ファイバ115により導光されて出射端116から出射される。更に、干渉光LCは、コリメータレンズ117により平行光束とされ、回折格子118により分光(スペクトル分解)され、集光レンズ119により集光されてCCDイメージセンサ120の受光面に投影される。図2に示す回折格子118は透過型であるが、反射型の回折格子を用いてもよい。
 CCDイメージセンサ120は、たとえばラインセンサであり、分光された干渉光LCの各スペクトル成分を検出して電荷に変換する。CCDイメージセンサ120は、この電荷を蓄積して検出信号を生成する。更に、CCDイメージセンサ120は、この検出信号を演算制御ユニット200に送る。
 この実施形態ではマイケルソン型の干渉計を採用しているが、たとえばマッハツェンダー型など任意のタイプの干渉計を適宜に採用することが可能である。また、CCDイメージセンサに代えて、他の形態のイメージセンサ、たとえばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどを用いることが可能である。
〔演算制御ユニット〕
 演算制御ユニット200の構成について説明する。演算制御ユニット200は、CCDイメージセンサ120から入力される検出信号を解析して眼底EfのOCT画像を形成する。そのための演算処理は、従来のフーリエドメインタイプのOCT装置と同様である。
 また、演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。たとえば演算制御ユニット200は、眼底Efの断層像G(図2を参照)等のOCT画像を表示部3に表示させる。
 また、眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15及びLED51、61の動作制御、LCD39の動作制御、合焦レンズ31の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、各ガルバノミラー43、44の動作制御などを行う。
 また、OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、参照ミラー114及びコリメータレンズ113の移動制御、CCDイメージセンサ120の動作制御などを行う。
 演算制御ユニット200は、たとえば、従来のコンピュータと同様に、マイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科観察装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、CCDイメージセンサ120からの検出信号に基づいてOCT画像を形成する専用の回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。
 眼底カメラユニット2、表示装置3、OCTユニット100及び演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、それぞれ別体として構成されていてもよい。
〔制御系〕
 眼科観察装置1の制御系の構成について図3及び図4を参照しつつ説明する。
 眼科観察装置1は複数の動作モードを選択的に実行する。動作モードとは、眼科観察装置1の各種の動作項目を組み合わせて一連の動作として実行するものであり、マクロ機能などとも呼ばれる。動作項目としては、固視標の表示位置(つまり被検眼Eの固視方向)、信号光LSの走査パターン、形成される画像の種別(断層像、3次元画像等)、解析処理の種別、検査結果として出力される情報(検査結果情報)の種別、検査結果情報の出力レイアウトなどがある。眼科観察装置1は、これら各動作項目における選択肢を組み合わせることにより各動作モードを実行する。
 演算制御ユニット200にはプリンタ300が接続されている。演算制御ユニット200にはプリンタ300のドライバが予めインストールされており、各種情報を印刷出力できるようになっている。
(制御部)
 眼科観察装置1の制御系は、演算制御ユニット200の制御部210を中心に構成される。制御部210は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイス等を含んで構成される。制御部210には、主制御部211と記憶部213が設けられている。
(主制御部)
 主制御部211は、前述の各種制御を行う。特に、主制御部211は、眼底カメラユニット2のLCD39、走査駆動部70及び合焦駆動部80、更にOCTユニット100の光源ユニット101及び参照駆動部130を制御する。
 走査駆動部70は、たとえばサーボモータを含んで構成され、ガルバノミラー43、44の向きを各々独立に変更する。走査駆動部70は、ガルバノミラー43、44とともに、この発明の「走査手段」の一例を構成する。
 合焦駆動部80は、たとえばパルスモータを含んで構成され、合焦レンズ31を光軸方向に移動させる。それにより、眼底Efに向かう光の合焦位置が変更される。
 参照駆動部130は、たとえばパルスモータを含んで構成され、参照光LRの進行方向に沿って、コリメータレンズ113及び参照ミラー114を一体的に移動させる。
 また、主制御部211は、記憶部213にデータを書き込む処理や、記憶部213からデータを読み出す処理を行う。
(動作モード制御部)
 主制御部211には動作モード制御部212が設けられている。動作モード制御部212は、動作モードを実行するための各種制御を行う。動作モード制御部212には、図4に示すように、動作モード指定部212a、固視方向制御部212b、走査パターン制御部212c、画像制御部212d、解析制御部212e、出力情報制御部212f、及び出力制御部212gが設けられている。動作モード制御部212を含む主制御部211は、この発明の「制御手段」の一例である。
(動作モード指定部)
 オペレータがたとえば操作部250を用いて複数の動作モードのうちの一つを選択したときに、動作モード指定部212aは、この選択された動作モードを実行対象の動作モードとして指定する。
 また、動作モード指定部212aは、オペレータが動作モードを選択した場合以外のタイミングで、自動的に或いは半自動的に実行対象の動作モードを指定することもできる。この処理については変形例として後述する。
 動作モード指定部212aは、固視方向制御部212b、走査パターン制御部212c、画像制御部212d、解析制御部212e、出力情報制御部212f、及び出力制御部212gのそれぞれに、動作モードの指定結果を送る。
 動作モード指定部212aはこの発明の「指定手段」の一例に相当する。また、オペレータが手作業で動作モードを選択する場合には、その操作に使用される操作部250等の操作デバイスと、動作モード指定部212aとが「指定手段」に相当する。
(固視方向制御部)
 固視方向制御部212bは、記憶部213に記憶された動作モード情報214を参照し、動作モード指定部212aにより指定された動作モードに関連付けられた固視方向を特定する。
 なお詳細については後述するが、動作モード情報214は、各動作モードに対して、装置各部(光学系、画像形成部220、画像処理部230、表示装置3、表示部240、プリンタ300等)の動作内容を関連付けている情報である。
 更に、固視方向制御部212bは、固視光学系を制御し、特定された固視方向に固視させるための固視標を被検眼Eに呈示させる。上記のように、この実施形態ではLCD39による固視標の表示位置を切り替えることにより固視方向を変更させる。固視方向制御部212bは、特定された固視方向に対応する表示位置に固視標を表示させるようにLCD39を制御する。
(走査パターン制御部)
 走査パターン制御部212cは、動作モード情報214を参照し、動作モード指定部212aにより指定された動作モードに関連付けられた走査パターンを特定する。走査パターンとしては、後述のように、3次元スキャン、ラジアルスキャン、ラインスキャン、サークルスキャンなどがある。
 更に、走査パターン制御部212cは、特定された走査パターンで信号光LSを走査させるように走査駆動部70を制御する。
(画像制御部)
 画像制御部212dは、動作モード情報214を参照し、動作モード指定部212aにより指定された動作モードに関連づけられた画像種別を特定する。画像種別としては、断層像、3次元画像、撮影画像などがある。
 なお、形成される画像種別が走査パターンに対応づけられている場合、画像制御部212dは、走査パターン制御部212cにより特定された走査パターンに基づいて画像種別を特定することが可能である。一例として、3次元スキャンと3次元画像とが対応づけられている場合、ラジアルスキャン(又はラインスキャン若しくはサークルスキャン)と断層像とが対応づけられている場合などがある。
 更に、画像制御部212dは、特定された画像種別の画像を形成させる。特定された画像種別に断層像が含まれている場合、画像制御部212dは、画像形成部220を制御して眼底Efの断層像を形成させる。特定された画像種別に3次元画像が含まれている場合、画像制御部212dは、画像形成部220を制御して眼底Efの複数の断層像を形成させ、更に画像処理部230の3次元画像形成部231を制御して、これら断層像に基づく3次元画像を形成させる。特定された画像種別に撮影画像が含まれている場合、画像制御部212dは、眼底カメラユニット2を制御して眼底Efの撮影画像Hを取得させる。
(解析制御部)
 解析制御部212eは、動作モード情報214を参照し、動作モード指定部212aにより指定された動作モードに関連付けられた解析処理を特定する。解析処理の種別としては、後述のように、黄斑の状態を解析する処理、視神経乳頭の状態を解析する処理、緑内障の有無や程度を解析する処理、黄斑変性の有無や程度を解析する処理などがある。
 更に、解析制御部212eは、特定された解析処理を画像処理部230の解析処理部232に実行させる。
(出力情報制御部)
 出力情報制御部212fは、動作モード情報214を参照し、動作モード指定部212aにより指定された動作モードに関連付けられた情報種別を特定する。この情報種別は、検査結果として出力される検査結果情報に含まれる情報の種別である。
 出力情報制御部212fは、特定された情報種別の情報を収集する。眼科観察装置1により取得される各種の情報は記憶部213に(少なくとも一時的に)保存される。出力情報制御部212fは、特定された情報種別の情報を記憶部213から選択的に読み出す。或いは、出力情報制御部212fは、記憶部213に記憶された情報のうち、特定された情報種別の情報にタグやフラグを付与して識別可能にする。
 また、特定された情報種別の情報を生成する必要がある場合、出力情報制御部212fは、当該情報の生成に必要な情報を収集し、更に、画像処理部230等を制御し、収集された情報に基づいて目的の情報を生成させる。一例として、解析結果を画像に反映させて出力する場合、出力情報制御部212fは、解析結果と画像とを記憶部213から読み出して画像処理部230に送り、解析結果が反映された画像を生成させる。
 なお、全ての検査結果情報に共通に含まれる情報項目については動作モード情報214に記録する必要はない。共通の情報項目としては、被検者情報(患者ID、患者氏名、患者年齢等)、被検眼情報(左右眼の識別情報等)、検査日時、医師名などがある。また、診察結果(所見、問診結果等)や他の検査結果(視力値、眼圧値等)についても共通の情報項目として設定されていてもよい。
(出力制御部)
 出力制御部212gは、動作モード情報214を参照し、動作モード指定部212aにより指定された動作モードに関連付けられた出力レイアウトを特定する。出力レイアウトは、検査結果情報を出力するときの各情報の配置を表す情報である。出力レイアウトとしては、表示出力用の表示レイアウトや、印刷出力用の印刷レイアウトなどがある。各出力レイアウトは、たとえば、表示出力用の画面レイアウトや、印刷出力用の用紙レイアウトのテンプレート画像を含んでいる。これらテンプレート画像は記憶部213に予め記憶されている。
 出力制御部212gは、出力情報制御部212fにより収集された情報を、特定された出力レイアウトに当てはめて出力させる。各情報にはその情報種別を表すタグ等の識別情報が付与されている。テンプレート画像には、画面や用紙の全体を各情報の呈示領域に分割する分割形態が設定されている。各呈示領域には当該情報の識別情報が関連づけられている。出力制御部212gは、検査結果情報として収集された各情報を、その識別情報が関連づけられている呈示領域に配置する。
 表示出力の場合、出力制御部212gは、表示装置3や表示部240を制御し、収集された情報が配置された画像テンプレートに基づいて表示用画像データを作成し、この表示用画像データに基づく画面を表示させる。印刷出力の場合、出力制御部212gは、収集された情報が配置された画像テンプレートに基づいて印刷用画像データを作成し、この印刷用画像データをプリンタ300に送って用紙に印刷させる。
(記憶部)
 記憶部213は、各種のデータを記憶する。記憶されるデータとしては、たとえば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。
 記憶部213には動作モード情報214が予め記憶されている。動作モード情報214は、前述のように、各動作モードに対して、装置各部(光学系、画像形成部220、画像処理部230、表示装置3、表示部240、プリンタ300等)の動作内容を関連付けている情報である。記憶部213は、この発明の「記憶手段」に相当する。
 動作モード情報214はたとえば図5に示すようなテーブルとして構成される。この実施形態では、選択的に実行される動作モードとして、「黄斑検査モード」、「乳頭検査モード」、「緑内障検査モード」及び「黄斑変性検査モード」が設けられる。
 また、動作項目として、「固視方向」、「走査パターン」、「画像種別」、「解析処理」、「情報種別」、「表示レイアウト」及び「印刷レイアウト」が設けられている。動作モード情報214は、各動作モードに対し、各動作項目の内容(動作内容)を関連づけている。なお、動作内容(特に解析処理)の詳細については後述する。
 黄斑検査モードは、眼底Efの黄斑の状態を検査するための動作モードである。黄斑検査モードに対しては、固視方向として「黄斑固視方向」が関連づけられ、走査パターンとして「3次元(3D)」、「ラジアル」及び「ライン」が関連づけられ、画像種別として「眼底像(撮影画像)」、「断層像」及び「3次元画像」が関連づけられ、解析処理として「網膜厚解析」及び「Normative data比較」が関連づけられ、情報種別として「眼底像」、「代表的断層像」及び「Normative比較図」が関連づけられ、表示レイアウトとして「黄斑用テンプレート」が関連づけられ、印刷レイアウトとして「黄斑用テンプレート」が関連づけられている。各黄斑用テンプレートは、上記情報種別の情報を所定の配置で並べて呈示するためのものである。各黄斑用テンプレートは、この発明の「黄斑検査テンプレート」に相当する。
 なお、「Normative data比較」とは、健常眼の標準的な値(ここでは網膜厚)と検査結果とを比較する解析処理である。この比較結果を表す図が「Normative比較図」である。
 乳頭検査モードは、眼底Efの視神経乳頭の状態を検査するための動作モードである。乳頭検査モードに対しては、固視方向として「乳頭固視方向」が関連づけられ、走査パターンとして「サークル」及び「3D」が関連づけられ、画像種別として「眼底像」、「断層像」及び「3次元画像」が関連づけられ、解析処理として「RNFL厚解析」、「Normative data比較」及び「乳頭形状解析」が関連づけられ、情報種別として「眼底像」、「代表的断層像」、「Normative比較図」及び「乳頭形状パラメータ」が関連づけられ、表示レイアウトとして「乳頭用テンプレート」が関連づけられ、印刷レイアウトとして「乳頭用テンプレート」が関連づけられている。各乳頭用テンプレートは、上記情報種別の情報を所定の配置で並べて呈示するためのものである。各乳頭用テンプレートは、この発明の「乳頭検査テンプレート」に相当する。なお、乳頭形状パラメータは、乳頭形状解析による解析結果である。
 緑内障検査モードは、緑内障の有無や程度を検査するための動作モードである。緑内障検査モードに対しては、固視方向として「黄斑固視方向」及び「乳頭固視方向」が関連づけられ、走査パターンとして「黄斑3D」及び「乳頭3D」が関連づけられ、画像種別として「眼底像」、「断層像」及び「3次元画像」が関連づけられ、解析処理として「RNFL厚解析」、「Normative data比較」及び「乳頭形状解析」が関連づけられ、情報種別として「眼底像(モザイク画像)」、「代表的断層像」、「Normative比較図(眼底像重ね)」及び「乳頭形状パラメータ」が関連づけられ、表示レイアウトとして「緑内障用テンプレート」が関連づけられ、印刷レイアウトとして「緑内障用テンプレート」が関連づけられている。各緑内障用テンプレートは、上記情報種別の情報を所定の配置で並べて呈示するためのものである。各緑内障用テンプレートは、この発明の「緑内障診断テンプレート」に相当する。
 なお、「モザイク画像」とは、パノラマ画像などとも呼ばれるものであり、眼底の異なる部位(黄斑、視神経乳頭を含む)を別々に撮影して得られた複数の撮影画像を貼り合わせて得られる広域画像である。また、「Normative data比較」とは、健常眼の標準的な値(ここではRNFL厚)と検査結果とを比較する解析処理である。この比較結果を表す図が「Normative比較図」である。「眼底像重ね」とは、Normative比較図を眼底像に重ね合わせることを意味する。
 黄斑変性検査モードは、(加齢)黄斑変性の有無や程度を検査するための動作モードである。黄斑変性検査モードに対しては、固視方向として「黄斑固視方向」が関連づけられ、走査パターンとして「3D」が関連づけられ、画像種別として「眼底像」、「断層像」及び「3次元画像」が関連づけられ、解析処理として「網膜厚解析」及び「Drusen解析」が関連づけられ、情報種別として「眼底像(Drusen表示)」、「代表的断層像」及び「Drusen分布グラフ・表」が関連づけられ、表示レイアウトとして「黄斑変性用テンプレート」が関連づけられ、印刷レイアウトとして「黄斑変性用テンプレート」が関連づけられている。ここで、解析処理としてNormative比較を更に行うようにしてもよい。各黄斑変性用テンプレートは、上記情報種別の情報を所定の配置で並べて呈示するためのものである。各黄斑変性用テンプレートは、この発明の「黄斑変性診断テンプレート」に相当する。
 なお、Drusen(ドルーゼン)とは、ブルッフ膜と色素上皮との間に蓄積した老廃物のことである。「Drusen解析」とは、Drusenの分布状態を求める解析処理である。この解析結果を眼底像に重ね合わせるのが「Drusen表示」である。
 この発明に係る動作モード情報は、図5に示すものには限定されない。一例として、被検眼の様々な部位に対応する動作モードや、様々な眼科疾患に対応する動作モードに関する動作モード情報を適用することが可能である。
 ところで、医療機関の間には検査機器や解析ツールなどの導入状況に差がある。たとえば、大学病院等の先進的な医療機関には最新の機器等が広く普及している一方で、街の診療所には最新の機器等が導入されていないところも多い。また、医師ごとに診断方針が異なり、同じ診断部位や同じ疾患の診断であっても取得する画像や実施する解析処理が異なることも間々ある。
 このような事情に鑑み、眼科観察装置1が設置される医療機関や、眼科観察装置1を使用する医師に応じて動作モード情報214を編集できることが望ましい。この編集作業は、たとえば、所定の編集画面(たとえば図5に示すようなテーブル)を表示部240に表示させ、操作部250を用いて動作内容を追加/削除することにより行う。また、動作モードを追加したり削除したりすることも可能である。このように使用される操作部250はこの発明の「操作手段」に相当する。
(画像形成部)
 画像形成部220は、CCDイメージセンサ120からの検出信号に基づいて、眼底Efの断層像の画像データを形成する。この処理には、従来のフーリエドメインタイプの光コヒーレンストモグラフィと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの処理が含まれている。
 画像形成部220は、たとえば、前述の回路基板や通信インターフェイス等を含んで構成される。なお、この明細書では、「画像データ」と、それに基づいて呈示される「画像」とを同一視することがある。
(画像処理部)
 画像処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。たとえば、画像処理部230は、画像の輝度補正や分散補正等の各種補正処理を実行する。画像処理部230には、3次元画像形成部231と解析処理部232が設けられている。
 画像処理部230は、たとえば、前述のマイクロプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。
(3次元画像形成部)
 3次元画像形成部231は、画像形成部220により形成された断層像の間の画素を補間する補間処理を実行するなどして眼底Efの3次元画像の画像データを形成する。
 3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。
 ボリュームデータに基づく画像を表示させる場合、3次元画像形成部231は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240等の表示デバイスには、この擬似的な3次元画像が表示される。
 また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数の走査線に沿って得られた複数の断層像を、走査線の位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、一つの3次元座標系により表現する(つまり一つの3次元空間に埋め込む)ことにより得られる画像データである。なお、このようなスタックデータに対して補間処理を施すことによりボリュームデータを形成できる。
 また、3次元画像に基づいて2次元断層像を形成することが可能である。この処理はたとえば次のようにして実行される。まず、3次元画像に対して断面を指定する。次に、指定された断面上のボクセルを選択する。そして、選択された各ボクセルを2次元の画素に変換して2次元断層像をする。
 画像形成部220及び3次元画像形成部231は、この発明の「画像形成手段」の一例である。
(解析処理部)
 解析処理部232は眼底Efの画像に対して解析処理を施す。解析対象の画像としては、断層像、3次元画像、撮影画像などがある。解析処理部232は、この発明の「解析手段」に相当する。
 解析処理部232はたとえば次のような解析処理を実行する:(1)網膜厚解析;(2)網膜厚のNormative比較;(3)RNFL厚解析;(4)RNFL厚のNormative比較;(5)乳頭形状解析;(6)Drusen解析。網膜厚解析やRNFL厚解析は、この発明の「層厚解析」の一例である。Drusen解析は、この発明の「病変特定解析」の一例である。
 なお、解析処理部232が実行する解析処理はこれらに限定されるものではない。解析処理部232は、被検眼の検査部位や検査対象の疾患などに応じた解析処理を実行可能に構成される。各解析処理はたとえば専用のコンピュータプログラムに基づいて実行される。
 網膜厚解析は、眼底の断層像や3次元画像を解析して網膜の厚さ分布を求める処理である。なお、網膜厚には様々な定義がある。たとえば、内境界膜から内顆粒層(視細胞の内接・外接)までの厚さを網膜厚とする場合、内境界膜から網膜色素上皮層までの厚さを網膜厚とする場合などがある。網膜厚解析で求める網膜厚はこれら定義のうちのいずれかである。
 網膜厚解析は、たとえば次のようにして実行される。まず、眼底のOCT画像を解析して、所定の境界部位(たとえば内境界膜と網膜色素上皮層)に相当する画像領域を特定する。そして、特定された境界部位の間の画素数をカウントして網膜厚(深度方向の距離)を求める。なお、OCT画像を解析して眼底の層の厚さを求める処理は、上記の特許文献5のほか、本出願人による特開2007-325831号公報、特開2008-206684号公報、特開2009-61203号公報、特開2009-66015号公報などにも説明されている。
 なお、境界部位を手作業で指定するようにしてもよい。その場合、OCT画像を表示部240に表示させ、これを観察して境界部位を特定し、特定された境界部位を操作部250を用いて指定する。また、画像解析により特定された境界部位を手作業で修正できるようにしてもよい。
 網膜厚のNormative比較は、網膜厚解析により求められた網膜厚をNormative dataと比較する解析処理である。Normative dataは、健常眼の網膜厚の標準値(標準厚)である。Normative dataは、健常眼の網膜厚を多数計測し、その計測結果の統計値(平均値、標準偏差)を求めることにより作成される。Normative比較は、被検眼Eの網膜厚が健常眼のそれの範囲に含まれるか否か判定するものである。なお、この発明では、上記の網膜厚解析及びNormative比較をまとめて「網膜厚解析」と称する。
 なお、このようなNormative比較の代わりに、疾患のある眼における網膜厚の範囲を求め、網膜厚解析により得られた網膜厚が当該範囲に含まれるか否か判断する解析処理を行うようにしてもよい。
 RNFL厚解析は、眼底の断層像や3次元画像を解析して、眼底のRNFL(Retinal Nerve Fiber Layer:網膜神経線維層)の厚さを求める解析処理である。RNFL解析は、たとえば、網膜厚解析と同様に、RNFLの境界部位に相当する画像領域を特定し、特定された境界部位の間の画素数をカウントしてRNFL厚(深度方向の距離)を求めることにより実行される。
 RNFL厚のNormative比較は、RNFL厚解析により求められたRNFL厚をNormative data(標準厚)と比較する解析処理である。このNormative dataも網膜厚の場合と同様にして作成される。なお、この発明では、上記のRNFL厚解析及びNormative比較をまとめて「RNFL厚解析」と称する。
 乳頭形状解析は、眼底の断層像や3次元画像を解析して、網膜の孔部(切れ目、欠損部位)を検出して視神経乳頭の形状を求める解析処理である。乳頭形状解析は、たとえば、断層像等を解析して視神経乳頭及びその近傍の網膜表面に相当する画像領域を特定し、特定された画像領域を解析してその大域的形状や局所的形状(凹凸)を表すパラメータ(乳頭形状パラメータ)を求める。乳頭形状パラメータの例として、視神経乳頭のカップ径、ディスク径、リム径、乳頭深さなどがある。
 Drusen解析は、撮影画像(眼底像)やOCT画像を解析して、眼底におけるDrusenの分布状態を求める解析処理である。この分布状態には、眼底におけるDrusenの位置や面積などが含まれる。
 撮影画像に基づくDrusen解析は、たとえば、撮影画像の各画素の画素値が所定範囲に含まれるか判定し、所定範囲に含まれる画素を特定することにより実行される。撮影画像においてDrusenは特徴的な色(黄白色)で描写されるので、この特徴的な色に相当する画素値の範囲を上記所定範囲として予め設定する。
 なお、画像の明るさ(輝度値)やDrusenの形状(小さな略円形の隆起形状)に基づいてDrusenに相当する画像領域を特定することも可能である。
 OCT画像に基づくDrusen解析は、たとえば、OCT画像を解析してブルッフ膜に相当する画像領域と色素上皮に相当する画像領域とを特定し、これら画像領域の間の画素値に基づいて小さな略円形の隆起形状に相当する画像領域をDrusen(の候補)として特定することにより実行できる。このような形状に基づく画像領域の特定処理は、たとえば、当該形状のテンプレートとの画像マッチングによって行うことが可能である。
 また、本出願人による特開2008-295804号公報に記載されているように、眼底の画像を表示させ、Drusenに相当する画像領域を手作業で指定するようにしてもよい。
 解析処理部232は、このようにして特定されたDrusenに相当する画像領域に基づいて、眼底におけるDrusenの位置の分布や個数や面積などを求める。
 なお、撮影画像とOCT画像との位置合わせを行うことができる。この位置合わせ処理は、たとえば特開2007-252692号公報に記載されているように、OCT画像(特に3次元画像)の画素値を深度方向に積算して形成される2次元画像(積算画像)を形成し、この積算画像と撮影画像とを位置合わせすることにより実行される。
 このような位置合わせを行うことで、撮影画像上の位置とOCT画像上の位置とを対応づけることができる。それにより、OCT画像に基づく網膜厚やRNFL厚の計測位置に対応する撮影画像上の位置を特定できる。また、撮影画像(又はOCT画像)に基づいて特定されたDrusenや視神経乳頭の位置に対応するOCT画像(又は撮影画像)上の位置を特定できる。
 解析処理部232には、黄斑解析部233、乳頭解析部234、緑内障解析部235及び黄斑変性解析部236が設けられている。各解析部233~236は、上記の複数の解析処理のうちのいくつかを組み合わせたものである。換言すると、各解析部233~236は、複数の解析処理に対応するコンピュータプログラムのいくつかを組み合わせたマクロとして実行することにより所定の解析処理を行うものである。
 黄斑解析部233は、網膜厚解析と網膜厚のNormative比較とを実行して黄斑の状態の検査結果を作成する。乳頭解析部234は、RNFL厚解析とRNFL厚のNormative比較と乳頭形状解析とを実行して乳頭の状態の検査結果を作成する。緑内障解析部235は、RNFL厚解析とRNFL厚のNormative比較と乳頭形状解析とを実行して緑内障の検査結果を作成する。黄斑変性解析部236は、網膜厚解析とDrusen解析とを実行して黄斑変性の検査結果を作成する。なお、黄斑変性解析部236は、網膜厚のNormative比較を実行してもよい。
 これら解析部233~236は、動作モード情報214における解析処理の動作内容に対応するように設けられている。なお、上記のように予め設定されたマクロとして解析処理を実行する代わりに、動作モード情報214に基づいて実行対象の解析処理のコンピュータプログラムを選択し、選択されたコンピュータプログラムに基づいて解析処理を実行するようにしてもよい。
(表示部、操作部)
 表示部240は、前述した演算制御ユニット200の表示デバイスを含んで構成される。また、表示部240は、眼底カメラユニット2の筺体に設けられたタッチパネルモニタなどの各種表示デバイスを含んでいてもよい。
 操作部250は、前述した演算制御ユニット200の操作デバイスを含んで構成される。また、操作部250には、眼科観察装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。たとえば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部250は、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。
 なお、表示部240と操作部250は、それぞれ個別のデバイスとして構成される必要はない。たとえばタッチパネルモニタのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。
〔信号光の走査及びOCT画像について〕
 ここで、信号光LSの走査及びOCT画像について説明しておく。
 眼科観察装置1による信号光LSの走査パターンとしては、たとえば、水平スキャン、垂直スキャン、十字スキャン、放射(ラジアル)スキャン、円(サークル)スキャン、同心円スキャン、螺旋(渦巻)スキャンなどがある。これらの走査パターンは、眼底の観察部位、解析対象(網膜厚など)、走査に要する時間、走査の精密さなどを考慮して適宜に選択的に使用される。
 水平スキャンは、信号光LSを水平方向(x方向)に走査させるものである。水平スキャンには、垂直方向(y方向)に配列された複数の水平方向に延びる走査線に沿って信号光LSを走査させる態様も含まれる。この態様においては、走査線の間隔を任意に設定することが可能である。また、隣接する走査線の間隔を十分に狭くすることにより、前述の3次元画像を形成することができる(3次元スキャン)。垂直スキャンについても同様である。水平スキャンや垂直スキャンのような直線状のスキャンをまとめてラインスキャンと呼ぶことがある。
 十字スキャンは、互いに直交する2本の直線状の軌跡(直線軌跡)からなる十字型の軌跡に沿って信号光LSを走査するものである。放射スキャンは、所定の角度を介して配列された複数の直線軌跡からなる放射状の軌跡に沿って信号光LSを走査するものである。なお、十字スキャンは放射スキャンの一例である。
 円スキャンは、円形状の軌跡に沿って信号光LSを走査させるものである。同心円スキャンは、所定の中心位置の周りに同心円状に配列された複数の円形状の軌跡に沿って信号光LSを走査させるものである。円スキャンは同心円スキャンの一例である。螺旋スキャンは、回転半径を次第に小さく(又は大きく)させながら螺旋状(渦巻状)の軌跡に沿って信号光LSを走査するものである。
 ガルバノミラー43、44は互いに直交する方向に信号光LSを走査するように構成されているので、信号光LSをx方向及びy方向にそれぞれ独立に走査できる。更に、ガルバノミラー43、44の向きを同時に制御することにより、xy面上の任意の軌跡に沿って信号光LSを走査することが可能である。それにより、上記のような各種の走査パターンを実現できる。
 上記のような態様で信号光LSを走査することにより、走査線(走査軌跡)に沿った深度方向(x方向)の断層像を形成することができる。また、特に走査線の間隔が狭い場合には、前述の3次元画像を形成することができる。
 上記のような信号光LSの走査対象となる眼底Ef上の領域を走査領域と呼ぶ。3次元スキャンにおける走査領域は、複数の水平スキャンが配列された矩形の領域である。また、同心円スキャンにおける走査領域は、最大径の円スキャンの軌跡により囲まれる円盤状の領域である。また、放射スキャンにおける走査領域は、各スキャンラインの両端位置を結んだ円盤状(或いは多角形状)の領域である。
[動作]
 眼科観察装置1の動作について説明する。眼科観察装置1の動作例を図6に示す。被検眼Eのアライメントとピント合わせは既になされているものとする。アライメントは、オペレータが手作業で行ってもよいし、前眼部像などに基づき自動で行ってもよい。
 まず、主制御部211は、動作モードを選択するための所定の画面を表示部240に表示させる。オペレータは、操作部250を使用して動作モードを選択する。動作モード指定部212aは、選択された動作モードを指定し、その指定結果を各制御部212b~212gに送る(S1)。この動作例では、黄斑検査モードが指定された場合を説明する。
 各制御部212b~212gは、動作モード情報214を参照して動作内容を特定する(S2)。具体的には、固視方向制御部212bは被検眼の固視方向として「黄斑固視方向」を特定し、走査パターン制御部212cは信号光LSの走査パターンとして「3D」、「ラジアル」及び「ライン」を特定し、画像制御部212dは画像種別として「眼底像」、「断層像」及び「3D画像」を特定し、解析制御部212eは解析処理として「網膜厚解析」及び「Normative比較」を特定し、出力情報制御部212fは情報種別として「眼底像」、「代表的断層像」及び「Normative比較図」を特定し、出力制御部212gは表示レイアウトとして「黄斑用テンプレート」を特定するとともに印刷レイアウトとして「黄斑用テンプレート」を特定する。
 固視方向制御部212bは、LCD39を制御し、黄斑固視方向に対応する画面上の位置に固視標を表示させ、それにより被検眼Eを黄斑固視方向に固視させる(S3)。
 この固視状態において、主制御部211は光源ユニット101を制御して低コヒーレンス光L0を出力させるとともに、走査パターン制御部212cは走査駆動部70を制御してこの低コヒーレンス光L0に基づく信号光LSを3次元スキャンの走査パターンに沿って走査させる(S4)。3次元スキャンでは、格子点状に配列された複数の照射位置に順次に信号光LSを照射する。OCTユニット100は、この信号光LSと参照光LRとを重畳させて干渉光LCを生成して検出する。この検出信号は演算制御ユニット200に送信される。なお、オペレータが所定の操作(操作ボタンの押下など)を行ったことに対応して上記のOCT計測を開始するようにしてもよいし、眼底Efの画像(観察画像K等)に基づき固視状態を判定して自動で開始するようにしてもよい。
 画像制御部212dは、画像形成部220を制御し、OCTユニット100からの検出信号に基づく断層像を形成させる(S5)。3次元スキャンを実行したので、平行な複数の走査線に沿った複数の断層像が形成される。主制御部211は、形成された複数の断層像を記憶部213に記憶させる。
 更に、画像制御部212dは、これら断層像を画像処理部230に送るとともに、3次元画像形成部231を制御して3次元画像を形成させる(S6)。主制御部211は、形成された3次元画像を記憶部213に記憶させる。この3次元画像は、眼底Efの黄斑及びその近傍の形態を描写している。
 続いて、主制御部211及び走査パターン制御部212cは、ステップ4と同様にしてラジアルスキャンを実行させる(S7)。ラジアルスキャンでは、放射線状に配置された複数の照射位置に順次に信号光LSを照射する。画像制御部212dは、画像形成部220を制御し、ラジアルスキャンにより得られた検出信号に基づく断層像を形成させる(S8)。それにより、黄斑の位置をほぼ中心として放射状に配列された複数の断層像が得られる。主制御部211は、得られた複数の断層像を記憶部213に記憶させる。
 更に、主制御部211及び走査パターン制御部212cは、ステップ4と同様にしてラインスキャンを実行させる(S9)。ラインスキャンでは、直線状に配置された複数の照射位置に順次に信号光LSを照射する。画像制御部212dは、画像形成部220を制御し、ラインスキャンにより得られた検出信号に基づく断層像を形成させる(S10)。それにより、黄斑を通過する走査線に沿った断層像が得られる。主制御部211は、得られた断層像を記憶部213に記憶させる。以上でOCT計測は終了となる。
 次に、画像制御部212dは、眼底カメラユニット2を制御して眼底Efを撮影させる(S11)。主制御部211は撮影画像を記憶部213に記憶させる。
 解析制御部212eは、取得された断層像、3次元画像及び撮影画像(眼底像)を画像処理部230に送り、黄斑解析部233を制御して網膜厚解析とNormative比較を実行させる(S12)。黄斑解析部233は解析結果としてNormative比較図を生成する。主制御部211は、生成されたNormative比較図を記憶部213に記憶させる。
 たとえば操作部250を用いて検査結果の出力要求がなされたことに対応し、出力情報制御部212fは、眼底像(撮影画像)、代表的断層像(たとえばラインスキャンにより得られた断層像)、及びNormative比較図を記憶部213から読み出す(S13)。このとき、前述の共通の情報項目に係る情報も読み出される。
 出力制御部212gは、表示用又は印刷用の黄斑用テンプレートを記憶部213から読み出す。更に、出力制御部212gは、ステップ13で読み出された情報を黄斑用テンプレートに当てはめて出力用画像データ(表示用画像データ及び/又は印刷用画像データ)を作成し、この出力用画像データに基づいて表示部240やプリンタ300を制御して表示画面や印刷画像を出力させる(S14)。以上で、黄斑検査モードに係る動作は終了となる。
 他の動作モードが指定された場合、上記の黄斑検査モードと同様に動作モード情報214に基づいて処理を実行する。他の動作モードが指定された場合について以下に簡単に説明する。
 乳頭検査モードが指定された場合、乳頭固視方向に被検眼Eを固視させた状態でサークルスキャンと3次元スキャンを順次実行する。演算制御ユニット200は、サークルスキャンに基づく検出信号に基づいて、視神経乳頭(の乳頭中心)の位置をほぼ中心とする円形の走査線に沿った断層像を形成する。また、演算制御ユニット200は、3次元スキャンに基づく検出信号に基づいて複数の断層像を形成し、これら断層像に基づいて3次元画像を形成する。この3次元画像は、視神経乳頭及びその近傍を描写する画像である。また、眼底カメラユニット2は眼底Efを撮影する。乳頭解析部234は、取得されたOCT画像等に基づいてRNFL厚解析とNormative比較と乳頭形状解析とを実行し、解析結果としてNormative比較図を作成する。演算制御ユニット200は、眼底像、代表的断層像(たとえばサークルスキャンに基づく断層像)、Normative比較図及び乳頭形状パラメータを乳頭用テンプレートに配して出力する。
 緑内障検査モードが指定された場合、黄斑固視方向に被検眼Eを固視させた状態で3次元スキャンを実行して黄斑及びその近傍を描写する3次元画像を形成する。次に、被検眼Eの固視方向を乳頭固視方向に変更して3次元スキャンを実行し、視神経乳頭及びその近傍を描写する3次元画像を形成する。また、眼底カメラユニット2は眼底Efを撮影する。緑内障解析部235は、取得されたOCT画像等に基づいてRNFL厚解析とNormative比較と乳頭形状解析とを実行し、解析結果としてNormative比較図を作成する。演算制御ユニット200は、眼底像、代表的断層像、Normative比較図及び乳頭形状パラメータを緑内障用テンプレートに配して出力する。この代表的断層像は、たとえば、黄斑の3次元画像に基づいて形成される、黄斑の位置を断面とする断層像と、視神経乳頭の3次元画像に基づいて形成される、視神経乳頭の位置を断面とする断層像である。
 黄斑変性検査モードが指定された場合、黄斑固視方向に被検眼Eを固視させた状態で3次元スキャンを実行して黄斑及びその近傍を描写する3次元画像を形成する。また、眼底カメラユニット2は眼底Efを撮影する。黄斑変性解析部236は、取得されたOCT画像に基づいて網膜厚解析を実行するとともに、OCT画像や撮影画像(眼底像)に基づいてDrusen解析を実行する。演算制御ユニット200は、眼底像、代表的断層像、網膜厚解析の結果及びDrusen解析の結果を黄斑変性用テンプレートに配して出力する。この代表的断層像は、たとえば、黄斑の3次元画像に基づいて形成される、黄斑の位置を断面とする断層像である。
[作用・効果]
 以上のような眼科観察装置1の作用及び効果について説明する。
 眼科観察装置1は、低コヒーレンス光L0を信号光LSと参照光LRとに分割し、被検眼E(眼底Ef)を経由した信号光LSと参照光路を経由した参照光LRとを重畳させて干渉光LCを生成して検出する光学系を有し、干渉光LCの検出結果に基づいて被検眼E(眼底Ef)のOCT画像を形成する。更に、眼科観察装置1は、形成されたOCT画像に対して解析処理を施し、その解析結果を含む検査結果情報を出力する。
 また、眼科観察装置1は、複数の動作モードを選択的に実行可能とされる。眼科観察装置1は、各動作モードに対して各種動作内容を関連付ける動作モード情報214を予め記憶している。1つの動作モードが指定されると、眼科観察装置1は、この動作モードに関連付けられた動作内容を動作モード情報214を参照して特定し、特定された動作内容に基づいて光学系、画像形成部220、3次元画像形成部231、解析処理部232、表示部240、プリンタ300等を制御する。
 なお、検査結果情報の出力態様としては表示出力と印刷出力がある。表示部240や表示装置3やプリンタ300は、この発明の「出力手段」の一例である。なお、検査結果情報を外部装置に送信する場合、LANカード等の通信インターフェイスが出力手段として機能する。また、検査結果情報を記録媒体に記録させる場合、この記録媒体に情報を記録するドライブ装置が出力手段として機能する。
 更に、眼科観察装置1は眼底Efを撮影する撮影手段(眼底カメラユニット2)を備えている。指定された動作モードに対して撮影手段の動作内容が関連づけられている場合、つまりカラー画像や蛍光画像等を取得する旨が動作モード情報214に記録されている場合、眼科観察装置1は、当該動作内容に基づいて撮影手段を制御して眼底Efの撮影画像Hを形成する。形成された撮影画像Hは、OCT画像や解析結果とともに検査結果情報として出力される。
 このような眼科観察装置1によれば、指定された動作モードに応じた一連の処理を自動的に実行することができるので、被検眼Eの診断に用いられる情報を容易にかつ過不足なく取得することが可能である。
[変形例]
 以上に説明した構成は、この発明を好適に実施するための一例に過ぎない。よって、この発明を実施しようとする者は、この発明の要旨の範囲内における任意の変形を適宜に施すことが可能である。以下、上記の実施形態と同様の構成部分については同じ符号を用いて説明する。
〔変形例1〕
 経過観察や術前術後観察等のように同じ検査を繰り返し行うことがある。このような場合、過去の検査と同じ動作モードが自動的に指定されれば便利である。この変形例では、過去の検査と同じ動作モードを自動で指定することが可能な構成を説明する。
 この変形例に係る眼科観察装置は、患者IDや患者氏名等の患者識別情報を入力する入力手段を有する。患者識別情報を手入力する場合、入力手段はたとえば操作部250により構成される。また、記録媒体が付された患者カード等に患者識別情報が記録されている場合には、この記録媒体から患者識別情報を読み取って入力することができる。この場合の入力手段は、記録媒体の読取装置を含む。
 また、患者識別情報を自動入力する場合、入力手段はたとえば主制御部211により構成される。自動入力する場合の例として、当該患者の電子カルテが既に開かれており、この電子カルテに記録されている患者識別情報を自動的に入力する場合などがある。
 動作モードを使用して検査が実施されると、主制御部211は、この動作モード(の識別情報)と、入力手段により入力された患者識別情報とを対応づけて記憶部213に記憶させる。このとき、検査日時等の情報を共に記憶させることが望ましい。主制御部211は、検査が実施される度ごとにこの処理を実行する。
 検査開始時などに患者識別情報が入力されると、動作モード指定部212aは、過去に当該患者識別情報とともに記憶された動作モードを記憶部213から検索する。検索されなかった場合、動作モード制御部212は、動作モードを選択するための画面を表示部240に表示させ、手作業での動作モード指定に移行する。
 過去の動作モードが検索された場合、動作モード制御部212は、動作モード情報214を参照し、検索された動作モードに関連づけられた動作内容を特定する。更に、動作モード制御部212は、特定された動作内容に基づいて、光学系、画像形成部220、画像処理部230、表示部240等を制御して当該動作モードの処理を実行させる。
〔変形例2〕
 経過観察等のように同じ検査を繰り返し行う場合に複数の検査を行うことがある。各検査は実施間隔が同じとは限らない。たとえば検査Aを2週間間隔で行い、検査Bを3週間間隔で行うことがある。このような場合、今日実施する検査を自動的に特定して動作モードを自動で指定することができれば便利である。この変形例では、このような処理を実現することが可能な構成を説明する。
 この変形例に係る眼科観察装置は変形例1と同様の入力手段を有する。更に、この眼科観察装置には、現在の日時を計時する計時手段が設けられる。この計時手段は、たとえば計時機能を有するマイクロプロセッサにより構成される。
 この変形例の動作モード情報には、上記実施形態と同様に各動作モードに対して動作内容が関連づけられているとともに、その動作モードで検査を行う時間間隔を表す情報(検査間隔)が関連づけられている。
 動作モード制御部212は、各検査における動作モードを、入力された患者識別情報、及び、計時手段により計時された日時(検査日時)とともに記憶部213に記憶させる。それにより、実施された各検査(各動作モード)に対して患者識別情報と検査日時とが関連づけられる。
 検査開始時などに患者識別情報が入力されると、動作モード指定部212aは、過去に当該患者識別情報とともに記憶された動作モード及び検査日時を記憶部213から検索する。検索されなかった場合、動作モード制御部212は、動作モードを選択するための画面を表示部240に表示させ、手作業での動作モード指定に移行する。
 検索された場合、動作モード指定部212aは、検索された過去の検査日時と計時手段により計時されている現在の日時との差を算出して検査間隔を求める。更に、動作モード指定部212aは、動作モード情報を参照し、求められた検査間隔に関連づけられた動作モードを選択する。このとき、求められた検査間隔と動作モード情報に記録されている検査間隔とが等しい必要はない。動作モード指定部212aは、求められた検査間隔に最も近い検査間隔を動作モード情報から特定し、特定された検査間隔に関連づけられた動作モードを選択する。それにより、実際の検査間隔に多少の誤差があったとしても今回の検査の動作モードを選択できる。
 動作モード制御部212は、動作モード情報を参照し、選択された動作モードに関連づけられた動作内容を特定する。更に、動作モード制御部212は、特定された動作内容に基づいて、光学系、画像形成部220、画像処理部230、表示部240等を制御して当該動作モードの処理を実行させる。
〔変形例3〕
 検査結果に応じて次回実施する検査が異なる場合がある。たとえば、前回実施した検査に異常が無かった場合には検査Aを今回実施し、前回の検査で異常が見つかった場合には検査Bを今回実施することがある。このような場合、前回の検査の結果に応じて動作内容を自動的に変更できれば便利である。この変形例では、このような処理を実現することが可能な構成を説明する。
 この変形例に係る眼科観察装置は変形例1と同様の入力手段を有する。動作モード制御部212は、解析処理部232により得られた解析結果に異常が存在した場合に、その旨を表す情報(異常存在情報)を、入力手段により入力された患者識別情報とともに記憶部213に記憶させる。なお、異常の有無は、たとえば、Normative比較において、層の厚さが許容範囲(標準厚)に含まれるか否かによって決定することができる。
 この変形例の動作モード情報には、上記実施形態と同様に各動作モードに対して動作内容が関連づけられているとともに、異常が存在した場合における動作内容の変更を表す動作内容変更情報が関連づけられている。動作内容変更情報は、たとえば、異常が存在した場合には解析処理Aに加えて解析処理Bを実施するように動作内容を変更するものである。また、動作内容変更情報は、異常が存在した場合には別の動作モードでの検査に切り替える、又は別の動作モードの検査を追加するようなものであってもよい。
 検査開始時などに患者識別情報が入力されると、動作モード指定部212aは、過去に当該患者識別情報とともに記憶された異常存在情報を記憶部213から検索する。異常存在情報が検索されなかった場合には、動作内容を変更せずに元の動作モードを実行する。
 異常存在情報が検索された場合、動作モード指定部212aは、この動作内容変更情報に基づいて動作モードの動作内容を変更する。動作モード制御部212は、変更された動作内容に基づいて、光学系、画像形成部220、画像処理部230、表示部240等を制御して当該動作モードの処理を実行させる。
〔変形例4〕
 上記の実施形態では、網膜厚やRNFL厚を健常眼の標準的な値(所定の標準厚の一例)と比較するnormative data比較について説明した。この変形例では、所定の標準厚の他の例について説明する。なお、所定の標準厚は上記実施形態や以下の変形例に限定されるものではない。
 第1の例は被検眼Eの反対側の眼(反対眼と呼ぶ)における値である。この変形例は、反対眼における網膜厚やRNFL厚(網膜厚等と呼ぶ)が計測済みである場合に適用可能である。この変形例は、たとえば、反対眼が健常眼である場合や被検眼Eよりも軽度の疾患の場合などに有効である。また、このように被検眼Eの網膜厚等と反対眼の網膜厚等とを比較することで、左右眼における網膜厚等の差異を把握することができる。
 第2の例は過去の検査における計測値である。この変形例では、今回の検査で得られた網膜厚等と、過去(たとえば前回)の検査で得られた網膜厚等とを比較する。それにより、網膜厚等の過去からの変化を把握することができる。また、このような比較を反復することにより、網膜厚等の経時変化を把握することができる。
〔その他の変形例〕
 上記の実施形態の動作モード情報214では、固視方向、走査パターン、画像種別、解析処理、情報種別、表示レイアウト及び印刷レイアウトが動作項目として設定されているが、これらのうちのいくつかを動作項目として設定した動作モード情報を作成して使用することが可能である。なお、処理の自動化を図るためには、多くの動作項目を設定することが望ましい。
 上記の実施形態においては、参照ミラー114の位置を変更して信号光LSの光路と参照光LRの光路との光路長差を変更しているが、光路長差を変更する手法はこれに限定されるものではない。たとえば、被検眼Eに対して眼底カメラユニット2やOCTユニット100を移動させて信号光LSの光路長を変更することにより光路長差を変更することができる。また、特に被測定物体が生体部位でない場合などには、被測定物体を深度方向(z方向)に移動させることにより光路長差を変更することも有効である。
 上記の実施形態におけるコンピュータプログラムを、コンピュータによって読み取り可能な任意の記録媒体に記憶させることができる。この記録媒体としては、たとえば、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。また、ハードディスクドライブやメモリ等の記憶装置に記憶させることも可能である。
 また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。
1 眼科観察装置
2 眼底カメラユニット
3 表示装置
10 照明光学系
11 観察光源
15 撮影光源
30 撮影光学系
31 合焦レンズ
35、38 CCDイメージセンサ
39 LCD
43、44 ガルバノミラー
50 アライメント光学系
60 フォーカス光学系
70 走査駆動部
80 合焦駆動部
100 OCTユニット
101 光源ユニット
114 参照ミラー
118 回折格子
120 CCDイメージセンサ
130 参照駆動部
200 演算制御ユニット
210 制御部
211 主制御部
212 動作モード制御部
212a 動作モード指定部
212b 固視方向制御部
212c 走査パターン制御部
212d 画像制御部
212e 解析制御部
212f 出力情報制御部
212g 出力制御部
213 記憶部
214 動作モード情報
220 画像形成部
230 画像処理部
231 3次元画像形成部
232 解析処理部
233 黄斑解析部
234 乳頭解析部
235 緑内障解析部
236 黄斑変性解析部
240 表示部
250 操作部
300 プリンタ
E 被検眼
Ef 眼底
K 観察画像
H 撮影画像
G 断層像

Claims (21)

  1.  低コヒーレンス光を信号光と参照光とに分割し、被検眼を経由した前記信号光と参照光路を経由した参照光とを重畳させて干渉光を生成して検出する光学系と、
     前記光学系による前記干渉光の検出結果に基づいて前記被検眼の画像を形成する画像形成手段と、
     前記形成された画像を解析する解析手段と、
     前記解析手段による画像の解析結果を含む検査結果情報を出力する出力手段と、
     検査の種別に応じた複数の動作モードのそれぞれに対し、前記光学系、前記画像形成手段、前記解析手段及び前記出力手段のうちの少なくとも1つの動作内容が関連付けられた動作モード情報を予め記憶する記憶手段と、
     前記複数の動作モードのうちの1つを指定する指定手段と、
     前記指定された動作モードに関連付けられた動作内容を前記記憶部に記憶された動作モード情報を参照して特定し、前記特定された動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する制御手段と、
     を備えることを特徴とする眼科観察装置。
  2.  前記光学系は、前記被検眼を所定の固視方向に固視させるための視標を前記被検眼に呈示する固視光学系を含み、
     前記動作モード情報には、前記複数の動作モードのそれぞれに対して前記固視光学系による固視方向を関連付けられており、
     前記制御手段は、前記指定された動作モードに関連付けられた固視方向を前記動作モード情報を参照して特定し、更に、前記固視光学系を制御して当該特定された固視方向に固視させるための前記視標を呈示させる、
     ことを特徴とする請求項1に記載の眼科観察装置。
  3.  前記固視光学系は、前記視標を表示する表示デバイスと、前記表示された視標を前記被検眼に投影する投影光学系とを含み、
     前記動作モード情報には、前記複数の動作モードのそれぞれに対する固視方向として、前記表示デバイス上の前記視標の表示位置が関連付けられており、
     前記制御手段は、前記指定された動作モードに関連付けられた表示位置を前記動作モード情報を参照して特定し、更に、前記表示デバイスを制御して前記表示デバイス上の当該特定された表示位置に前記視標を表示させる、
     ことを特徴とする請求項2に記載の眼科観察装置。
  4.  前記光学系は、前記被検眼に対する前記信号光の照射位置を走査する走査手段を含み、
     前記動作モード情報には、前記複数の動作モードのそれぞれに対して、前記走査手段による前記照射位置の走査パターンと、前記画像形成手段により形成される画像種別とが関連付けられており、
     前記制御手段は、前記指定された動作モードに関連付けられた走査パターン及び画像種別を前記動作モード情報を参照して特定し、更に、前記走査手段を制御して当該特定された走査パターンで前記信号光の照射位置を走査させ、前記画像形成手段を制御して当該特定された画像種別の前記被検眼の画像を形成させる、
     ことを特徴とする請求項1に記載の眼科観察装置。
  5.  前記解析手段は、前記被検眼の所定層の厚さを求める層厚解析と前記被検眼における病変の位置を特定する病変特定解析とを含む複数の解析処理を実行可能であり、
     前記動作モード情報には、前記複数の動作モードのそれぞれに対して前記複数の解析処理のうちの少なくとも1つが関連付けられており、
     前記制御手段は、前記指定された動作モードに関連付けられた解析処理を前記動作モード情報を参照して特定し、更に、前記解析手段を制御して当該特定された解析処理を実行させる、
     ことを特徴とする請求項1に記載の眼科観察装置。
  6.  前記動作モード情報には、前記複数の動作モードのそれぞれに対して、前記検査結果情報に含まれる情報種別と前記出力手段による前記検査結果情報の出力レイアウトとを関連付けられており、
     前記制御手段は、前記指定された動作モードに関連付けられた情報種別及び出力レイアウトを前記動作モード情報を参照して特定し、更に、前記出力手段を制御して当該特定された情報種別を含む前記検査結果情報を当該特定された出力レイアウトで配置して出力させる、
     ことを特徴とする請求項1に記載の眼科観察装置。
  7.  被検眼を所定の固視方向に固視させるための視標を前記被検眼に呈示する固視光学系と、低コヒーレンス光を信号光と参照光とに分割する分割手段と、前記被検眼に対する前記信号光の照射位置を走査する走査手段と、前記被検眼を経由した前記信号光と参照光路を経由した参照光とを重畳させて干渉光を生成する重畳手段と、前記生成された干渉光を検出する検出手段とを含む光学系と、
     前記検出手段による前記干渉光の検出結果に基づいて前記被検眼の画像を形成する画像形成手段と、
     前記形成された画像を解析して前記被検眼の所定層の厚さを求める層厚解析と、前記形成された画像を解析して前記被検眼における病変の位置を特定する病変特定解析とを含む複数の解析処理を実行可能な解析手段と、
     前記解析手段による画像の解析結果を含む検査結果情報を出力する出力手段と、
     検査の種別に応じた複数の動作モードのそれぞれに対し、前記固視光学系による固視方向、前記走査手段による前記照射位置の走査パターン、前記画像形成手段により形成される画像種別、前記複数の解析処理のうちの少なくとも1つ、前記検査結果情報に含まれる情報種別、及び前記出力手段による前記検査結果情報の出力レイアウトが関連付けられた動作モード情報を予め記憶する記憶手段と、
     前記複数の動作モードのうちの1つを指定する指定手段と、
     前記指定された動作モードに関連付けられた固視方向、走査パターン、画像種別、解析処理、情報種別及び出力レイアウトを前記動作モード情報を参照して特定し、更に、前記固視光学系を制御して当該特定された固視方向に固視させるための前記視標を呈示させ、前記走査手段を制御して当該特定された走査パターンで前記信号光の照射位置を走査させ、前記画像形成手段を制御して当該特定された画像種別の前記被検眼の画像を形成させ、前記解析手段を制御して当該特定された解析処理を実行させ、前記出力手段を制御して当該特定された情報種別を含む前記検査結果情報を当該特定された出力レイアウトで配置して出力させる制御手段と、
     を備えることを特徴とする眼科観察装置。
  8.  前記複数の動作モードは、眼底の黄斑を検査するための黄斑検査モードを含み、
     前記動作モード情報には、前記黄斑検査モードに対し、黄斑及びその近傍に前記信号光を照射するための黄斑用固視方向が前記固視方向として関連づけられており、格子点状に配列された複数の照射位置に順次に前記信号光を照射する3次元スキャン、放射線状に配置された複数の照射位置に順次に前記信号光を照射するラジアルスキャン又は直線状に配置された複数の照射位置に順次に前記信号光を照射するラインスキャンが前記走査パターンとして関連づけられており、前記走査パターンが前記3次元スキャンである場合には3次元画像が又は前記走査パターンが前記ラジアルスキャン若しくは前記ラインスキャンの場合には断層像が前記画像種別として関連づけられており、網膜厚を求めて所定の標準厚と比較する網膜厚解析が前記解析処理として関連づけられており、断層像及び前記網膜厚解析による前記比較の結果が前記情報種別として関連づけられており、前記断層像及び前記比較の結果を所定の配置で並べた黄斑検査テンプレートが前記出力レイアウトとして関連づけられている、
     ことを特徴とする請求項7に記載の眼科観察装置。
  9.  前記複数の動作モードは、眼底の視神経乳頭を検査するための乳頭検査モードを含み、
     前記動作モード情報には、前記乳頭検査モードに対し、視神経乳頭及びその近傍に前記信号光を照射するための乳頭用固視方向が前記固視方向として関連づけられており、円形状に配置された複数の照射位置に順次に前記信号光を照射するサークルスキャン又は格子点状に配列された複数の照射位置に順次に前記信号光を照射する3次元スキャンが前記走査パターンとして関連づけられており、前記走査パターンが前記サークルスキャンの場合には断層像が又は前記走査パターンが前記3次元スキャンである場合には3次元画像が前記画像種別として関連づけられており、RNFL(網膜神経線維層)厚を求めて所定の標準厚と比較するRNFL厚解析と網膜の孔部を検出して視神経乳頭の形状を解析する乳頭形状解析とが前記解析処理として関連づけられており、断層像と前記RNFL厚解析による前記比較の結果と前記乳頭形状解析の結果とが前記情報種別として関連づけられており、前記断層像と前記比較の結果と前記乳頭形状解析の結果とを所定の配置で並べた乳頭検査テンプレートが前記出力レイアウトとして関連づけられている、
     ことを特徴とする請求項7に記載の眼科観察装置。
  10.  前記複数の動作モードは、緑内障の検査を行うための緑内障検査モードを含み、
     前記動作モード情報には、前記緑内障検査モードに対し、黄斑及びその近傍に前記信号光を照射するための黄斑用固視方向と視神経乳頭及びその近傍に前記信号光を照射するための乳頭用固視方向とが前記固視方向として関連づけられており、格子点状に配列された複数の照射位置に順次に前記信号光を照射する3次元スキャンが前記走査パターンとして関連づけられており、黄斑及びその近傍の3次元画像と視神経乳頭及びその近傍の3次元画像とが前記画像種別として関連づけられており、RNFL(網膜神経線維層)厚を求めて所定の標準厚と比較するRNFL厚解析と網膜の孔部を検出して視神経乳頭の形状を解析する乳頭形状解析とが前記解析処理として関連づけられており、断層像と前記RNFL厚解析による前記比較の結果と前記乳頭形状解析の結果とが前記情報種別として関連づけられており、前記断層像と前記比較の結果と前記乳頭形状解析の結果とを所定の配置で並べた緑内障診断テンプレートが前記出力レイアウトとして関連づけられている、
     ことを特徴とする請求項7に記載の眼科観察装置。
  11.  前記複数の動作モードは、黄斑変性の検査を行うための黄斑変性検査モードを含み、
     前記動作モード情報には、前記黄斑変性検査モードに対し、黄斑及びその近傍に前記信号光を照射するための黄斑用固視方向が前記固視方向として関連づけられており、格子点状に配列された複数の照射位置に順次に前記信号光を照射する3次元スキャンが前記走査パターンとして関連づけられており、黄斑及びその近傍の3次元画像が前記画像種別として関連づけられており、網膜厚を求めて所定の標準厚と比較する網膜厚解析とドルーゼンの分布を求めるドルーゼン解析とが前記解析処理として関連づけられており、断層像、前記網膜厚解析による前記網膜厚解析の結果及び前記ドルーゼン解析の結果が前記情報種別として関連づけられており、前記断層像、前記網膜厚解析の結果及び前記ドルーゼン解析の結果を所定の配置で並べた黄斑変性診断テンプレートが前記出力レイアウトとして関連づけられている、
     ことを特徴とする請求項7に記載の眼科観察装置。
  12.  患者識別情報を入力する入力手段を更に備え、
     前記制御手段は、各検査における動作モードを前記入力された患者識別情報とともに前記記憶手段に記憶させ、
     前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された動作モードを前記記憶手段から検索し、
     前記制御手段は、前記検索された動作モードに関連づけられた動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、
     ことを特徴とする請求項1に記載の眼科観察装置。
  13.  患者識別情報を入力する入力手段を更に備え、
     前記制御手段は、各検査における動作モードを前記入力された患者識別情報とともに前記記憶手段に記憶させ、
     前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された動作モードを前記記憶手段から検索し、
     前記制御手段は、前記検索された動作モードに関連づけられた動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、
     ことを特徴とする請求項7に記載の眼科観察装置。
  14.  患者識別情報を入力する入力手段と、現在の日時を計時する計時手段とを更に備え、
     前記動作モード情報には、前記動作モードに対し、当該動作モードで検査を行う時間間隔を表す検査間隔が関連づけられており、
     前記制御手段は、各検査における動作モードを前記入力された患者識別情報及び前記計時された日時とともに前記記憶手段に記憶させ、
     前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された動作モード及び日時を前記記憶手段から検索し、前記検索された過去の日時と前記計時手段により計時されている現在の日時との差を算出して検査間隔を求め、前記求められた検査間隔に関連づけられた動作モードを前記複数の動作モードのうちから選択し、
     前記制御手段は、前記選択された動作モードに関連づけられた動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、
     ことを特徴とする請求項1に記載の眼科観察装置。
  15.  患者識別情報を入力する入力手段と、現在の日時を計時する計時手段とを更に備え、
     前記動作モード情報には、前記動作モードに対し、当該動作モードで検査を行う時間間隔を表す検査間隔が関連づけられており、
     前記制御手段は、各検査における動作モードを前記入力された患者識別情報及び前記計時された日時とともに前記記憶手段に記憶させ、
     前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された動作モード及び日時を前記記憶手段から検索し、前記検索された過去の日時と前記計時手段により計時されている現在の日時との差を算出して検査間隔を求め、前記求められた検査間隔に関連づけられた動作モードを前記複数の動作モードのうちから選択し、
     前記制御手段は、前記選択された動作モードに関連づけられた動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、
     ことを特徴とする請求項7に記載の眼科観察装置。
  16.  患者識別情報を入力する入力手段を更に備え、
     前記制御手段は、前記解析手段により得られた解析結果に異常が存在した場合に、その旨を表す異常存在情報を前記入力された患者識別情報とともに前記記憶手段に記憶させ、
     前記動作モード情報には、前記動作モードに対し、前記異常が存在した場合における動作内容の変更を表す動作内容変更情報が関連づけられており、
     前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された異常存在情報を前記記憶手段から検索し、前記異常存在情報が検索された場合、前記動作内容変更情報に基づいて前記動作モードの動作内容を変更し、
     前記制御手段は、前記変更後の動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、
     ことを特徴とする請求項1に記載の眼科観察装置。
  17.  患者識別情報を入力する入力手段を更に備え、
     前記制御手段は、前記解析手段により得られた解析結果に異常が存在した場合に、その旨を表す異常存在情報を前記入力された患者識別情報とともに前記記憶手段に記憶させ、
     前記動作モード情報には、前記動作モードに対し、前記異常が存在した場合における動作内容の変更を表す動作内容変更情報が関連づけられており、
     前記指定手段は、前記入力手段により患者識別情報が入力されたときに、過去に当該患者識別情報とともに記憶された異常存在情報を前記記憶手段から検索し、前記異常存在情報が検索された場合、前記動作内容変更情報に基づいて前記動作モードの動作内容を変更し、
     前記制御手段は、前記変更後の動作内容に基づいて前記光学系、前記画像形成手段、前記解析手段及び/又は前記出力手段を制御する、
     ことを特徴とする請求項7に記載の眼科観察装置。
  18.  被検眼の眼底に照明光を照射し、この照明光の眼底反射光を受光して前記眼底の撮影画像を形成する撮影手段を更に備え、
     前記動作モード情報には、前記複数の動作モードのうちの少なくとも1つに対し、前記撮影手段の動作内容が関連づけられており、
     前記指定手段により指定された動作モードに対して前記撮影手段の動作内容が関連づけられている場合、前記制御手段は、当該動作内容に基づいて前記撮影手段を制御して前記眼底の撮影画像を形成させる、
     ことを特徴とする請求項1に記載の眼科観察装置。
  19.  被検眼の眼底に照明光を照射し、この照明光の眼底反射光を受光して前記眼底の撮影画像を形成する撮影手段を更に備え、
     前記動作モード情報には、前記複数の動作モードのうちの少なくとも1つに対し、前記撮影手段の動作内容が関連づけられており、
     前記指定手段により指定された動作モードに対して前記撮影手段の動作内容が関連づけられている場合、前記制御手段は、当該動作内容に基づいて前記撮影手段を制御して前記眼底の撮影画像を形成させる、
     ことを特徴とする請求項7に記載の眼科観察装置。
  20.  前記動作モード情報により前記動作モードに対して関連づけられる動作内容を編集するための操作手段を更に備える、
     ことを特徴とする請求項1に記載の眼科観察装置。
  21.  前記動作モード情報により前記動作モードに対して関連づけられる動作内容を編集するための操作手段を更に備える、
     ことを特徴とする請求項7に記載の眼科観察装置。
PCT/JP2010/004579 2009-07-29 2010-07-14 眼科観察装置 WO2011013314A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP10804067.6A EP2460460B1 (en) 2009-07-29 2010-07-14 Ophthalmological observation device
US13/387,007 US8724870B2 (en) 2009-07-29 2010-07-14 Ophthalmic observation apparatus
US14/086,429 US20140078466A1 (en) 2009-07-29 2013-11-21 Method of controlling ophthalmic observation apparatus and ophthalmic observation apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-176201 2009-07-29
JP2009176201A JP5432625B2 (ja) 2009-07-29 2009-07-29 眼科観察装置

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/387,007 A-371-Of-International US8724870B2 (en) 2009-07-29 2010-07-14 Ophthalmic observation apparatus
US14/086,429 Division US20140078466A1 (en) 2009-07-29 2013-11-21 Method of controlling ophthalmic observation apparatus and ophthalmic observation apparatus

Publications (1)

Publication Number Publication Date
WO2011013314A1 true WO2011013314A1 (ja) 2011-02-03

Family

ID=43528988

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/004579 WO2011013314A1 (ja) 2009-07-29 2010-07-14 眼科観察装置

Country Status (4)

Country Link
US (2) US8724870B2 (ja)
EP (1) EP2460460B1 (ja)
JP (1) JP5432625B2 (ja)
WO (1) WO2011013314A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102727174A (zh) * 2011-03-31 2012-10-17 佳能株式会社 眼底检查设备
EP2505127A3 (en) * 2011-03-31 2013-05-29 Canon Kabushiki Kaisha Control apparatus, imaging control method, and storage medium
WO2013128975A1 (ja) * 2012-02-29 2013-09-06 国立大学法人京都大学 眼底観察装置及び眼底画像解析装置
EP2644086A1 (en) * 2012-03-30 2013-10-02 Canon Kabushiki Kaisha Fundus inspection apparatus
US20130258285A1 (en) * 2012-03-30 2013-10-03 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2015192915A (ja) * 2015-08-05 2015-11-05 株式会社ニデック 眼科撮影装置
CN113784656A (zh) * 2018-12-12 2021-12-10 泰斯艾科特健康公司 用于生物识别和健康状态确定的光学设备和相关装置

Families Citing this family (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011145319A1 (ja) * 2010-05-19 2011-11-24 株式会社ニコン 形状測定装置及び形状測定方法
JP6100027B2 (ja) * 2011-03-31 2017-03-22 キヤノン株式会社 撮像装置の制御装置、撮像装置の制御方法、およびプログラム
JP6098079B2 (ja) * 2011-09-29 2017-03-22 株式会社ニデック 眼底断層像撮影装置
JP6061554B2 (ja) 2012-01-20 2017-01-18 キヤノン株式会社 画像処理装置及び画像処理方法
JP6146951B2 (ja) * 2012-01-20 2017-06-14 キヤノン株式会社 画像処理装置、画像処理方法、撮影装置及び撮影方法
JP2013153881A (ja) * 2012-01-27 2013-08-15 Canon Inc 画像処理システム、処理方法及びプログラム
JP5932369B2 (ja) * 2012-01-27 2016-06-08 キヤノン株式会社 画像処理システム、処理方法及びプログラム
JP2013153880A (ja) * 2012-01-27 2013-08-15 Canon Inc 画像処理システム、処理方法及びプログラム
JP5924955B2 (ja) * 2012-01-27 2016-05-25 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、眼科装置およびプログラム
JP5981213B2 (ja) 2012-02-28 2016-08-31 株式会社トプコン 眼底観察装置
JP6161237B2 (ja) 2012-03-30 2017-07-12 キヤノン株式会社 眼科装置
JP2014045868A (ja) * 2012-08-30 2014-03-17 Canon Inc インタラクティブ制御装置
JP6099903B2 (ja) * 2012-08-30 2017-03-22 キヤノン株式会社 画像処理装置および画像処理方法
JP6057619B2 (ja) 2012-08-30 2017-01-11 キヤノン株式会社 眼科装置及び眼科装置の制御方法
JP6213708B2 (ja) * 2012-10-31 2017-10-18 株式会社ニデック 眼科撮影装置、及び眼科撮影プログラム
DE102012022058A1 (de) 2012-11-08 2014-05-08 Carl Zeiss Meditec Ag Flexibles, multimodales Retina-Bildaufnahme- und Messsystem
US10149615B2 (en) 2012-11-30 2018-12-11 Kabushiki Kaisha Topcon Fundus imaging apparatus that determines a state of alignment
JP6160808B2 (ja) * 2013-01-23 2017-07-12 株式会社ニデック 眼科撮影装置及び眼科撮影プログラム
US9420945B2 (en) * 2013-03-14 2016-08-23 Carl Zeiss Meditec, Inc. User interface for acquisition, display and analysis of ophthalmic diagnostic data
WO2014203901A1 (ja) * 2013-06-19 2014-12-24 株式会社トプコン 眼科撮影装置および眼科画像表示装置
JP6429447B2 (ja) * 2013-10-24 2018-11-28 キヤノン株式会社 情報処理装置、比較方法、位置合わせ方法及びプログラム
US9237847B2 (en) 2014-02-11 2016-01-19 Welch Allyn, Inc. Ophthalmoscope device
US9211064B2 (en) 2014-02-11 2015-12-15 Welch Allyn, Inc. Fundus imaging system
JP6463047B2 (ja) 2014-09-05 2019-01-30 キヤノン株式会社 眼科装置及び眼科装置の作動方法
JP6537241B2 (ja) * 2014-10-07 2019-07-03 満里 平岡 機能回復システム、機能回復システムのプログラム、機能回復システムの作動方法および方法
US11045088B2 (en) 2015-02-27 2021-06-29 Welch Allyn, Inc. Through focus retinal image capturing
US10799115B2 (en) 2015-02-27 2020-10-13 Welch Allyn, Inc. Through focus retinal image capturing
JP6568375B2 (ja) * 2015-03-30 2019-08-28 キヤノン株式会社 眼科情報処理システム、画像処理装置、および画像処理方法
JP6898969B2 (ja) * 2015-03-30 2021-07-07 キヤノン株式会社 眼科情報処理システムおよび眼科情報処理方法
JP6446333B2 (ja) 2015-06-09 2018-12-26 株式会社トプコン 眼科検査システム及び管理装置
JP6490501B2 (ja) 2015-06-09 2019-03-27 株式会社トプコン 眼科検査システム
US10136804B2 (en) 2015-07-24 2018-11-27 Welch Allyn, Inc. Automatic fundus image capture system
JP6712106B2 (ja) 2015-10-13 2020-06-17 株式会社吉田製作所 光干渉断層画像生成装置
US10506165B2 (en) 2015-10-29 2019-12-10 Welch Allyn, Inc. Concussion screening system
US10772495B2 (en) 2015-11-02 2020-09-15 Welch Allyn, Inc. Retinal image capturing
US10413179B2 (en) 2016-01-07 2019-09-17 Welch Allyn, Inc. Infrared fundus imaging system
JP2016182525A (ja) * 2016-07-29 2016-10-20 株式会社トプコン 眼科撮影装置
US10602926B2 (en) 2016-09-29 2020-03-31 Welch Allyn, Inc. Through focus retinal image capturing
US10285589B2 (en) 2016-09-30 2019-05-14 Welch Allyn, Inc. Fundus image capture system
AU2017382218B2 (en) 2016-12-21 2023-05-11 Acucela Inc. Miniaturized mobile, low cost optical coherence tomography system for home based ophthalmic applications
JP2017164520A (ja) * 2017-05-01 2017-09-21 株式会社トプコン 眼科装置
JP6422529B2 (ja) * 2017-05-01 2018-11-14 株式会社トプコン プログラムおよび眼科システム
JP2017164522A (ja) * 2017-05-01 2017-09-21 株式会社トプコン 眼科装置
JP6392408B2 (ja) * 2017-05-01 2018-09-19 株式会社トプコン 眼科装置
JP2017164521A (ja) * 2017-05-01 2017-09-21 株式会社トプコン 眼科装置
US11617509B2 (en) * 2017-08-14 2023-04-04 Optos Plc Ophthalmic device
WO2019172043A1 (ja) * 2018-03-05 2019-09-12 キヤノン株式会社 画像処理装置およびその制御方法
US11096574B2 (en) 2018-05-24 2021-08-24 Welch Allyn, Inc. Retinal image capturing
JP7148113B2 (ja) 2018-06-04 2022-10-05 株式会社トーメーコーポレーション 眼科装置
WO2019246412A1 (en) 2018-06-20 2019-12-26 Acucela Inc. Miniaturized mobile, low cost optical coherence tomography system for home based ophthalmic applications
JP7417981B2 (ja) 2019-10-15 2024-01-19 株式会社トーメーコーポレーション 眼科装置
US11730363B2 (en) 2019-12-26 2023-08-22 Acucela Inc. Optical coherence tomography patient alignment system for home based ophthalmic applications
US10959613B1 (en) 2020-08-04 2021-03-30 Acucela Inc. Scan pattern and signal processing for optical coherence tomography
WO2022035809A1 (en) 2020-08-14 2022-02-17 Acucela Inc. System and method for optical coherence tomography a-scan decurving
US11393094B2 (en) 2020-09-11 2022-07-19 Acucela Inc. Artificial intelligence for evaluation of optical coherence tomography images
CN116322471A (zh) 2020-09-30 2023-06-23 奥克塞拉有限公司 近视预测、诊断、计划和监测设备
JP2022094090A (ja) 2020-12-14 2022-06-24 株式会社トーメーコーポレーション 光断層画像撮影装置
US11497396B2 (en) 2021-03-24 2022-11-15 Acucela Inc. Axial length measurement monitor
CN112967360B (zh) * 2021-04-23 2024-05-03 自然资源部国土卫星遥感应用中心 顾及多维度的合成孔径雷达影像Voronoi多边形镶嵌方法

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09276232A (ja) 1996-04-12 1997-10-28 Nikon Corp 眼底カメラ
JPH11325849A (ja) 1998-03-30 1999-11-26 Carl Zeiss Jena Gmbh スペクトル干渉に基づく光学・トモグラフィ―および光学表面プロファイル測定装置
JP2002139421A (ja) 2000-11-01 2002-05-17 Fuji Photo Film Co Ltd 光断層画像取得装置
JP2004147829A (ja) * 2002-10-30 2004-05-27 Canon Inc 眼底血流計
JP2006153838A (ja) 2004-11-08 2006-06-15 Topcon Corp 光画像計測装置及び光画像計測方法
JP2007024677A (ja) 2005-07-15 2007-02-01 Sun Tec Kk 光断層画像表示システム
JP2007252692A (ja) 2006-03-24 2007-10-04 Topcon Corp 眼底観察装置
JP2007325831A (ja) 2006-06-09 2007-12-20 Topcon Corp 眼底観察装置、眼科画像処理装置及び眼科画像処理プログラム
JP2008073099A (ja) 2006-09-19 2008-04-03 Topcon Corp 眼底観察装置、眼底画像表示装置及び眼底観察プログラム
JP2008086670A (ja) * 2006-10-04 2008-04-17 Osaka Univ 眼底観察装置、眼底画像表示装置及びプログラム
JP2008167777A (ja) * 2007-01-06 2008-07-24 Nidek Co Ltd 眼科装置
JP2008206684A (ja) 2007-02-26 2008-09-11 Topcon Corp 眼底観察装置、眼底画像処理装置及びプログラム
JP2008237237A (ja) * 2007-03-23 2008-10-09 Topcon Corp 眼底観察装置、眼科画像表示装置及びプログラム
JP2008259544A (ja) 2007-04-10 2008-10-30 Topcon Corp スリットランプ
JP2008267892A (ja) * 2007-04-18 2008-11-06 Topcon Corp 光画像計測装置及びそれを制御するプログラム
JP2008289642A (ja) * 2007-05-24 2008-12-04 Topcon Corp 光画像計測装置
JP2008295804A (ja) 2007-05-31 2008-12-11 Topcon Corp 眼底検査装置及びプログラム
JP2009061203A (ja) 2007-09-10 2009-03-26 Univ Of Tokyo 眼底観察装置、眼底画像処理装置及びプログラム
JP2009066015A (ja) 2007-09-10 2009-04-02 Univ Of Tokyo 眼底観察装置、眼科画像処理装置及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06237900A (ja) * 1993-02-17 1994-08-30 Nikon Corp 眼底カメラ装置
JP3756127B2 (ja) 2002-04-19 2006-03-15 株式会社トプコン 眼科撮影装置
WO2004034278A1 (ja) * 2002-09-27 2004-04-22 Brother Kogyo Kabushiki Kaisha テキスト編集装置及びプログラム
WO2007079189A2 (en) * 2005-12-30 2007-07-12 Tti Ellebeau, Inc. System and method for remote based control of an iontophoresis device
JP4969925B2 (ja) * 2006-06-28 2012-07-04 株式会社トプコン 眼底観察装置
JP5089940B2 (ja) * 2006-08-29 2012-12-05 株式会社トプコン 眼球運動測定装置、眼球運動測定方法及び眼球運動測定プログラム
US8223143B2 (en) * 2006-10-27 2012-07-17 Carl Zeiss Meditec, Inc. User interface for efficiently displaying relevant OCT imaging data
JP5007114B2 (ja) 2006-12-22 2012-08-22 株式会社トプコン 眼底観察装置、眼底画像表示装置及びプログラム
US20080312552A1 (en) * 2007-06-18 2008-12-18 Qienyuan Zhou Method to detect change in tissue measurements
US7934832B2 (en) * 2007-08-02 2011-05-03 Topcon Medical Systems, Inc. Characterization of the retinal nerve fiber layer

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09276232A (ja) 1996-04-12 1997-10-28 Nikon Corp 眼底カメラ
JPH11325849A (ja) 1998-03-30 1999-11-26 Carl Zeiss Jena Gmbh スペクトル干渉に基づく光学・トモグラフィ―および光学表面プロファイル測定装置
JP2002139421A (ja) 2000-11-01 2002-05-17 Fuji Photo Film Co Ltd 光断層画像取得装置
JP2004147829A (ja) * 2002-10-30 2004-05-27 Canon Inc 眼底血流計
JP2006153838A (ja) 2004-11-08 2006-06-15 Topcon Corp 光画像計測装置及び光画像計測方法
JP2007024677A (ja) 2005-07-15 2007-02-01 Sun Tec Kk 光断層画像表示システム
JP2007252692A (ja) 2006-03-24 2007-10-04 Topcon Corp 眼底観察装置
JP2007325831A (ja) 2006-06-09 2007-12-20 Topcon Corp 眼底観察装置、眼科画像処理装置及び眼科画像処理プログラム
JP2008073099A (ja) 2006-09-19 2008-04-03 Topcon Corp 眼底観察装置、眼底画像表示装置及び眼底観察プログラム
JP2008086670A (ja) * 2006-10-04 2008-04-17 Osaka Univ 眼底観察装置、眼底画像表示装置及びプログラム
JP2008167777A (ja) * 2007-01-06 2008-07-24 Nidek Co Ltd 眼科装置
JP2008206684A (ja) 2007-02-26 2008-09-11 Topcon Corp 眼底観察装置、眼底画像処理装置及びプログラム
JP2008237237A (ja) * 2007-03-23 2008-10-09 Topcon Corp 眼底観察装置、眼科画像表示装置及びプログラム
JP2008259544A (ja) 2007-04-10 2008-10-30 Topcon Corp スリットランプ
JP2008267892A (ja) * 2007-04-18 2008-11-06 Topcon Corp 光画像計測装置及びそれを制御するプログラム
JP2008289642A (ja) * 2007-05-24 2008-12-04 Topcon Corp 光画像計測装置
JP2008295804A (ja) 2007-05-31 2008-12-11 Topcon Corp 眼底検査装置及びプログラム
JP2009061203A (ja) 2007-09-10 2009-03-26 Univ Of Tokyo 眼底観察装置、眼底画像処理装置及びプログラム
JP2009066015A (ja) 2007-09-10 2009-04-02 Univ Of Tokyo 眼底観察装置、眼科画像処理装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2460460A4

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102727174B (zh) * 2011-03-31 2015-09-30 佳能株式会社 眼底检查设备
EP2505127A3 (en) * 2011-03-31 2013-05-29 Canon Kabushiki Kaisha Control apparatus, imaging control method, and storage medium
US9839350B2 (en) 2011-03-31 2017-12-12 Canon Kabushiki Kaisha Control apparatus, imaging control method, and storage medium
CN102727174A (zh) * 2011-03-31 2012-10-17 佳能株式会社 眼底检查设备
US9538916B2 (en) 2011-03-31 2017-01-10 Canon Kabushiki Kaisha Fundus inspection apparatus
JP2013176497A (ja) * 2012-02-29 2013-09-09 Kyoto Univ 眼底観察装置及び眼底画像解析装置
US9456745B2 (en) 2012-02-29 2016-10-04 Kyoto University Fundus observation apparatus and fundus image analyzing apparatus
WO2013128975A1 (ja) * 2012-02-29 2013-09-06 国立大学法人京都大学 眼底観察装置及び眼底画像解析装置
US20130258285A1 (en) * 2012-03-30 2013-10-03 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US9226655B2 (en) * 2012-03-30 2016-01-05 Canon Kabushiki Kaisha Image processing apparatus and image processing method
EP2644086A1 (en) * 2012-03-30 2013-10-02 Canon Kabushiki Kaisha Fundus inspection apparatus
JP2015192915A (ja) * 2015-08-05 2015-11-05 株式会社ニデック 眼科撮影装置
CN113784656A (zh) * 2018-12-12 2021-12-10 泰斯艾科特健康公司 用于生物识别和健康状态确定的光学设备和相关装置

Also Published As

Publication number Publication date
JP5432625B2 (ja) 2014-03-05
EP2460460A4 (en) 2013-03-27
EP2460460A1 (en) 2012-06-06
US8724870B2 (en) 2014-05-13
JP2011024930A (ja) 2011-02-10
EP2460460B1 (en) 2016-12-28
US20120121158A1 (en) 2012-05-17
US20140078466A1 (en) 2014-03-20

Similar Documents

Publication Publication Date Title
JP5432625B2 (ja) 眼科観察装置
JP5981213B2 (ja) 眼底観察装置
JP5415902B2 (ja) 眼科観察装置
WO2010125746A1 (ja) 眼底観察装置
JP5628636B2 (ja) 眼底画像処理装置及び眼底観察装置
JP5543171B2 (ja) 光画像計測装置
JP5941761B2 (ja) 眼科撮影装置及び眼科画像処理装置
JP5936254B2 (ja) 眼底観察装置及び眼底画像解析装置
JP5837143B2 (ja) 眼科観察装置、その制御方法、及びプログラム
JP5956518B2 (ja) 眼科解析装置及び眼科撮影装置
JP5514026B2 (ja) 眼底画像処理装置及び眼底観察装置
JP5658305B2 (ja) 眼科観察装置、その制御方法、及びプログラム
JP6378795B2 (ja) 眼科撮影装置
JP6254724B2 (ja) 眼底観察装置
JP6099782B2 (ja) 眼科撮影装置
JP6374549B2 (ja) 眼科解析装置
JP6186454B2 (ja) 眼科解析装置
JP6186453B2 (ja) 眼科解析装置及び眼科撮影装置
JP6254729B2 (ja) 眼科撮影装置
JP6106300B2 (ja) 眼科撮影装置
JP6106299B2 (ja) 眼科撮影装置及び眼科画像処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10804067

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2010804067

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010804067

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13387007

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE