WO2020158282A1 - 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム - Google Patents

眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2020158282A1
WO2020158282A1 PCT/JP2019/051169 JP2019051169W WO2020158282A1 WO 2020158282 A1 WO2020158282 A1 WO 2020158282A1 JP 2019051169 W JP2019051169 W JP 2019051169W WO 2020158282 A1 WO2020158282 A1 WO 2020158282A1
Authority
WO
WIPO (PCT)
Prior art keywords
scan
eye
conversion
image
unit
Prior art date
Application number
PCT/JP2019/051169
Other languages
English (en)
French (fr)
Inventor
僚一 廣瀬
山口 達夫
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to EP19912859.6A priority Critical patent/EP3918975A4/en
Publication of WO2020158282A1 publication Critical patent/WO2020158282A1/ja
Priority to US17/083,312 priority patent/US11980416B2/en
Priority to US18/404,926 priority patent/US20240130612A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1005Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring distances inside the eye, e.g. thickness of the cornea

Definitions

  • the present invention relates to an ophthalmologic information processing apparatus, an ophthalmologic apparatus, an ophthalmologic information processing method, and a program.
  • OCT which forms an image showing the surface morphology and internal morphology of an object to be measured using a light beam from a laser light source, etc.
  • OCT does not have the invasiveness to the human body unlike X-ray CT (Computed Tomography), and is therefore expected to be applied particularly in the medical and biological fields.
  • X-ray CT Computed Tomography
  • a device for forming an image of a fundus, a cornea or the like has been put into practical use.
  • a device using such an OCT method OCT device
  • OCT device is applicable to observation of various parts of an eye to be inspected, and because it can acquire a high-definition image, it is applied to diagnosis of various ophthalmic diseases. ..
  • measurement light for scanning the predetermined part is made to enter the eye from the pupil, and for example, a scan center position arranged near the pupil is centered.
  • the measuring light is deflected.
  • a tomographic image (B scan image) is acquired by forming an A scan image formed from the acquired A scan data and arranging a plurality of A scan images in the B scan direction (for example, Patent Document 1). ..
  • the contour shape of the acquired tomographic image is transformed into a rectangle. Therefore, the wider the angle of view, the larger the difference between the shape of the predetermined portion and the actual shape in the tomographic image.
  • the intraocular distance can be obtained by multiplying the number of pixels between the two points by the device-specific pixel size. Therefore, the error in the intraocular distance increases depending on the depth position.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide a new technique for specifying the actual shape or the like of a predetermined site in the eye.
  • a first aspect of some embodiments is formed by arranging a plurality of A-scan images obtained by scanning the inside of the eye of the subject's eye with measurement light deflected around the scan center position. It is an ophthalmologic information processing apparatus that corrects an image of an eye to be inspected.
  • the ophthalmologic information processing device corresponds to the pixel position in the image, and a specifying unit that specifies the conversion position along the traveling direction of the measurement light passing through the scan center position, and the pixel position is specified by the specifying unit. And a conversion unit for converting to the conversion position.
  • the morphological information includes the intraocular distance.
  • the specific portion has a depth range that can be measured by the scan radius in the traveling direction, the scan angle, and optical coherence tomography.
  • at least one of the component in the first axis direction of the conversion position and the component in the second axis direction intersecting the first axis direction in the predetermined coordinate system is specified based on the pixel position.
  • a fifth aspect of some embodiments is formed by arranging a plurality of A scan data obtained by scanning the inside of the eye of the eye with the measurement light deflected around the scan center position.
  • An ophthalmologic information processing apparatus that corrects three-dimensional or three-dimensional scan data.
  • the ophthalmologic information processing device corresponds to the scan position in the scan data, and a specifying unit that specifies the conversion position along the traveling direction of the measurement light passing through the scan center position, and the scan position is specified by the specifying unit.
  • a conversion unit for converting to the conversion position is specified by the specifying unit.
  • a sixth aspect of some embodiments includes an image forming section in the fifth aspect, which forms an image of the eye to be inspected based on the scan data obtained by converting the scan position into the conversion position by the conversion section. ..
  • a form representing the form of the eye to be inspected is based on the scan data in which the scan position is converted into the conversion position by the conversion unit.
  • a calculation unit that calculates information is included.
  • the morphological information includes the intraocular distance.
  • the specific portion has a scan radius in the traveling direction, a scan angle, and a depth range that can be measured by optical coherence tomography.
  • at least one of a component in the first axis direction and a component in the second axis direction intersecting the first axis direction of the conversion position in a predetermined coordinate system is specified based on the scan position.
  • the specifying unit performs the ray tracing process on the measurement light based on corneal shape information of the eye to be inspected, thereby performing the scan. Specify the angle.
  • An eleventh aspect of some embodiments includes an interpolation unit that interpolates pixels or scan data between the conversion positions in any of the first to tenth aspects.
  • the specifying unit specifies the conversion position based on a parameter representing the optical characteristic of the eye to be inspected.
  • a thirteenth aspect of some embodiments is an acquisition unit that acquires the plurality of A-scan images or the plurality of A-scan data using optical coherence tomography, and the ophthalmologic information processing apparatus according to any one of the above.
  • An ophthalmologic apparatus including,.
  • a fourteenth aspect of some embodiments is formed by arranging a plurality of A-scan images obtained by scanning the inside of the eye of the eye to be inspected with the measurement light deflected around the scan center position.
  • An ophthalmologic information processing method for correcting an image of an eye to be inspected which corresponds to the pixel position in the image, a specifying step of specifying a conversion position along the traveling direction of the measurement light passing through the scan center position, and the pixel position is specified in the specifying step.
  • a fifteenth aspect of some embodiments is a calculation according to the fourteenth aspect, wherein morphological information representing a morphology of the eye to be inspected is calculated based on the image in which the pixel position is converted into the conversion position in the converting step. Including steps.
  • a sixteenth aspect of some embodiments is formed by arranging a plurality of A scan data obtained by scanning the inside of the eye of the eye to be inspected with the measurement light deflected around the scan center position.
  • An ophthalmologic information processing method for correcting three-dimensional or three-dimensional scan data corresponds to the scan position in the scan data, a specifying step of specifying a conversion position along the traveling direction of the measurement light passing through the scan center position, and the scan position is specified in the specifying step. And a conversion step of converting to the conversion position.
  • a seventeenth aspect of some embodiments includes an image forming step in the sixteenth aspect, which forms an image of the eye to be inspected based on the scan data obtained by converting the scan position to the conversion position in the conversion step. ..
  • An eighteenth aspect of some embodiments is the mode according to the sixteenth aspect or the seventeenth aspect, which represents the form of the eye to be inspected based on the scan data obtained by converting the scan position into the conversion position in the conversion step. It includes a calculation step of calculating information.
  • the morphological information includes the intraocular distance.
  • a twentieth aspect of some embodiments includes an interpolation step of interpolating pixels or scan data between the conversion positions according to any of the fourteenth to nineteenth aspects.
  • the identifying step identifies the conversion position based on a parameter representing the optical characteristic of the eye to be inspected.
  • a twenty-second aspect of some embodiments is a program that causes a computer to execute each step of the ophthalmologic information processing method described in any of the above.
  • the ophthalmologic information processing apparatus is an OCT image of the eye to be inspected, which is obtained by scanning the inside of the eye with measurement light using an optical scanner that is arranged substantially conjugate with a predetermined site in the eye to be inspected, or Correct two-dimensional or three-dimensional scan data. A pupil or the like may be used as the predetermined part.
  • the OCT image is a two-dimensional image or a three-dimensional image. Examples of the OCT image include a tomographic image of the fundus and a three-dimensional image of the fundus.
  • the OCT image or scan data is acquired using optical coherence tomography (OCT).
  • the OCT image is obtained by arranging a plurality of A-scan images obtained by scanning the inside of the eye of the eye with the measurement light deflected around the predetermined portion with the predetermined portion of the eye as the scan center position. It is formed.
  • the two-dimensional or three-dimensional scan data includes a plurality of A scans obtained by scanning the inside of the eye to be inspected with the measuring light deflected around the predetermined portion of the eye to be the scan center position. It is formed by arranging the data.
  • the ophthalmologic information processing device corresponds to the pixel position in the OCT image or the scan position in the two-dimensional or three-dimensional scan data, and performs conversion along the A scan direction (the traveling direction of the measurement light passing through a predetermined part of the eye to be inspected). Identify the position.
  • the ophthalmologic information processing device converts the pixel position or the scan position into a conversion position specified based on the pixel position or the like.
  • the conversion position is a position in a predetermined coordinate system.
  • the predetermined coordinate system is defined by two or more coordinate axes including at least one coordinate axis in the same axial direction as the scan direction of the A scan.
  • the ophthalmologic information processing device specifies the conversion position based on the parameter representing the optical characteristic of the eye to be inspected.
  • the ophthalmologic information processing apparatus uses a scan radius in the A scan direction, a scan angle, a depth range in which OCT measurement is possible, and a conversion position in a predetermined coordinate system based on a pixel position or a scan position. At least one of the component in the first axis direction and the component in the second axis direction that intersects the first axis direction is specified.
  • the shape of the intraocular region such as the fundus represented by the OCT image or the scan data it is possible to correct the shape of the intraocular region such as the fundus represented by the OCT image or the scan data to a shape along the actual scan.
  • the morphological information indicating the morphology of the eye to be inspected can be acquired as the information indicating the actual morphology.
  • the ophthalmologic information processing method according to the embodiment includes one or more steps for realizing processing executed by a processor (computer) in the ophthalmologic information processing apparatus according to the embodiment.
  • the program according to the embodiment causes a processor to execute each step of the ophthalmologic information processing method according to the embodiment.
  • a “processor” is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logical device (for example, SPLD (SimpleLeglecture), a Programmable Logical Device (eg, SPLD (SimpleLeglecture)). It means a circuit such as Programmable Logic Device) and FPGA (Field Programmable Gate Array)).
  • the processor implements the functions according to the embodiments by reading and executing a program stored in a storage circuit or a storage device, for example.
  • images acquired by OCT may be collectively referred to as OCT images.
  • the measurement operation for forming the OCT image may be referred to as OCT measurement.
  • the following mainly describes the case of acquiring a tomographic image as an OCT image of the eye to be inspected, but the same applies to the case of acquiring a three-dimensional image or two-dimensional or three-dimensional scan data using OCT.
  • the ophthalmologic information processing apparatus may be configured to acquire an OCT image or two-dimensional or three-dimensional scan data from an external ophthalmologic apparatus.
  • the ophthalmologic apparatus includes at least one of an ophthalmologic imaging apparatus, an ophthalmic measurement apparatus, and an ophthalmologic treatment apparatus.
  • the ophthalmologic imaging apparatus included in the ophthalmologic apparatus of some embodiments is, for example, one or more of a fundus camera, a scanning laser ophthalmoscope, a slit lamp ophthalmoscope, a surgical microscope, and the like.
  • the ophthalmologic measuring apparatus included in the ophthalmologic apparatus of some embodiments is, for example, any one or more of an eye refractometer, a tonometer, a specular microscope, a wavefront analyzer, a perimeter, a microperimeter, and the like.
  • the ophthalmologic treatment apparatus included in the ophthalmologic apparatus of some embodiments is, for example, one or more of a laser treatment apparatus, a surgical operation apparatus, a surgical microscope, and the like.
  • the ophthalmologic apparatus includes an OCT device capable of OCT measurement and a fundus camera. Further, it is also possible to incorporate the configurations according to the following embodiments into a single OCT apparatus.
  • an ophthalmologic apparatus capable of performing OCT measurement on the fundus of the eye to be inspected will be described as an example, but the ophthalmologic apparatus according to the embodiment may be capable of performing OCT measurement on the anterior segment of the eye to be inspected.
  • the OCT measurement range or measurement site is changed by moving the lens that changes the focus position of the measurement light.
  • one or more attachments are added to provide OCT measurements on the fundus, OCT measurements on the anterior segment, and OCT on the entire eye including the fundus and the anterior segment. This is a configuration that enables measurement.
  • an anterior ocular segment is obtained by causing a measurement light that is a parallel light flux by placing a front lens between the objective lens and the eye to be inspected into the eye to be inspected. Perform OCT measurement for.
  • the ophthalmologic apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and a calculation control unit 200.
  • the fundus camera unit 2 is provided with an optical system and a mechanism for acquiring a front image of the eye E to be inspected.
  • the OCT unit 100 is provided with a part of an optical system and a mechanism for performing OCT. Another part of the optical system and the mechanism for executing the OCT is provided in the fundus camera unit 2.
  • the arithmetic and control unit 200 includes one or more processors that execute various arithmetic operations and controls.
  • optional elements such as a member for supporting the subject's face (chin rest, forehead support, etc.) and a lens unit (for example, anterior segment OCT attachment) for switching the target region of OCT A unit may be provided in the ophthalmologic apparatus 1.
  • the lens unit is configured to be manually inserted and removed between the eye E to be inspected and the objective lens 22 described below.
  • the lens unit is configured to be automatically inserted/removed between the eye E to be inspected and the objective lens 22 described below under the control of the control unit 210 described below.
  • the ophthalmic device 1 includes a display device 3.
  • the display device 3 displays a processing result (for example, an OCT image or the like) by the arithmetic and control unit 200, an image obtained by the fundus camera unit 2, operation guidance information for operating the ophthalmologic apparatus 1, and the like.
  • the fundus camera unit 2 is provided with an optical system for photographing the fundus Ef of the eye E to be examined.
  • the acquired image of the fundus oculi Ef (called a fundus oculi image, a fundus oculi photograph, etc.) is a front image such as an observation image, a photographed image or the like.
  • the observation image is obtained by capturing a moving image using near infrared light.
  • the captured image is a still image using flash light.
  • the fundus camera unit 2 can capture a front image (anterior segment image) by photographing the anterior segment Ea of the eye E to be examined.
  • the fundus camera unit 2 includes an illumination optical system 10 and a photographing optical system 30.
  • the illumination optical system 10 irradiates the eye E with illumination light.
  • the imaging optical system 30 detects return light of illumination light from the eye E to be inspected.
  • the measurement light from the OCT unit 100 is guided to the subject's eye E through the optical path inside the fundus camera unit 2, and the return light is guided to the OCT unit 100 through the same optical path.
  • the light (observation illumination light) output from the observation light source 11 of the illumination optical system 10 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condenser lens 13, and passes through the visible cut filter 14. It becomes near infrared light. Further, the observation illumination light is once focused near the photographing light source 15, is reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19, and the relay lens 20. Then, the observation illumination light is reflected by the peripheral portion of the perforated mirror 21 (area around the hole), passes through the dichroic mirror 46, and is refracted by the objective lens 22 to be examined E (fundus Ef or anterior eye). Illuminate part Ea).
  • the return light of the observation illumination light from the eye E is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, and passes through the dichroic mirror 55. ..
  • the return light that has passed through the dichroic mirror 55 passes through the photographing focusing lens 31 and is reflected by the mirror 32. Further, this return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and is imaged on the light receiving surface of the image sensor 35 by the condenser lens 34.
  • the image sensor 35 detects the returning light at a predetermined frame rate.
  • the focus of the photographing optical system 30 is adjusted so as to match the fundus Ef or the anterior segment Ea.
  • the light (imaging illumination light) output from the imaging light source 15 is applied to the fundus Ef through the same route as the observation illumination light.
  • the return light of the photographing illumination light from the eye E is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is condensed by the condenser lens 37.
  • An image is formed on the light receiving surface of the image sensor 38.
  • LCD 39 displays a fixation target and a visual acuity measurement target.
  • a part of the light flux output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, passes through the photographing focusing lens 31 and the dichroic mirror 55, and passes through the hole portion of the perforated mirror 21.
  • the light flux that has passed through the hole of the perforated mirror 21 passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the fixation position of the eye E can be changed.
  • a fixation position for acquiring an image centered on the macula a fixation position for acquiring an image centered on the optic disc, and a fundus center between the macula and the optic disc.
  • There are a fixation position for acquiring an image centered on the eye a fixation position for acquiring an image of a region (peripheral part of the fundus) greatly separated from the macula, and the like.
  • the ophthalmologic apparatus 1 includes a GUI (Graphical User Interface) for designating at least one of such fixation positions.
  • the ophthalmologic apparatus 1 includes a GUI or the like for manually moving the fixation position (display position of the fixation target).
  • the configuration for presenting the movable fixation target to the eye E is not limited to a display device such as an LCD.
  • a movable fixation target can be generated by selectively turning on a plurality of light sources in a light source array (light emitting diode (LED) array or the like).
  • a movable fixation target can be generated by one or more movable light sources.
  • the ophthalmologic apparatus 1 may be provided with one or more external fixation light sources.
  • One of the one or more external fixation light sources is capable of projecting fixation light onto the fellow eye of the eye E to be examined.
  • the projection position of the fixation light on the fellow eye can be changed.
  • the fixation position of the eye E to be inspected can be changed by changing the projection position of the fixation light on the fellow eye.
  • the fixation position by the external fixation light source may be the same as the fixation position of the eye E using the LCD 39.
  • a movable fixation target can be generated by selectively turning on a plurality of external fixation light sources.
  • the movable fixation target can be generated by one or more movable external fixation light sources.
  • the alignment optical system 50 generates an alignment index used for alignment of the optical system with the eye E to be inspected.
  • the alignment light output from the LED 51 passes through the diaphragms 52 and 53 and the relay lens 54, is reflected by the dichroic mirror 55, and passes through the hole portion of the perforated mirror 21.
  • the light passing through the hole of the perforated mirror 21 passes through the dichroic mirror 46 and is projected onto the eye E to be inspected by the objective lens 22.
  • the cornea reflected light of the alignment light is guided to the image sensor 35 through the same path as the return light of the observation illumination light. Manual alignment or automatic alignment can be performed based on the received light image (alignment index image).
  • the focus optical system 60 generates a split index used for focus adjustment for the eye E to be inspected.
  • the focus optical system 60 is moved along the optical path (illumination optical path) of the illumination optical system 10 in conjunction with the movement of the imaging focusing lens 31 along the optical path (imaging optical path) of the imaging optical system 30.
  • the reflecting rod 67 can be inserted into and removed from the illumination optical path. When the focus is adjusted, the reflecting surface of the reflecting rod 67 is tilted in the illumination optical path.
  • the focus light output from the LED 61 passes through the relay lens 62, is split into two light beams by the split index plate 63, passes through the two-hole diaphragm 64, is reflected by the mirror 65, and is reflected by the condenser lens 66 by the reflecting rod 67.
  • the image is once formed on the reflection surface of and reflected.
  • the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, is transmitted through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the fundus reflected light of the focus light is guided to the image sensor 35 through the same path as the cornea reflected light of the alignment light.
  • Manual focus or auto focus can be executed based on the received light image (split index image).
  • the dichroic mirror 46 combines the optical path for fundus imaging and the optical path for OCT.
  • the dichroic mirror 46 reflects light in the wavelength band used for OCT and transmits light for fundus imaging.
  • a collimator lens unit 40 In the optical path for OCT (optical path of measurement light), from the OCT unit 100 side to the dichroic mirror 46 side, in order, a collimator lens unit 40, an optical path length changing unit 41, an optical scanner 42, an OCT focusing lens 43, a mirror 44, And a relay lens 45 are provided.
  • the optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the length of the optical path for OCT. This change of the optical path length is used for optical path length correction according to the axial length of the eye, adjustment of the interference state, and the like.
  • the optical path length changing unit 41 includes a corner cube and a mechanism for moving the corner cube.
  • the optical scanner 42 is arranged at a position optically conjugate with the pupil of the eye E to be examined.
  • the optical scanner 42 deflects the measurement light passing through the OCT optical path. That is, the optical scanner 42 deflects the measurement light for scanning the inside of the eye E while changing the scan angle within a predetermined deflection angle range with the pupil (or the vicinity) of the eye E being the scan center position. To do.
  • the optical scanner 42 can deflect the measurement light one-dimensionally or two-dimensionally.
  • the optical scanner 42 includes a galvano scanner that deflects the measurement light in a predetermined deflection direction in a predetermined deflection angle range.
  • the optical scanner 42 includes a first galvanometer scanner and a second galvanometer scanner.
  • the first galvanometer scanner deflects the measurement light so as to scan the imaging region (fundus Ef or anterior segment) in the horizontal direction orthogonal to the optical axis of the OCT optical system 8.
  • the second galvanometer scanner deflects the measurement light deflected by the first galvanometer scanner so as to scan the imaging region in the vertical direction orthogonal to the optical axis of the OCT optical system 8.
  • Examples of scanning modes of the measurement light by the optical scanner 42 include horizontal scan, vertical scan, cross scan, radial scan, circular scan, concentric circle scan, and spiral scan.
  • the OCT focusing lens 43 is moved along the optical path of the measurement light in order to adjust the focus of the OCT optical system.
  • the OCT focusing lens 43 includes a first lens position for arranging the focal position of the measurement light at the fundus Ef of the eye E or its vicinity, and a first lens position for making the measurement light with which the eye E is irradiated parallel rays. It is possible to move in a moving range including two lens positions.
  • the movement of the imaging focusing lens 31, the movement of the focusing optical system 60, and the movement of the OCT focusing lens 43 can be controlled in a coordinated manner.
  • FIG. 2 shows an example of the configuration of the OCT unit 100.
  • the OCT unit 100 is provided with an optical system for acquiring an OCT image of the eye E to be inspected.
  • This optical system splits light from a wavelength-swept (wavelength scanning) light source into measurement light and reference light, and causes return light of the measurement light from the eye E to interfere with reference light passing through the reference optical path.
  • the detection result (detection signal) of the interference light by the interference optical system is an interference signal indicating the spectrum of the interference light and is sent to the arithmetic and control unit 200.
  • the light source unit 101 is configured to include a wavelength sweep type (wavelength scanning type) light source capable of sweeping (scanning) the wavelength of emitted light, similarly to a general swept source type ophthalmic apparatus.
  • the wavelength-swept light source includes a laser light source including a resonator.
  • the light source unit 101 temporally changes the output wavelength in the near-infrared wavelength band that cannot be visually recognized by the human eye.
  • the light L0 output from the light source unit 101 is guided to the polarization controller 103 by the optical fiber 102 and the polarization state thereof is adjusted.
  • the polarization controller 103 adjusts the polarization state of the light L0 guided in the optical fiber 102 by externally applying stress to the looped optical fiber 102.
  • the light L0 whose polarization state is adjusted by the polarization controller 103 is guided to the fiber coupler 105 by the optical fiber 104 and split into the measurement light LS and the reference light LR.
  • the reference light LR is guided to the collimator 111 by the optical fiber 110, converted into a parallel light flux, and guided to the optical path length changing unit 114 via the optical path length correction member 112 and the dispersion compensation member 113.
  • the optical path length correction member 112 acts to match the optical path length of the reference light LR and the optical path length of the measurement light LS.
  • the dispersion compensating member 113 acts to match the dispersion characteristics between the reference light LR and the measurement light LS.
  • the optical path length changing unit 114 is movable in the direction of the arrow shown in FIG. 2 and changes the optical path length of the reference light LR. This movement changes the length of the optical path of the reference light LR.
  • the change of the optical path length is used for correction of the optical path length according to the axial length of the eye E to be inspected, adjustment of the interference state, and the like.
  • the optical path length changing unit 114 includes, for example, a corner cube and a moving mechanism that moves the corner cube. In this case, the corner cube of the optical path length changing unit 114 turns the traveling direction of the reference light LR, which is a parallel light flux by the collimator 111, in the opposite direction.
  • the optical path of the reference light LR that enters the corner cube and the optical path of the reference light LR that exits the corner cube are parallel.
  • the reference light LR passing through the optical path length changing unit 114 passes through the dispersion compensating member 113 and the optical path length correcting member 112, is converted from a parallel light flux into a focused light flux by the collimator 116, and is incident on the optical fiber 117.
  • the reference light LR that has entered the optical fiber 117 is guided to the polarization controller 118 and its polarization state is adjusted.
  • the polarization controller 118 has the same configuration as the polarization controller 103, for example.
  • the reference light LR whose polarization state is adjusted by the polarization controller 118 is guided to the attenuator 120 by the optical fiber 119, and the light amount is adjusted under the control of the arithmetic and control unit 200.
  • the reference light LR whose light amount is adjusted by the attenuator 120 is guided to the fiber coupler 122 by the optical fiber 121.
  • the optical path length changing unit 41 for changing the length of the optical path of the measurement light LS (measurement optical path, measurement arm) and the optical path of the reference light LR (reference optical path, reference Both optical path length changing units 114 for changing the length of the arm are provided.
  • the optical path length changing units 41 and 114 may be provided. Further, it is possible to change the difference between the reference optical path length and the measurement optical path length by using an optical member other than these.
  • the measurement light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and is collimated by the collimator lens unit 40.
  • the measurement light LS made into a parallel light flux is guided to the dichroic mirror 46 via the optical path length changing unit 41, the optical scanner 42, the OCT focusing lens 43, the mirror 44, and the relay lens 45.
  • the measurement light LS guided to the dichroic mirror 46 is reflected by the dichroic mirror 46, refracted by the objective lens 22, and irradiated onto the eye E to be inspected.
  • the measurement light LS is scattered (including reflection) at various depth positions of the eye E to be inspected.
  • Return light of the measurement light LS including such backscattered light travels in the same path as the forward path in the opposite direction, is guided to the fiber coupler 105, and reaches the fiber coupler 122 via the optical fiber 128.
  • the fiber coupler 122 synthesizes (interferes) the measurement light LS incident via the optical fiber 128 and the reference light LR incident via the optical fiber 121 to generate interference light.
  • the fiber coupler 122 splits the interference light of the measurement light LS and the reference light LR at a predetermined splitting ratio (for example, 1:1) to generate a pair of interference light LC.
  • the pair of interference lights LC emitted from the fiber coupler 122 are guided to the detector 125 by the optical fibers 123 and 124, respectively.
  • the detector 125 is, for example, a balanced photodiode (Balanced Photo Diode) that has a pair of photo detectors that detect a pair of interference light LC, respectively, and outputs the difference between the detection results of these detectors.
  • the detector 125 sends the detection result (interference signal) to the DAQ (Data Acquisition System) 130.
  • the clock KC is supplied from the light source unit 101 to the DAQ 130.
  • the clock KC is generated in the light source unit 101 in synchronization with the output timing of each wavelength swept (scanned) within a predetermined wavelength range by the wavelength swept light source.
  • the light source unit 101 optically delays one of the two branched lights obtained by branching the light L0 of each output wavelength, and then determines the clock KC based on the result of detecting the combined light.
  • the DAQ 130 samples the detection result of the detector 125 based on the clock KC.
  • the DAQ 130 sends the sampled detection result of the detector 125 to the arithmetic and control unit 200.
  • the arithmetic and control unit 200 performs a Fourier transform or the like on the spectral distribution based on the detection result obtained by the detector 125, for example, for each series of wavelength scanning (for each A line) to obtain the reflection intensity profile at each A line.
  • the arithmetic and control unit 200 forms image data by imaging the reflection intensity profile of each A line.
  • the arithmetic and control unit 200 analyzes the detection signal input from the DAQ 130 and forms an OCT image or scan data of the fundus oculi Ef (or the anterior segment Ea).
  • the calculation processing therefor is similar to that of the conventional swept source type OCT apparatus.
  • the arithmetic and control unit 200 also controls the respective units of the fundus camera unit 2, the display device 3, and the OCT unit 100.
  • the arithmetic control unit 200 controls the operation of the observation light source 11, the imaging light source 15, and the LEDs 51 and 61, the operation of the LCD 39, the movement control of the imaging focusing lens 31, and the OCT focusing lens 43.
  • the movement control, the movement control of the reflection rod 67, the movement control of the focus optical system 60, the movement control of the optical path length changing unit 41, the operation control of the optical scanner 42, and the like are performed.
  • the arithmetic and control unit 200 causes the display device 3 to display the OCT image of the eye E to be inspected.
  • the arithmetic control unit 200 controls the operation of the light source unit 101, the movement control of the optical path length changing unit 114, the operation control of the attenuator 120, the operation control of the polarization controllers 103 and 118, and the operation of the detector 125.
  • the control and the operation control of the DAQ 130 are performed.
  • the arithmetic and control unit 200 is configured to include, for example, a processor, a RAM, a ROM, a hard disk drive, a communication interface, and the like, like a conventional computer.
  • a computer program for controlling the ophthalmologic apparatus 1 is stored in a storage device such as a hard disk drive.
  • the arithmetic and control unit 200 may include various circuit boards, for example, a circuit board for forming an OCT image. Further, the arithmetic and control unit 200 may include an operation device (input device) such as a keyboard and a mouse, and a display device such as an LCD.
  • the fundus camera unit 2, the display device 3, the OCT unit 100, and the arithmetic and control unit 200 may be integrally configured (that is, in a single housing) or configured separately in two or more housings. It may have been done.
  • Control system 3 and 4 show configuration examples of the control system of the ophthalmologic apparatus 1. 3 and 4, some of the components included in the ophthalmologic apparatus 1 are omitted.
  • the control unit 210 executes various controls.
  • the control unit 210 includes a main control unit 211 and a storage unit 212.
  • the main control unit 211 includes a processor and controls each unit of the ophthalmologic apparatus 1.
  • the main control unit 211 includes the focusing drive units 31A and 43A of the fundus camera unit 2, the image sensors 35 and 38, the LCD 39, the optical path length changing unit 41, the optical scanner 42, and the moving mechanism 150 that moves the optical system. Control. Further, the main control unit 211 controls the light source unit 101, the optical path length changing unit 114, the attenuator 120, the polarization controllers 103 and 118, the detector 125, the DAQ 130, and the like of the OCT unit 100.
  • the main control unit 211 displays a fixation target at a position on the screen of the LCD 39 corresponding to the fixation position manually or automatically set. Further, the main control unit 211 can change (continuously or stepwise) the display position of the fixation target displayed on the LCD 39. Thereby, the fixation target can be moved (that is, the fixation position can be changed). The display position and movement mode of the fixation target are set manually or automatically. Manual setting is performed using, for example, a GUI. The automatic setting is performed by the data processing unit 230, for example.
  • the focusing drive unit 31A moves the photographing focusing lens 31 in the optical axis direction of the photographing optical system 30 and moves the focusing optical system 60 in the optical axis direction of the illumination optical system 10. As a result, the focus position of the photographing optical system 30 is changed.
  • the focusing drive unit 31A may individually have a mechanism for moving the photographing focusing lens 31 and a mechanism for moving the focus optical system 60.
  • the focus drive unit 31A is controlled when performing focus adjustment or the like.
  • the focusing drive unit 43A moves the OCT focusing lens 43 in the optical axis direction of the measurement optical path. Thereby, the focus position of the measurement light LS is changed.
  • the focusing position of the measurement light LS can be arranged at the fundus Ef or in the vicinity thereof.
  • the focusing position of the measurement light LS can be arranged at the far point position and the measurement light LS can be made into a parallel light flux.
  • the focus position of the measurement light LS corresponds to the depth position (z position) of the beam waist of the measurement light LS.
  • the moving mechanism 150 moves, for example, at least the fundus camera unit 2 (optical system) three-dimensionally.
  • the moving mechanism 150 includes at least a mechanism for moving the fundus camera unit 2 in the x direction (horizontal direction), a mechanism for moving the y direction (vertical direction), and a z direction (depth direction).
  • the mechanism for moving in the x direction includes, for example, an x stage movable in the x direction and an x moving mechanism for moving the x stage.
  • the mechanism for moving in the y direction includes, for example, a y stage that can move in the y direction, and a y moving mechanism that moves the y stage.
  • the mechanism for moving in the z direction includes, for example, a z stage movable in the z direction and a z moving mechanism for moving the z stage.
  • Each moving mechanism includes an actuator such as a pulse motor, and operates under the control of the main control unit 211.
  • the control for the moving mechanism 150 is used in alignment and tracking. Tracking is to move the optical system of the device in accordance with the eye movement of the eye E to be examined. When tracking is performed, alignment and focus adjustment are performed in advance. The tracking is a function of maintaining a suitable positional relationship in which alignment and focus are achieved by causing the position of the device optical system to follow the eye movement.
  • the moving mechanism 150 is configured to control the optical path length of the reference light (and thus the optical path length difference between the optical path of the measurement light and the optical path of the reference light).
  • the user operates the user interface 240, which will be described later, so that the displacement of the subject's eye E with respect to the optical system is canceled, thereby moving the optical system and the subject's eye E relatively.
  • the main control unit 211 outputs a control signal corresponding to the operation content of the user interface 240 to the moving mechanism 150 to control the moving mechanism 150 to move the optical system and the subject's eye E relatively.
  • the main controller 211 controls the moving mechanism 150 so that the displacement of the eye E with respect to the optical system is canceled, thereby moving the optical system and the eye E relative to each other.
  • the moving mechanism 150 is controlled so that the displacement between the image of the subject's eye E acquired by the imaging optical system 30 and the reference position of the optical system is canceled.
  • the main control unit 211 controls the optical system so that the optical axis of the optical system substantially coincides with the axis of the eye E and that the distance of the optical system with respect to the eye E is a predetermined working distance. Is output to the moving mechanism 150 to control the moving mechanism 150 to relatively move the optical system and the eye E to be inspected.
  • the working distance is a predetermined value which is also called a working distance of the objective lens 22, and corresponds to a distance between the eye E to be inspected and the optical system at the time of measurement (imaging) using the optical system.
  • the main controller 211 controls fundus imaging and anterior ocular segment imaging by controlling the fundus camera unit 2 and the like.
  • the main control unit 211 also controls the OCT measurement by controlling the fundus camera unit 2, the OCT unit 100, and the like.
  • the main control unit 211 can execute a plurality of preliminary operations before performing OCT measurement. Preliminary operations include alignment, coarse focus adjustment, polarization adjustment, and fine focus adjustment.
  • the preliminary operations are performed in a predetermined order. In some embodiments, the preliminary operations are performed in the above order.
  • preliminary operations are not limited to this, and are arbitrary.
  • a preliminary operation small pupil determination
  • the small pupil determination is executed, for example, between the coarse focus adjustment and the optical path length difference adjustment.
  • the small pupil determination includes the following series of processes: a process of acquiring a front image (anterior segment image) of the eye E to be examined; a process of identifying an image region corresponding to a pupil; Processing for determining the size (diameter, circumference, etc.) of the pupil region; processing for determining whether or not the pupil area is a small pupil eye based on the obtained size (threshold processing); The process to control. Some embodiments further include the process of circular or elliptic approximation of the pupil region to determine the pupil size.
  • Rough focus adjustment is focus adjustment using the split index.
  • the position of the imaging focusing lens 31 based on the information in which the eye refractive power and the position of the imaging focusing lens 31 that are acquired in advance are associated with each other, and the measured value of the refractive power of the eye E to be examined, It is also possible to perform coarse focus adjustment.
  • Fine focus adjustment is performed based on the interference sensitivity of OCT measurement. For example, by monitoring the interference intensity (interference sensitivity) of the interference signal acquired by the OCT measurement of the eye E, the position of the OCT focusing lens 43 that maximizes the interference intensity is obtained, and the OCT focusing lens 43 is located at that position. By moving the focusing lens 43, fine focus adjustment can be performed.
  • the predetermined position on the eye E to be inspected is controlled to be the reference position of the measurement range in the depth direction.
  • This control is performed on at least one of the optical path length changing units 41 and 114.
  • the optical path length difference between the measurement optical path and the reference optical path is adjusted.
  • the polarization state of the reference light LR is adjusted in order to optimize the interference efficiency between the measurement light LS and the reference light LR.
  • the storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include image data of an OCT image, image data of a fundus image, scan data, image data of an anterior segment image, and eye information.
  • the eye information includes information about the subject such as a patient ID and name, and information about the eye such as left/right eye identification information.
  • the storage unit 212 stores an eyeball parameter 212A.
  • the eyeball parameter 212A includes a parameter (standard value) defined by a known eyeball model such as a Gullstrand model eye.
  • the eyeball parameter 212A includes a parameter in which at least one of the parameters defined by a known eyeball model is replaced with the measurement value of the eye E to be examined.
  • the eyeball parameter 212A is meant to include a parameter representing the optical characteristics of the eye E to be examined.
  • the measurement values include the axial length, corneal thickness, radius of curvature of the anterior surface of the cornea, radius of curvature of the posterior surface of the cornea, anterior chamber depth, radius of curvature of the anterior lens, lens thickness, radius of curvature of the posterior surface of the lens, vitreous cavity length, retina thickness, There is a choroidal thickness.
  • the measurements are obtained by analyzing OCT data obtained from OCT measurements.
  • the eyeball parameter 212A may include a parameter designated by the operation unit 240B described later.
  • the storage unit 212 stores various programs and data for operating the ophthalmologic apparatus 1.
  • the image forming unit 220 forms a reflection intensity profile on the A line by performing signal processing such as Fourier transform on the sampling data obtained by sampling the detection signal from the detector 125 with the DAQ 130.
  • the signal processing includes noise removal (noise reduction), filter processing, FFT (Fast Fourier Transform), and the like.
  • the reflection intensity profile on the A line is an example of A scan data.
  • the image forming unit 220 forms a reflection intensity profile for each A line, and arranges the formed plurality of reflection intensity profiles in the B scan direction (direction intersecting the A scan direction) to obtain B scan data (two-dimensional scan). Data) can be formed.
  • the image forming unit 220 uses a plurality of reflection intensity profiles formed for each A line in the B scan direction (for example, the x direction) and the A scan direction.
  • Three-dimensional scan data is formed by arranging in a direction intersecting the B scan direction (for example, the y direction).
  • the image forming unit 220 can form an A scan image (OCT image, image data) of the eye E by imaging the reflection intensity profile on the A line.
  • the image forming unit 220 can form a B scan image by arranging a plurality of A scan images formed for each A line in the B scan direction (direction intersecting with the A scan direction).
  • the image forming unit 220 extracts data at a predetermined depth position (scan position) in each A scan data, and extracts the plurality of extracted data from the B scan direction (direction crossing the A scan direction). ) To form C scan data. In some embodiments, the image forming unit 220 extracts a pixel at a predetermined depth position (scan position) in each A-scan image, and extracts the plurality of extracted pixels in the B-scan direction (intersection direction of the A-scan direction). ) To form a C-scan image.
  • the functions of the image forming unit 220 are realized by a processor.
  • image data may be equated with “image” based on it.
  • the data processing unit 230 processes the data acquired by the imaging of the eye E to be inspected or the OCT measurement.
  • the data processing unit 230 performs various kinds of image processing and analysis processing on the image formed by the image forming unit 220.
  • the data processing unit 230 executes various correction processes such as image brightness correction.
  • the data processing unit 230 performs various image processing and analysis processing on the image (fundus image, anterior segment image, etc.) obtained by the fundus camera unit 2.
  • the data processing unit 230 executes known image processing such as interpolation processing for interpolating pixels between tomographic images to form image data of a three-dimensional image of the fundus oculi Ef.
  • the image data of the three-dimensional image means image data in which the pixel position is defined by the three-dimensional coordinate system.
  • Image data of a three-dimensional image includes image data composed of voxels arranged three-dimensionally. This image data is called volume data or voxel data.
  • rendering processing volume rendering, MIP (Maximum Intensity Projection: maximum value projection), etc.
  • Image data of a pseudo three-dimensional image at the time of being formed is formed. This pseudo three-dimensional image is displayed on a display device such as the display unit 240A.
  • the stack data is image data obtained by arranging a plurality of tomographic images obtained along a plurality of scan lines three-dimensionally based on the positional relationship of the scan lines. That is, the stack data is image data obtained by expressing a plurality of tomographic images originally defined by individual two-dimensional coordinate systems in one three-dimensional coordinate system (that is, embedding in one three-dimensional space). is there.
  • the data processing unit 230 performs various renderings on the acquired three-dimensional data set (volume data, stack data, etc.) to obtain a B-mode image (longitudinal cross-sectional image, axial cross-sectional image) at an arbitrary cross section and an arbitrary cross section. It is possible to form a C-mode image (transverse sectional image, horizontal sectional image), projection image, shadowgram and the like.
  • An image of an arbitrary cross section such as a B mode image or a C mode image is formed by selecting pixels (pixels, voxels) on a specified cross section from a three-dimensional data set.
  • the projection image is formed by projecting the three-dimensional data set in a predetermined direction (z direction, depth direction, axial direction).
  • the shadowgram is formed by projecting a part of the three-dimensional data set (for example, partial data corresponding to a specific layer) in a predetermined direction.
  • Images such as C-mode images, projection images, and shadowgrams whose viewpoint is the front side of the subject's eye are called front images (en-face images).
  • the data processing unit 230 based on the data collected in time series by OCT (for example, B scan image data), a B-mode image or front image (blood vessel emphasized image, angiogram) in which a retinal blood vessel or choroidal blood vessel is emphasized. Can be built.
  • OCT for example, B scan image data
  • a B-mode image or front image blood vessel emphasized image, angiogram
  • time-sequential OCT data can be collected by repeatedly scanning substantially the same region of the eye E to be inspected.
  • the data processing unit 230 compares the time-series B-scan images obtained by the B-scan for substantially the same region, and sets the pixel value of the changing portion of the signal intensity to the pixel value corresponding to the changing portion. By performing the conversion, the emphasized image in which the changed portion is emphasized is constructed. Furthermore, the data processing unit 230 forms an OCTA image by extracting information of a predetermined thickness in a desired region from the plurality of constructed emphasized images and constructing it as an en-face image.
  • Images for example, three-dimensional images, B-mode images, C-mode images, projection images, shadowgrams, OCTA images
  • OCT images generated by the data processing unit 230 are also included in the OCT images.
  • the data processing unit 230 analyzes the detection result of the interference light obtained by the OCT measurement and determines the focus state of the measurement light LS in the focus fine adjustment control.
  • the main control unit 211 controls the focus drive unit 43A according to a predetermined algorithm and performs repetitive OCT measurement.
  • the data processing unit 230 calculates a predetermined evaluation value regarding the image quality of the OCT image by analyzing the detection result of the interference light LC repeatedly acquired by the OCT measurement.
  • the data processing unit 230 determines whether the calculated evaluation value is less than or equal to the threshold value. In some embodiments, the focus fine adjustment is continued until the calculated evaluation value is equal to or less than the threshold value. That is, when the evaluation value is equal to or less than the threshold value, it is determined that the focus state of the measurement light LS is proper, and the fine focus adjustment is continued until it is determined that the focus state of the measurement light LS is proper.
  • the main control unit 211 monitors the intensity (interference intensity, interference sensitivity) of the interference signals sequentially acquired while performing the above-described repetitive OCT measurement to acquire the interference signals. To do. Furthermore, the position of the OCT focusing lens 43 that maximizes the interference intensity is searched for by moving the OCT focusing lens 43 while performing this monitoring process. With such focus fine adjustment, the OCT focusing lens 43 can be guided to a position where the interference intensity is optimized.
  • the data processing unit 230 analyzes the detection result of the interference light obtained by the OCT measurement, and determines the polarization state of at least one of the measurement light LS and the reference light LR.
  • the main control unit 211 performs repetitive OCT measurement while controlling at least one of the polarization controllers 103 and 118 according to a predetermined algorithm.
  • the main controller 211 controls the attenuator 120 to change the attenuation amount of the reference light LR.
  • the data processing unit 230 calculates a predetermined evaluation value regarding the image quality of the OCT image by analyzing the detection result of the interference light LC repeatedly acquired by the OCT measurement.
  • the data processing unit 230 determines whether the calculated evaluation value is less than or equal to the threshold value.
  • This threshold is set in advance. The polarization adjustment is continued until the calculated evaluation value becomes equal to or less than the threshold value. That is, when the evaluation value is equal to or less than the threshold value, it is determined that the polarization state of the measurement light LS is proper, and the polarization adjustment is continued until it is determined that the polarization state of the measurement light LS is proper.
  • the main control unit 211 can monitor the interference intensity even in polarization adjustment.
  • the data processing unit 230 performs a predetermined analysis process on the detection result of the interference light obtained by the OCT measurement or the OCT image formed based on the detection result.
  • a predetermined region tissue, lesion
  • the predetermined tissues include blood vessels, optic discs, fovea, and macula.
  • the prescribed lesion includes vitiligo, bleeding, and the like.
  • the data processing unit 230 performs coordinate conversion of pixel positions in the OCT image or scan positions in the scan data so that the intraocular region in the acquired OCT image (or scan data) is drawn in an actual shape. Further, the data processing unit 230 can obtain the distance between the predetermined parts of the eye using the OCT image or the scan data after the coordinate conversion.
  • FIG. 5 and 6 are explanatory diagrams of a comparative example of the embodiment.
  • FIG. 5 schematically shows the path of the measurement light that enters the eye E to be inspected.
  • FIG. 6 shows an example of a tomographic image obtained by scanning with the measurement light incident on the eye E to be inspected along the path shown in FIG.
  • the measurement light deflected by the optical scanner 42 enters the pupil of the eye E to be inspected at various incident angles as the scan center position, as shown in FIG.
  • the measurement light that has entered the eye E to be inspected is projected toward each part in the eye around the scan center position Cs set at the center of the pupil, for example.
  • An A scan image is formed from the interference data obtained using the measurement light LS1 in FIG. 5, and an A scan image is formed from the interference data obtained using the measurement light LS2, and obtained using the measurement light LS3.
  • An A-scan image is formed from the interference data.
  • the tomographic image IMG0 of the fundus shown in FIG. 6 is formed by arranging the plurality of A-scan images thus formed.
  • the A-scan direction changes within the scan angle range centered on the scan center position Cs, and the shape of the region is deformed in the tomographic image in which the obtained A-scan images are arranged in the lateral direction.
  • the morphological information indicating the morphology of the eye E to be inspected is obtained from the position of an arbitrary pixel in the tomographic image.
  • Such morphological information includes intraocular distance (including distance between layer areas), area of area, area volume, area perimeter, direction of site with respect to reference position, angle of site with respect to reference direction, site of site, The radius of curvature and the like are included.
  • the intraocular distance as the morphological information can be obtained by measuring the distance between any two points in the tomographic image.
  • the distance between the two points is specified by the number of pixels in the tomographic image, and is measured by multiplying the specified number of pixels by the device-specific pixel size.
  • the same pixel size is adopted for all the pixels in the tomographic image.
  • the horizontal pixel size of the tomographic image differs depending on the depth position in the scan direction.
  • the scan length of the B scan is about 13% between the upper part and the lower part of the tomographic image.
  • the depth range is 10 [mm], a difference of about 50% occurs.
  • the data processing unit 230 performs coordinate conversion of the pixel position in the acquired OCT image or the scan position in the scan data.
  • the intraocular distance will be described as an example of the morphological information indicating the morphology of the eye E.
  • Such a data processing unit 230 includes a position specifying unit 231, a position converting unit 232, an interpolating unit 233, and an intraocular distance calculating unit 234.
  • the position specifying unit 231 specifies a conversion position corresponding to the pixel position (or the scan position in the scan data) in the acquired OCT image and along the traveling direction of the measurement light passing through the scan center position Cs.
  • the position specifying unit 231 uses the eyeball parameter 212A for the conversion position specifying process.
  • FIG. 7 shows an operation explanatory diagram of the position identifying unit 231 according to the embodiment. 7, the same parts as those in FIG. 5 are designated by the same reference numerals, and the description thereof will be appropriately omitted.
  • the scan angle is ⁇
  • the scan radius is r
  • the depth range in which OCT measurement is possible is d
  • the length of the tomographic image in the depth direction is h
  • the lateral length of the tomographic image is w.
  • the scan angle ⁇ corresponds to the deflection angle of the measurement light LS around the scan center position Cs.
  • the scan radius r corresponds to the distance from the scan center position Cs to the zero optical path length position where the measurement optical path length and the reference optical path length are substantially equal.
  • the depth range d is a device-specific value (known) that is uniquely determined by the optical design of the device.
  • the position specifying unit 231 specifies the conversion position (X, Z) in the second coordinate system from the pixel position (x, z) in the first coordinate system.
  • the first coordinate system has an x-coordinate axis whose origin is at the upper left coordinate position in the OCT image (B-scan image), and an x-coordinate axis whose x-direction is the B-scan direction, and a z-coordinate axis whose z-direction is the A-scan direction orthogonal to the x-coordinate axis. Is defined by The pixel position (x, z) in the OCT image is defined in the first coordinate system.
  • the second coordinate system is a Z coordinate axis (for example, a second axis) whose Z direction is the traveling direction of the measurement light LS having a scan angle of 0 degrees with respect to the measurement optical axis passing through a predetermined portion (for example, fovea centralis) of the fundus Ef.
  • a predetermined portion for example, fovea centralis
  • an X coordinate axis for example, a first axis
  • the predetermined Z position is set as the origin of the Z coordinate axis so that the position of the scan radius r becomes the deepest part in the measurement optical axis passing through the predetermined portion (for example, the fovea centralis).
  • a predetermined X position on the measurement optical axis that passes through a predetermined portion is set as the origin of the X coordinate axis so as to have a predetermined depth direction length d as described below.
  • the conversion position (X, Z) is defined in the second coordinate system.
  • the conversion position (X, Z) corresponds to the pixel position (x, z) and is a position along the traveling direction (A scan direction) of the measurement light LS passing through the scan center position Cs.
  • the position specifying unit 231 determines the conversion position (X, Z) based on the scan radius r in the A scan direction, the scan angle ⁇ , the OCT measurable depth range d, and the pixel position (x, z) for the OCT image. Z) is specified.
  • the position specifying unit 231 can specify at least one of the X component (component in the first axis direction) and the Z component (component in the second axis direction) of the converted position.
  • a conversion position (X, Z) corresponding to a pixel position (x, z) in the nth (n is a natural number) A scan line are specified as shown in equations (1) and (2).
  • the length h in the depth direction, the length w in the horizontal direction, and the x component of the pixel position of the OCT image are expressed by Expressions (3) to (5).
  • the position specifying unit 231 can specify the conversion position (X, Z) from the pixel position (x, z) based on the scan radius r, the scan angle ⁇ , and the depth range d.
  • the position identifying unit 231 uses the scan radius r, the scan angle ⁇ , the OCT-measurable depth range d, and the scan position for the scan data in the same manner as described above. It is possible to specify the conversion position (X, Z) based on
  • the scan radius r is specified by analyzing the detection result of the interference light LC obtained by the OCT optical system 8. Accordingly, it is possible to specify the conversion position (X, Z) that more accurately reflects the eyeball optical characteristics of the eye E to be inspected.
  • the position specifying unit 231 specifies the scan angle ⁇ by performing a ray tracing process on the measurement light LS based on the corneal shape information of the eye E to be inspected.
  • the corneal shape information includes the radius of curvature of the cornea (the radius of curvature of the anterior surface of the cornea, the radius of curvature of the posterior surface of the cornea), the corneal thickness, and the like. Accordingly, it is possible to specify the conversion position (X, Z) that more accurately reflects the eyeball optical characteristics of the eye E to be inspected.
  • the position conversion unit 232 converts the pixel position (x, z) of the OCT image into the conversion position (X, Z) specified by the position specifying unit 231.
  • the position specifying unit 231 specifies the conversion position for each of all the pixel positions of the OCT image, and the position conversion unit 232 converts the pixel position into the conversion position.
  • the interpolation unit 233 interpolates pixels between the conversion positions. For example, as described above, the pixel position is converted into the conversion position according to the distance from the scan center position Cs, and the interval between adjacent A scan images changes.
  • the interpolation unit 233 interpolates pixels between A scan images using pixels of A scan images that are adjacent to each other according to the depth position of the A scan images.
  • a known method such as a nearest neighbor method, a bilinear interpolation method, or a bicubic interpolation method can be adopted.
  • the interpolation unit 233 interpolates pixels between adjacent A-scan images according to the distance from the scan center position Cs. For example, the interpolation unit 233 changes the interpolation processing method according to the distance from the scan center position Cs to interpolate pixels between adjacent A scan images.
  • the scan data is interpolated in the same manner as described above with respect to the scan position in the scan data.
  • the intraocular distance calculation unit 234 calculates the intraocular distance of the eye E to be inspected based on the OCT image in which the pixel position is converted into the conversion position by the position conversion unit 232.
  • the intraocular distance calculation unit 234 obtains the intraocular distance between predetermined parts of the eye E to be examined based on the OCT image converted by the position conversion unit 232. For example, the intraocular distance calculation unit 234 identifies a predetermined site in the eye by analyzing the converted OCT image, and obtains the intraocular distance based on the distance between the specified sites. The distance between the two points is specified by the number of pixels in the tomographic image, and is measured by multiplying the specified number of pixels by the device-specific pixel size. At this time, the same pixel size is adopted for all the pixels in the tomographic image.
  • the intraocular distance between predetermined parts includes the distance between specified parts (tissues and layer areas), the axial length of the eye, and the distance from the scan center position of the measurement light set at the pupil center to the retina. There is.
  • the intraocular distance calculation unit 234 calculates the axial length based on the distance from the part corresponding to the corneal apex to the part corresponding to the retina.
  • the intraocular distance calculation unit 234 calculates the intraocular distance of the eye E to be inspected in the same manner as above based on the scan data in which the scan position is converted into the conversion position by the position conversion unit 232. To do.
  • the data processing unit 230 that functions as described above is configured to include, for example, the above-mentioned processor, RAM, ROM, hard disk drive, circuit board, and the like.
  • a storage device such as a hard disk drive stores in advance a computer program that causes a processor to execute the above functions.
  • the user interface 240 includes a display unit 240A and an operation unit 240B.
  • the display unit 240A includes the display device of the arithmetic and control unit 200 and the display device 3 described above.
  • the operation unit 240B includes the operation device of the arithmetic and control unit 200 described above.
  • the operation unit 240B may include various buttons and keys provided on the housing of the ophthalmologic apparatus 1 or outside.
  • the operation unit 240B may include a joystick, an operation panel, or the like provided in this housing.
  • the display unit 240A may include various display devices such as a touch panel provided in the housing of the fundus camera unit 2.
  • the display unit 240A and the operation unit 240B do not have to be configured as separate devices.
  • a device such as a touch panel in which a display function and an operation function are integrated can be used.
  • the operation unit 240B is configured to include this touch panel and a computer program.
  • the operation content of the operation unit 240B is input to the control unit 210 as an electric signal. Further, an operation or information input may be performed using the graphical user interface (GUI) displayed on the display unit 240A and the operation unit 240B.
  • GUI graphical user interface
  • An optical system in the path from the interference optical system included in the OCT unit 100 to the objective lens 22, or the optical system and the image forming unit 220 acquire a plurality of A scan images or a plurality of A scan data by using OCT. It is an example of an "acquisition part" which concerns on a form.
  • FIGS. 10 and 11 show an operation example of the ophthalmologic apparatus 1 according to the embodiment.
  • 10 and 11 show flowcharts of an operation example of the ophthalmologic apparatus 1 according to the embodiment.
  • FIG. 11 shows a flowchart of an operation example of step S7 of FIG.
  • the storage unit 212 stores a computer program for implementing the processing shown in FIGS. 10 and 11.
  • the main control unit 211 operates according to this computer program to execute the processing shown in FIGS. 10 and 11.
  • the main control unit 211 executes alignment.
  • the main control unit 211 controls the alignment optical system 50 to project the alignment index on the eye E to be inspected.
  • the fixation target by the LCD 39 is also projected onto the eye E to be examined.
  • the main control unit 211 controls the moving mechanism 150 based on the amount of movement of the optical system specified based on the received light image acquired by the image sensor 35, for example, and moves the optical system relative to the eye E to be examined by the amount of movement. Move relatively.
  • the main control unit 211 repeatedly executes this process.
  • the above-mentioned rough alignment adjustment and fine alignment adjustment are performed after the completion of the alignment in step S1.
  • the main control unit 211 displays a fixation target for OCT measurement at a predetermined position on the LCD 39.
  • the main control unit 211 can display the fixation target at the display position of the LCD 39 corresponding to the position of the optical axis of the optical system on the fundus Ef.
  • the main control unit 211 controls the OCT unit 100 to execute OCT temporary measurement, and acquires an adjustment tomographic image for adjusting the reference position of the measurement range in the depth direction. Specifically, the main control unit 211 controls the optical scanner 42 to deflect the measurement light LS generated based on the light L0 emitted from the light source unit 101, and to receive the deflected measurement light LS. A predetermined part (for example, fundus) of the optometry E is scanned. The detection result of the interference light obtained by the scanning of the measurement light LS is sampled in synchronization with the clock KC, and then sent to the image forming unit 220. The image forming unit 220 forms a tomographic image (OCT image) of the eye E from the obtained interference signal.
  • OCT image tomographic image
  • the main control unit 211 causes the data processing unit 230 to specify a predetermined site (for example, the sclera) in the tomographic image obtained in step S2, and moves the depth direction with respect to the position of the specified predetermined site.
  • a position separated by a predetermined distance is set as a reference position of the measurement range.
  • the main control unit 211 controls at least one of the optical path length changing units 41 and 114 corresponding to the reference position.
  • a predetermined position that is determined in advance so that the optical path lengths of the measurement light LS and the reference light LR are substantially the same may be set as the reference position of the measurement range.
  • the main control unit 211 controls the focusing drive unit 43A to move the OCT focusing lens 43 by a predetermined distance, and then controls the OCT unit 100 to execute OCT measurement.
  • the main control unit 211 causes the data processing unit 230 to determine the focus state of the measurement light LS based on the detection result of the interference light obtained by the OCT measurement.
  • the main control unit 211 controls the focus drive unit 43A again, and the focus state is appropriate. Repeat until judged.
  • the main control unit 211 controls at least one of the polarization controllers 103 and 118 to change the polarization state of at least one of the light L0 and the measurement light LS by a predetermined amount, and then controls the OCT unit 100. Then, the OCT measurement is performed, and the image forming unit 220 is caused to form an OCT image based on the acquired detection result of the interference light. As described above, the main control unit 211 causes the data processing unit 230 to determine the image quality of the OCT image obtained by the OCT measurement.
  • the main control unit 211 controls the polarization controllers 103 and 118 again, and the polarization state is appropriate. Repeat until it is determined that
  • the main control unit 211 controls the OCT unit 100 to execute the OCT measurement.
  • the detection result of the interference light obtained by the OCT measurement is sampled by the DAQ 130 and stored in the storage unit 212 or the like as an interference signal.
  • the main control unit 211 causes the image forming unit 220 to form a data set group of A scan image data of the eye E to be inspected based on the interference signal acquired in step S5.
  • the image forming unit 220 forms the tomographic image as shown in FIG. 6 by arranging the formed A scan images in the B scan direction.
  • the main control unit 211 uses the eyeball parameter 212A stored in the storage unit 212 to correct the tomographic image formed in step S6 as described above. Thereby, as shown in FIG. 9, a tomographic image in which the A scan images are arranged in the A scan direction is acquired.
  • the main control unit 211 displays the newly generated tomographic image (for example, the tomographic image IMG1 shown in FIG. 9) and the tomographic image before correction (for example, the tomographic image IMG0 shown in FIG. 6) on the display unit 240A. It is displayed on the same screen SCR (FIG. 12). Thereby, even if different forms are drawn in the conventional tomographic image by displaying the corrected tomographic image, it becomes easy to compare with the conventional tomographic image in which many image findings are accumulated. ..
  • a tomographic image before correction is displayed according to the measurement site.
  • the tomographic image before correction may be intentionally displayed.
  • step S7 of FIG. 10 the following processing is executed as shown in FIG.
  • step S7 the main control unit 211 causes the position specifying unit 231 to specify the conversion position corresponding to the pixel position of the tomographic image formed in step S6.
  • the position specifying unit 231 specifies the conversion position corresponding to the pixel position of the tomographic image as described above.
  • the main control unit 211 determines whether there is a pixel position to be converted next.
  • step S11 When it is determined that there is a pixel position to be converted next (S13:Y), the operation of the ophthalmologic apparatus 1 proceeds to step S11. When it is determined that there is no pixel position to be converted next (S13:N), the operation of the ophthalmologic apparatus 1 proceeds to step S14.
  • steps S11 to S13 the conversion position is specified and conversion to the specified conversion position is performed for each pixel position of the tomographic image.
  • step S14 Interpolation
  • the main control unit 211 determines the pixels between the adjacent A-scan images converted into conversion positions in step S12.
  • the interpolation unit 233 interpolates.
  • ⁇ Modification> In the above embodiment, the case of correcting a two-dimensional OCT image (or two-dimensional scan data) has been described, but the configuration according to the embodiment is not limited to this.
  • the ophthalmologic apparatus according to the embodiment can correct a three-dimensional OCT image (or three-dimensional scan data) as in the above-described embodiment.
  • an ophthalmologic apparatus according to a modified example of the embodiment will be described focusing on differences from the embodiment.
  • the configuration of the ophthalmologic apparatus according to the modified example of the embodiment is similar to the configuration of the ophthalmologic apparatus 1 according to the embodiment, and thus the description thereof will be omitted.
  • the data processing unit performs processing such as specifying the conversion position in the three-dimensional space.
  • the position specifying unit 231 specifies the conversion position corresponding to the pixel position (or the scan position in the scan data) in the acquired OCT image and along the traveling direction of the measurement light passing through the scan center position Cs. ..
  • the position identifying unit 231 identifies the conversion position using the eyeball parameter 212A.
  • FIG. 13 shows an operation explanatory diagram of the position specifying unit 231 according to this modification.
  • the same parts as those in FIG. 13 are same parts as those in FIG. 13
  • a Y plane is defined in addition to the X plane and Z plane in FIG. 7.
  • the central angle in the C-scan direction is ⁇ and the length in the C-scan direction is lc.
  • the position specifying unit 231 specifies the conversion position (X, Y, Z) in the fourth coordinate system from the pixel position (x, y, z) in the third coordinate system.
  • the third coordinate system has an origin at the coordinate position of the upper left corner in the three-dimensional OCT image, an x coordinate axis having the B scan direction as the x direction, and ay coordinate axis having the C scan direction as the y direction orthogonal to the x coordinate axis. It is defined by az coordinate axis that is orthogonal to both the x coordinate axis and the y coordinate axis and has the A scan direction as the z direction.
  • the pixel position (x, y, z) in the OCT image is defined in the third coordinate system.
  • the fourth coordinate system has a Z coordinate axis having the Z direction as the traveling direction of the measurement light LS having a scan angle of 0 degrees with respect to the measurement optical axis passing through a predetermined portion (for example, fovea) in the fundus Ef, and Z at the predetermined portion. It is defined by an X coordinate axis having a B scan direction orthogonal to the coordinate axis as an X direction and a Y coordinate axis having a C scan direction orthogonal to the Z coordinate axis as a Y direction in the predetermined portion.
  • the predetermined Z position is set as the origin of the Z coordinate axis so that the position of the scan radius r becomes the deepest part in the measurement optical axis passing through the predetermined portion (for example, the fovea centralis).
  • the predetermined X position and Y position on the measurement optical axis passing through the predetermined portion are set as the origins of the X coordinate axis and the Y coordinate axis so that the predetermined depth direction length d is obtained.
  • the conversion position (X, Y, Z) is defined in the fourth coordinate system.
  • the conversion position (X, Y, Z) corresponds to the pixel position (x, y, z) and is a position along the traveling direction (A scan direction) of the measurement light LS passing through the scan center position Cs.
  • the position specifying unit 231 can specify at least one of the X component, Y component, and Z component of the conversion position.
  • the position specifying unit 231 can specify the conversion position (X, Y, Z) from the pixel position (x, y, z) based on the scan radius r, the scan angle ⁇ , and the depth range d. It is possible.
  • the position specifying unit 231 can specify the conversion position (X, Y, Z) with respect to the scan data, as described above.
  • the position conversion unit 232 converts the pixel position (x, y, z) of the OCT image into the conversion position (X, Y, Z) specified by the position specifying unit 231.
  • the position specifying unit 231 specifies the conversion position for each of all the pixel positions of the OCT image, and the position conversion unit 232 converts the pixel position into the conversion position.
  • the ophthalmologic information processing apparatus that realizes the function of the data processing unit 230 illustrated in FIG. 4 may correct the tomographic image with respect to the acquired OCT image (or scan data) as described above.
  • the OCT image (or scan data) is acquired by an external OCT device (ophthalmic device).
  • a program for causing a computer to execute the above ophthalmic information processing is provided.
  • a program can be stored in any computer-readable recording medium (for example, a non-transitory computer medium (Non-transitory computer readable medium)).
  • the recording medium for example, a semiconductor memory, an optical disk, a magneto-optical disk (CD-ROM/DVD-RAM/DVD-ROM/MO, etc.), a magnetic storage medium (hard disk/floppy (registered trademark) disk/ZIP, etc.), etc. Can be used. It is also possible to send and receive this program through a network such as the Internet or LAN.
  • An ophthalmologic information processing apparatus uses the measurement light (LS) that is deflected around the scan center position (Cs) as the inside of the eye (E) to be inspected.
  • the image of the eye to be inspected (OCT image) formed by arranging a plurality of A-scan images obtained by scanning is corrected.
  • the ophthalmologic information processing device includes a specifying unit (position specifying unit 231) and a converting unit (position converting unit 232).
  • the specifying unit specifies the conversion position corresponding to the pixel position in the image and along the traveling direction of the measurement light passing through the scan center position.
  • the conversion unit converts the pixel position into the conversion position specified by the specifying unit.
  • Some embodiments include a calculation unit (intraocular distance calculation unit 234) that calculates morphological information representing the morphology of the eye to be inspected, based on the image in which the pixel position is converted into the converted position by the conversion unit.
  • a calculation unit intraocular distance calculation unit 234.
  • the morphological information includes intraocular distance.
  • the identifying unit is based on a scan radius (r) in a traveling direction, a scan angle ( ⁇ ), a depth range (d) that can be measured by optical coherence tomography, and a pixel position, At least one of the component in the first axis direction (for example, the X axis direction) and the component in the second axis direction (for example, the Z axis direction) that intersects the first axis direction of the conversion position in the predetermined coordinate system is specified.
  • the conversion position is specified by a simple process using the scan radius, the scan angle, the depth range, and the pixel position, and each of the plurality of A scan images is identified based on the specified conversion position. It becomes possible to arrange in the A scan direction.
  • An ophthalmologic information processing apparatus uses the measurement light (LS) that is deflected around the scan center position (Cs) as the inside of the eye (E) to be inspected.
  • the two-dimensional or three-dimensional scan data formed by arranging the plurality of A scan data obtained by scanning is corrected.
  • the ophthalmologic information processing device includes a specifying unit (position specifying unit 231) and a converting unit (position converting unit 232).
  • the specifying unit specifies a conversion position corresponding to the scan position in the scan data and along the traveling direction of the measurement light passing through the scan center position.
  • the conversion unit converts the scan position into the conversion position specified by the specifying unit.
  • Some embodiments include an image forming unit (220) that forms an image (OCT image) of the eye to be inspected based on the scan data in which the scan position is converted into the conversion position by the conversion unit.
  • OCT image an image of the eye to be inspected based on the scan data in which the scan position is converted into the conversion position by the conversion unit.
  • Some embodiments include a calculation unit (intraocular distance calculation unit 234) that calculates morphological information indicating the morphology of the eye to be inspected, based on the scan data in which the scan position is converted into the converted position by the conversion unit.
  • a calculation unit intraocular distance calculation unit 234.
  • the morphological information includes intraocular distance.
  • the identification unit is based on a scan radius (r) in the traveling direction, a scan angle ( ⁇ ), a depth range (d) that can be measured by optical coherence tomography, and a scan position, At least one of the component in the first axis direction (for example, the X axis direction) and the component in the second axis direction (for example, the Z axis direction) that intersects the first axis direction of the conversion position in the predetermined coordinate system is specified.
  • the conversion position is specified by a simple process using the scan radius, the scan angle, the depth range, and the pixel position, and each of the plurality of A scan images is identified based on the specified conversion position. It becomes possible to arrange in the A scan direction.
  • the specifying unit specifies the scan angle by performing a ray tracing process on the measurement light based on the cornea shape information of the eye to be inspected.
  • Some embodiments include an interpolator (233) that interpolates pixels or scan data between conversion positions.
  • the identifying unit identifies the conversion position based on the parameter representing the optical characteristic of the eye to be inspected.
  • An ophthalmologic apparatus (1) includes an acquisition unit that acquires a plurality of A-scan images or A-scan data using optical coherence tomography (from an interference optical system included in the OCT unit 100 to an objective lens).
  • An ophthalmologic information processing method includes a plurality of A's obtained by scanning the inside of the eye (E) with the measurement light (LS) deflected around the scan center position (Cs).
  • the image of the eye to be inspected (OCT image) formed by arranging the scan images is corrected.
  • the ophthalmologic information processing method includes a specifying step and a converting step.
  • the specifying step specifies the conversion position corresponding to the pixel position in the image and along the traveling direction of the measurement light passing through the scan center position.
  • the conversion step converts the pixel position into the conversion position specified in the specification step.
  • Some embodiments include a calculation step of calculating morphological information indicating the morphology of the eye to be inspected, based on the image in which the pixel position is converted into the conversion position in the conversion step.
  • An ophthalmologic information processing method includes a plurality of A's obtained by scanning the inside of the eye (E) with the measurement light (LS) deflected around the scan center position (Cs).
  • the two-dimensional or three-dimensional scan data formed by arranging the scan data is corrected.
  • the ophthalmologic information processing method includes a specifying step and a converting step.
  • the specifying step specifies a conversion position corresponding to the scan position in the scan data and along the traveling direction of the measurement light passing through the scan center position.
  • the conversion step converts the scan position into the conversion position specified in the specification step.
  • Some embodiments include an image forming step of forming an image (OCT image) of the eye to be inspected based on the scan data in which the scan position is converted into the conversion position in the conversion step.
  • Some embodiments include a calculation step of calculating morphological information indicating the morphology of the eye to be inspected, based on the scan data in which the scan position is converted into the conversion position in the conversion step.
  • the morphological information includes intraocular distance.
  • Some embodiments include an interpolation step that interpolates the pixel or scan data between the conversion positions.
  • the identifying step identifies the conversion position based on a parameter representing the optical characteristic of the eye to be examined.
  • a program causes a computer to execute each step of the ophthalmologic information processing method described in any of the above.
  • Ophthalmologic apparatus 100 OCT unit 200 Operation control unit 210 Control part 211 Main control part 212 Storage part 212A Eyeball parameter 220 Image forming part 230 Data processing part 231 Position specifying part 232 Position converting part 233 Interpolating part 234 Intraocular distance calculating part E Target Optometry LS measurement light

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

眼科情報処理装置は、スキャン中心位置を中心に偏向された測定光で被検眼の眼内をスキャンすることにより得られた複数のAスキャン画像を配列することにより形成された被検眼の画像を補正する。眼科情報処理装置は、特定部と、変換部とを含む。特定部は、被検眼の画像における画素位置に対応し、スキャン中心位置を通る測定光の進行方向に沿った変換位置を特定する。変換部は、画素位置を特定部により特定された変換位置に変換する。

Description

眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
 この発明は、眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムに関する。
 近年、レーザー光源等からの光ビームを用いて被測定物体の表面形態や内部形態を表す画像を形成するOCTが注目を集めている。OCTは、X線CT(Computed Tomography)のような人体に対する侵襲性を持たないことから、特に医療分野や生物学分野における応用の展開が期待されている。例えば眼科分野においては、眼底や角膜等の画像を形成する装置が実用化されている。このようなOCTの手法を用いた装置(OCT装置)は被検眼の様々な部位の観察に適用可能であり、また高精細な画像を取得できることから、様々な眼科疾患の診断に応用されている。
 被検眼の眼内の所定部位に対してOCT計測を実行する場合、当該所定部位をスキャンするための測定光を瞳孔から眼内に入射させ、例えば瞳孔近傍に配置されたスキャン中心位置を中心に測定光を偏向させる。例えば、取得されたAスキャンデータから形成されたAスキャン画像を形成し、Bスキャン方向に複数のAスキャン画像を並べることで断層像(Bスキャン画像)が取得される(例えば、特許文献1)。
特開2011-167285号公報
 しかしながら、従来の手法では、取得された断層像の輪郭形状が長方形に変形される。従って、画角が広くなるほど、断層像における所定部位の形状と実際の形状との差異が大きくなる。
 また、取得された断層像中の任意の2点間の眼内距離を計測する場合、例えば、当該2点間のピクセル数に装置固有のピクセルサイズを乗算することにより眼内距離が求められる。従って、深さ位置によって眼内距離の誤差が大きくなる。
 本発明は、このような事情を鑑みてなされたものであり、その目的は、眼内の所定部位の実際の形状等を特定するための新たな技術を提供することにある。
 いくつかの実施形態の第1態様は、スキャン中心位置を中心に偏向された測定光で被検眼の眼内をスキャンすることにより得られた複数のAスキャン画像を配列することにより形成された前記被検眼の画像を補正する眼科情報処理装置である。眼科情報処理装置は、前記画像における画素位置に対応し、前記スキャン中心位置を通る前記測定光の進行方向に沿った変換位置を特定する特定部と、前記画素位置を前記特定部により特定された前記変換位置に変換する変換部と、を含む。
 いくつかの実施形態の第2態様は、第1態様において、前記変換部により前記画素位置が前記変換位置に変換された前記画像に基づいて、前記被検眼の形態を表す形態情報を算出する算出部を含む。
 いくつかの実施形態の第3態様では、第2態様において、前記形態情報は、前記眼内の距離を含む。
 いくつかの実施形態の第4態様では、第1態様~第3態様のいずれかにおいて、前記特定部は、前記進行方向のスキャン半径、スキャン角度、光コヒーレンストモグラフィによる計測が可能な深さ範囲、及び、前記画素位置に基づいて、所定の座標系における前記変換位置の第1軸方向の成分及び前記第1軸方向と交差する第2軸方向の成分の少なくとも1つを特定する。
 いくつかの実施形態の第5態様は、スキャン中心位置を中心に偏向された測定光で被検眼の眼内をスキャンすることにより得られた複数のAスキャンデータを配列することにより形成された2次元又は3次元のスキャンデータを補正する眼科情報処理装置である。眼科情報処理装置は、前記スキャンデータにおけるスキャン位置に対応し、前記スキャン中心位置を通る前記測定光の進行方向に沿った変換位置を特定する特定部と、前記スキャン位置を前記特定部により特定された前記変換位置に変換する変換部と、を含む。
 いくつかの実施形態の第6態様は、第5態様において、前記変換部により前記スキャン位置が前記変換位置に変換された前記スキャンデータに基づいて前記被検眼の画像を形成する画像形成部を含む。
 いくつかの実施形態の第7態様は、第5態様又は第6態様において、前記変換部により前記スキャン位置が前記変換位置に変換された前記スキャンデータに基づいて、前記被検眼の形態を表す形態情報を算出する算出部を含む。
 いくつかの実施形態の第8態様では、第7態様において、前記形態情報は、前記眼内の距離を含む。
 いくつかの実施形態の第9態様では、第5態様~第8態様のいずれかにおいて、前記特定部は、前記進行方向のスキャン半径、スキャン角度、光コヒーレンストモグラフィによる計測が可能な深さ範囲、及び、前記スキャン位置に基づいて、所定の座標系における前記変換位置の第1軸方向の成分及び前記第1軸方向と交差する第2軸方向の成分の少なくとも1つを特定する。
 いくつかの実施形態の第10態様では、第4態様又は第9態様において、前記特定部は、前記被検眼の角膜形状情報に基づいて前記測定光に対して光線追跡処理を施すことにより前記スキャン角度を特定する。
 いくつかの実施形態の第11態様は、第1態様~第10態様のいずれかにおいて、前記変換位置の間の画素又はスキャンデータを補間する補間部を含む。
 いくつかの実施形態の第12態様では、第1態様~第11態様のいずれかにおいて、前記特定部は、前記被検眼の光学特性を表すパラメータに基づいて前記変換位置を特定する。
 いくつかの実施形態の第13態様は、光コヒーレンストモグラフィを用いて前記複数のAスキャン画像又は前記複数のAスキャンデータを取得する取得部と、上記のいずれかに記載の眼科情報処理装置と、を含む眼科装置である。
 いくつかの実施形態の第14態様は、スキャン中心位置を中心に偏向された測定光で被検眼の眼内をスキャンすることにより得られた複数のAスキャン画像を配列することにより形成された前記被検眼の画像を補正する眼科情報処理方法である。眼科情報処理装置は、前記画像における画素位置に対応し、前記スキャン中心位置を通る前記測定光の進行方向に沿った変換位置を特定する特定ステップと、前記画素位置を前記特定ステップにおいて特定された前記変換位置に変換する変換ステップと、を含む。
 いくつかの実施形態の第15態様は、第14態様において、前記変換ステップにおいて前記画素位置が前記変換位置に変換された前記画像に基づいて、前記被検眼の形態を表す形態情報を算出する算出ステップを含む。
 いくつかの実施形態の第16態様は、スキャン中心位置を中心に偏向された測定光で被検眼の眼内をスキャンすることにより得られた複数のAスキャンデータを配列することにより形成された2次元又は3次元のスキャンデータを補正する眼科情報処理方法である。眼科情報処理方法は、前記スキャンデータにおけるスキャン位置に対応し、前記スキャン中心位置を通る前記測定光の進行方向に沿った変換位置を特定する特定ステップと、前記スキャン位置を前記特定ステップにおいて特定された前記変換位置に変換する変換ステップと、を含む。
 いくつかの実施形態の第17態様は、第16態様において、前記変換ステップにおいて前記スキャン位置が前記変換位置に変換された前記スキャンデータに基づいて前記被検眼の画像を形成する画像形成ステップを含む。
 いくつかの実施形態の第18態様は、第16態様又は第17態様において、前記変換ステップにおいて前記スキャン位置が前記変換位置に変換された前記スキャンデータに基づいて、前記被検眼の形態を表す形態情報を算出する算出ステップを含む。
 いくつかの実施形態の第19形態では、第15態様又は第18態様において、前記形態情報は、前記眼内の距離を含む。
 いくつかの実施形態の第20態様は、第14態様~第19態様のいずれかにおいて、前記変換位置の間の画素又はスキャンデータを補間する補間ステップを含む。
 いくつかの実施形態の第21態様では、第14態様~第20態様のいずれかにおいて、前記特定ステップは、前記被検眼の光学特性を表すパラメータに基づいて前記変換位置を特定する。
 いくつかの実施形態の第22態様は、コンピュータに、上記のいずれかに記載の眼科情報処理方法の各ステップを実行させるプログラムである。
 なお、上記した複数の態様に係る構成を任意に組み合わせることが可能である。
 本発明によれば、眼内の所定部位の実際の形状等を特定するための新たな技術を提供することができる。
実施形態に係る眼科装置の構成の一例を表す概略図である。 実施形態に係る眼科装置の構成の一例を表す概略図である。 実施形態に係る眼科装置の構成の一例を表す概略ブロック図である。 実施形態に係る眼科装置の構成の一例を表す概略ブロック図である。 実施形態の比較例に係る眼科装置が実行する処理を説明するための概略図である。 実施形態の比較例に係る眼科装置が実行する処理を説明するための概略図である。 実施形態に係る眼科装置が実行する処理を説明するための概略図である。 実施形態に係る眼科装置が実行する処理を説明するための概略図である。 実施形態に係る眼科装置が実行する処理を説明するための概略図である。 実施形態に係る眼科装置の動作例を表す概略図である。 実施形態に係る眼科装置の動作例を表す概略図である。 実施形態に係る眼科装置が実行する処理を説明するための概略図である。 実施形態の変形例に係る眼科装置が実行する処理を説明するための概略図である。
 この発明に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムの実施形態の例について、図面を参照しながら詳細に説明する。なお、この明細書において引用された文献の記載内容や任意の公知技術を、以下の実施形態に援用することが可能である。
 実施形態に係る眼科情報処理装置は、被検眼における所定部位と光学的に略共役に配置された光スキャナーを用いて測定光で眼内をスキャンすることにより得られた被検眼のOCT画像、又は、2次元若しくは3次元のスキャンデータを補正する。所定部位として、瞳孔などが挙げられる。OCT画像は、2次元画像又は3次元画像である。OCT画像として、眼底の断層像、眼底の3次元画像などが挙げられる。OCT画像又はスキャンデータは、光コヒーレンストモグラフィ(Optical Coherece Tomography:OCT)を用いて取得される。OCT画像は、被検眼における所定部位をスキャン中心位置として、当該所定部位を中心に偏向された測定光で被検眼の眼内をスキャンすることにより得られた複数のAスキャン画像を配列することにより形成される。2次元又は3次元のスキャンデータは、被検眼における所定部位をスキャン中心位置として、当該所定部位を中心に偏向された測定光で被検眼の眼内をスキャンすることにより得られた複数のAスキャンデータを配列することにより形成される。
 眼科情報処理装置は、OCT画像における画素位置、又は、2次元若しくは3次元のスキャンデータにおけるスキャン位置に対応し、Aスキャン方向(被検眼における所定部位を通る測定光の進行方向)に沿った変換位置を特定する。眼科情報処理装置は、画素位置又はスキャン位置を、当該画素位置等に基づいて特定された変換位置に変換する。変換位置は、所定の座標系における位置である。所定の座標系は、少なくとも1つのAスキャンのスキャン方向と同一の軸方向の座標軸を含む2以上の座標軸によって規定される。
 いくつかの実施形態では、眼科情報処理装置は、被検眼の光学特性を表すパラメータに基づいて変換位置を特定する。いくつかの実施形態では、眼科情報処理装置は、Aスキャン方向のスキャン半径、スキャン角度、OCT計測が可能な深さ範囲、及び、画素位置又はスキャン位置に基づいて、所定の座標系における変換位置の第1軸方向の成分及び第1軸方向と交差する第2軸方向の成分の少なくとも1つを特定する。
 これにより、OCT画像又はスキャンデータにより表される眼底等の眼内の部位の形状を実際のスキャンに沿った形状に補正することができる。特に、広角の撮影系又は観察系を用いて取得されたOCT画像又はスキャンデータから実際の形状を把握することが容易になる。また、補正されたOCT画像、又は、2次元若しくは3次元のスキャンデータを用いて、被検眼の形態を表す形態情報も実際の形態を表す情報として取得することが可能になる。
 実施形態に係る眼科情報処理方法は、実施形態に係る眼科情報処理装置においてプロセッサ(コンピュータ)により実行される処理を実現するための1以上のステップを含む。実施形態に係るプログラムは、プロセッサに実施形態に係る眼科情報処理方法の各ステップを実行させる。
 本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。
 この明細書では、OCTによって取得される画像をOCT画像と総称することがある。また、OCT画像を形成するための計測動作をOCT計測と呼ぶことがある。
 以下では、主として、被検眼のOCT画像として断層像を取得する場合について説明するが、OCTを用いて3次元画像、又は、2次元若しくは3次元のスキャンデータを取得する場合も同様である。
 また、以下では、実施形態に係る眼科装置が、実施形態に係る眼科情報処理装置の機能を有する場合について説明する。しかしながら、実施形態に係る眼科情報処理装置が、外部の眼科装置からOCT画像、又は、2次元若しくは3次元のスキャンデータを取得するように構成されていてもよい。
 以下、実施形態では、OCTを用いた計測又は撮影においてスウェプトソースタイプのOCTの手法を用いる場合について特に詳しく説明する。しかしながら、他のタイプ(例えば、スペクトラルドメインタイプ又はタイムドメインタイプ)のOCTを用いる眼科装置に対して、実施形態に係る構成を適用することも可能である。
 いくつかの実施形態に係る眼科装置は、眼科撮影装置と、眼科測定装置と、眼科治療装置とのうちのいずれか1つ以上を含む。いくつかの実施形態の眼科装置に含まれる眼科撮影装置は、例えば、眼底カメラ、走査型レーザー検眼鏡、スリットランプ検眼鏡、手術用顕微鏡等のうちのいずれか1つ以上である。また、いくつかの実施形態の眼科装置に含まれる眼科測定装置は、例えば、眼屈折検査装置、眼圧計、スペキュラーマイクロスコープ、ウェーブフロントアナライザ、視野計、マイクロペリメータ等のうちのいずれか1つ以上である。また、いくつかの実施形態の眼科装置に含まれる眼科治療装置は、例えば、レーザー治療装置、手術装置、手術用顕微鏡等のうちのいずれか1つ以上である。
 以下の実施形態に係る眼科装置は、OCT計測が可能なOCT装置と眼底カメラとを含む。また、以下の実施形態に係る構成を、単体のOCT装置に組み込むことも可能である。
 以下では、被検眼の眼底に対するOCT計測が可能な眼科装置を例に説明するが、実施形態に係る眼科装置は、被検眼の前眼部に対してOCT計測が可能であってよい。いくつかの実施形態では、測定光の焦点位置を変更するレンズを移動することで、OCT計測の範囲や計測部位を変更する。いくつかの実施形態では、1以上のアタッチメント(対物レンズ、前置レンズ等)を加えることで、眼底に対するOCT計測と、前眼部に対するOCT計測と、眼底及び前眼部を含む全眼球に対するOCT計測とが可能な構成である。いくつかの実施形態では、眼底計測用の眼科装置において、対物レンズと被検眼との間に前置レンズを配置することで平行光束にされた測定光を被検眼に入射させることで前眼部に対するOCT計測を行う。
<構成>
〔光学系〕
 図1に示すように、眼科装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、被検眼Eの正面画像を取得するための光学系や機構が設けられている。OCTユニット100には、OCTを実行するための光学系や機構の一部が設けられている。OCTを実行するための光学系や機構の他の一部は、眼底カメラユニット2に設けられている。演算制御ユニット200は、各種の演算や制御を実行する1以上のプロセッサを含む。これらに加え、被検者の顔を支持するための部材(顎受け、額当て等)や、OCTの対象部位を切り替えるためのレンズユニット(例えば、前眼部OCT用アタッチメント)等の任意の要素やユニットが眼科装置1に設けられてもよい。いくつかの実施形態では、レンズユニットが手動で被検眼Eと後述の対物レンズ22との間に挿脱されるように構成される。いくつかの実施形態では、後述の制御部210からの制御を受け、レンズユニットが被検眼Eと後述の対物レンズ22との間に自動で挿脱されるように構成される。
 いくつかの実施形態では、眼科装置1は、表示装置3を含む。表示装置3は、演算制御ユニット200による処理結果(例えば、OCT画像等)や、眼底カメラユニット2により得られた画像や、眼科装置1を操作するための操作ガイダンス情報などを表示する。
[眼底カメラユニット]
 眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系が設けられている。取得される眼底Efの画像(眼底像、眼底写真等と呼ばれる)は、観察画像、撮影画像等の正面画像である。観察画像は、近赤外光を用いた動画撮影により得られる。撮影画像は、フラッシュ光を用いた静止画像である。更に、眼底カメラユニット2は、被検眼Eの前眼部Eaを撮影して正面画像(前眼部像)を取得することができる。
 眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。
 照明光学系10の観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(眼底Ef又は前眼部Ea)を照明する。被検眼Eからの観察照明光の戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過する。ダイクロイックミラー55を透過した戻り光は、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりイメージセンサ35の受光面に結像される。イメージセンサ35は、所定のフレームレートで戻り光を検出する。なお、撮影光学系30のフォーカスは、眼底Ef又は前眼部Eaに合致するように調整される。
 撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりイメージセンサ38の受光面に結像される。
 LCD(Liquid Crystal Display)39は固視標や視力測定用視標を表示する。LCD39から出力された光束は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。
 LCD39の画面上における固視標の表示位置を変更することにより、被検眼Eの固視位置を変更できる。固視位置の例として、黄斑を中心とする画像を取得するための固視位置や、視神経乳頭を中心とする画像を取得するための固視位置や、黄斑と視神経乳頭との間の眼底中心を中心とする画像を取得するための固視位置や、黄斑から大きく離れた部位(眼底周辺部)の画像を取得するための固視位置などがある。いくつかの実施形態に係る眼科装置1は、このような固視位置の少なくとも1つを指定するためのGUI(Graphical User Interface)等を含む。いくつかの実施形態に係る眼科装置1は、固視位置(固視標の表示位置)をマニュアルで移動するためのGUI等を含む。
 移動可能な固視標を被検眼Eに呈示するための構成はLCD等の表示装置には限定されない。例えば、光源アレイ(発光ダイオード(LED)アレイ等)における複数の光源を選択的に点灯させることにより、移動可能な固視標を生成することができる。また、移動可能な1以上の光源により、移動可能な固視標を生成することができる。
 また、眼科装置1には、1以上の外部固視光源が設けられてもよい。1以上の外部固視光源の1つは、被検眼Eの僚眼に固視光を投射することが可能である。僚眼における固視光の投射位置は、変更可能である。僚眼に対する固視光の投射位置を変更することにより、被検眼Eの固視位置を変更することができる。外部固視光源による固視位置は、LCD39を用いた被検眼Eの固視位置と同様であってよい。例えば、複数の外部固視光源を選択的に点灯させることにより、移動可能な固視標を生成することができる。また、移動可能な1以上の外部固視光源により、移動可能な固視標を生成することができる。
 アライメント光学系50は、被検眼Eに対する光学系のアライメントに用いられるアライメント指標を生成する。LED51から出力されたアライメント光は、絞り52及び53並びにリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光は、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eに投射される。アライメント光の角膜反射光は、観察照明光の戻り光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(アライメント指標像)に基づいてマニュアルアライメントやオートアライメントを実行できる。
 フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。フォーカス光学系60は、撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱可能である。フォーカス調整を行う際には、反射棒67の反射面が照明光路に傾斜配置される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット指標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。フォーカス光の眼底反射光は、アライメント光の角膜反射光と同じ経路を通ってイメージセンサ35に導かれる。その受光像(スプリット指標像)に基づいてマニュアルフォーカスやオートフォーカスを実行できる。
 ダイクロイックミラー46は、眼底撮影用光路とOCT用光路とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。OCT用光路(測定光の光路)には、OCTユニット100側からダイクロイックミラー46側に向かって順に、コリメータレンズユニット40、光路長変更部41、光スキャナー42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45が設けられている。
 光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用光路の長さを変更する。この光路長の変更は、眼軸長に応じた光路長補正や、干渉状態の調整などに利用される。光路長変更部41は、コーナーキューブと、これを移動する機構とを含む。
 光スキャナー42は、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナー42は、OCT用光路を通過する測定光を偏向する。すなわち、光スキャナー42は、被検眼Eの瞳孔(又はその近傍)をスキャン中心位置として所定の偏向角度範囲内でスキャン角度を変更しつつ被検眼Eの眼内をスキャンするための測定光を偏向する。光スキャナー42は、測定光を1次元的又は2次元的に偏向することが可能である。
 1次元的に偏向する場合、光スキャナー42は、所定の偏向方向に所定の偏向角度範囲で測定光を偏向するガルバノスキャナーを含む。2次元的に偏向する場合、光スキャナー42は、第1ガルバノスキャナーと、第2ガルバノスキャナーとを含む。第1ガルバノスキャナーは、OCT光学系8の光軸に直交する水平方向に撮影部位(眼底Ef又は前眼部)をスキャンするように測定光を偏向する。第2ガルバノスキャナーは、OCT光学系8の光軸に直交する垂直方向に撮影部位をスキャンするように、第1ガルバノスキャナーにより偏向された測定光を偏向する。光スキャナー42による測定光の走査態様としては、例えば、水平スキャン、垂直スキャン、十字スキャン、放射スキャン、円スキャン、同心円スキャン、螺旋スキャンなどがある。
 OCT合焦レンズ43は、OCT用の光学系のフォーカス調整を行うために、測定光の光路に沿って移動される。OCT合焦レンズ43は、被検眼Eの眼底Ef又はその近傍に測定光の焦点位置を配置するための第1レンズ位置と、被検眼Eに照射される測定光を平行光束にするための第2レンズ位置とを含む移動範囲で移動可能である。撮影合焦レンズ31の移動、フォーカス光学系60の移動、及びOCT合焦レンズ43の移動を連係的に制御することができる。
[OCTユニット]
 OCTユニット100の構成の一例を図2に示す。OCTユニット100には、被検眼EのOCT画像を取得するための光学系が設けられている。この光学系は、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光を検出する干渉光学系である。干渉光学系による干渉光の検出結果(検出信号)は、干渉光のスペクトルを示す干渉信号であり、演算制御ユニット200に送られる。
 光源ユニット101は、一般的なスウェプトソースタイプの眼科装置と同様に、出射光の波長を掃引(走査)可能な波長掃引型(波長走査型)光源を含んで構成される。波長掃引型光源は、共振器を含むレーザー光源を含んで構成される。光源ユニット101は、人眼では視認できない近赤外の波長帯において、出力波長を時間的に変化させる。
 光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏波状態が調整される。偏波コントローラ103は、例えばループ状にされた光ファイバ102に対して外部から応力を与えることで、光ファイバ102内を導かれる光L0の偏波状態を調整する。
 偏波コントローラ103により偏波状態が調整された光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。
 参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、光路長変更部114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。
 光路長変更部114は、図2に示す矢印の方向に移動可能とされ、参照光LRの光路長を変更する。この移動により参照光LRの光路の長さが変更される。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部114は、例えばコーナーキューブと、これを移動する移動機構とを含んで構成される。この場合、光路長変更部114のコーナーキューブは、コリメータ111により平行光束とされた参照光LRの進行方向を逆方向に折り返す。コーナーキューブに入射する参照光LRの光路と、コーナーキューブから出射する参照光LRの光路とは平行である。
 光路長変更部114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏波状態が調整される。偏波コントローラ118は、例えば、偏波コントローラ103と同様の構成を有する。偏波コントローラ118により偏波状態が調整された参照光LRは、光ファイバ119によりアッテネータ120に導かれて、演算制御ユニット200の制御の下で光量が調整される。アッテネータ120により光量が調整された参照光LRは、光ファイバ121によりファイバカプラ122に導かれる。
 なお、図1及び図2に示す構成においては、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するための光路長変更部114の双方が設けられている。しかしながら、光路長変更部41及び114の一方だけが設けられていてもよい。また、これら以外の光学部材を用いて、参照光路長と測定光路長との差を変更することも可能である。
 一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127によりに導かれ、コリメータレンズユニット40により平行光束とされる。平行光束にされた測定光LSは、光路長変更部41、光スキャナー42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由してダイクロイックミラー46に導かれる。ダイクロイックミラー46に導かれてきた測定光LSは、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに照射される。測定光LSは、被検眼Eの様々な深さ位置において散乱(反射を含む)される。このような後方散乱光を含む測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。
 ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で、測定光LSと参照光LRとの干渉光を分岐することにより、一対の干渉光LCを生成する。ファイバカプラ122から出射した一対の干渉光LCは、それぞれ光ファイバ123、124により検出器125に導かれる。
 検出器125は、例えば一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらによる検出結果の差分を出力するバランスドフォトダイオード(Balanced Photo Diode)である。検出器125は、その検出結果(干渉信号)をDAQ(Data Acquisition System)130に送る。DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長掃引型光源により所定の波長範囲内で掃引(走査)される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、クロックKCに基づき、検出器125の検出結果をサンプリングする。DAQ130は、サンプリングされた検出器125の検出結果を演算制御ユニット200に送る。演算制御ユニット200は、例えば一連の波長走査毎に(Aライン毎に)、検出器125により得られた検出結果に基づくスペクトル分布にフーリエ変換等を施すことにより、各Aラインにおける反射強度プロファイルを形成する。更に、演算制御ユニット200は、各Aラインの反射強度プロファイルを画像化することにより画像データを形成する。
[演算制御ユニット]
 演算制御ユニット200は、DAQ130から入力される検出信号を解析して眼底Ef(又は前眼部Ea)のOCT画像又はスキャンデータを形成する。そのための演算処理は、従来のスウェプトソースタイプのOCT装置と同様である。
 また、演算制御ユニット200は、眼底カメラユニット2、表示装置3、及びOCTユニット100の各部を制御する。
 眼底カメラユニット2の制御として、演算制御ユニット200は、観察光源11、撮影光源15、及びLED51、61の動作制御、LCD39の動作制御、撮影合焦レンズ31の移動制御、OCT合焦レンズ43の移動制御、反射棒67の移動制御、フォーカス光学系60の移動制御、光路長変更部41の移動制御、光スキャナー42の動作制御などを行う。
 表示装置3の制御として、演算制御ユニット200は、被検眼EのOCT画像を表示装置3に表示させる。
 OCTユニット100の制御として、演算制御ユニット200は、光源ユニット101の動作制御、光路長変更部114の移動制御、アッテネータ120の動作制御、偏波コントローラ103、118の動作制御、検出器125の動作制御、DAQ130の動作制御などを行う。
 演算制御ユニット200は、例えば、従来のコンピュータと同様に、プロセッサ、RAM、ROM、ハードディスクドライブ、通信インターフェイスなどを含んで構成される。ハードディスクドライブ等の記憶装置には、眼科装置1を制御するためのコンピュータプログラムが記憶されている。演算制御ユニット200は、各種の回路基板、例えばOCT画像を形成するための回路基板を備えていてもよい。また、演算制御ユニット200は、キーボードやマウス等の操作デバイス(入力デバイス)や、LCD等の表示デバイスを備えていてもよい。
 眼底カメラユニット2、表示装置3、OCTユニット100、及び演算制御ユニット200は、一体的に(つまり単一の筺体内に)構成されていてもよいし、2つ以上の筐体に別れて構成されていてもよい。
〔制御系〕
 図3及び図4に、眼科装置1の制御系の構成例を示す。図3及び図4において、眼科装置1に含まれる構成要素の一部が省略されている。
(制御部)
 制御部210は、各種の制御を実行する。制御部210は、主制御部211と記憶部212とを含む。
(主制御部)
 主制御部211は、プロセッサを含み、眼科装置1の各部を制御する。例えば、主制御部211は、眼底カメラユニット2の合焦駆動部31A及び43A、イメージセンサ35及び38、LCD39、光路長変更部41、光スキャナー42、及び光学系を移動する移動機構150などを制御する。さらに、主制御部211は、OCTユニット100の光源ユニット101、光路長変更部114、アッテネータ120、偏波コントローラ103及び118、検出器125、DAQ130などを制御する。
 例えば、主制御部211は、手動又は自動で設定された固視位置に対応するLCD39の画面上の位置に固視標を表示する。また、主制御部211は、LCD39に表示されている固視標の表示位置を(連続的に又は段階的に)変更することができる。それにより、固視標を移動することができる(つまり、固視位置を変更することができる)。固視標の表示位置や移動態様は、マニュアルで又は自動的に設定される。マニュアルでの設定は、例えばGUIを用いて行われる。自動的な設定は、例えば、データ処理部230により行われる。
 合焦駆動部31Aは、撮影光学系30の光軸方向に撮影合焦レンズ31を移動させるとともに、照明光学系10の光軸方向にフォーカス光学系60を移動させる。それにより、撮影光学系30の合焦位置が変更される。合焦駆動部31Aは、撮影合焦レンズ31を移動させる機構と、フォーカス光学系60を移動させる機構とを個別に有していてよい。合焦駆動部31Aは、フォーカス調整を行うときなどに制御される。
 合焦駆動部43Aは、測定光路の光軸方向にOCT合焦レンズ43を移動させる。それにより、測定光LSの合焦位置が変更される。例えば、OCT合焦レンズ43を第1レンズ位置に移動させることにより、測定光LSの合焦位置を眼底Ef又はその近傍に配置することができる。例えば、OCT合焦レンズ43を第2レンズ位置に移動させることにより、測定光LSの合焦位置を遠点位置に配置して測定光LSを平行光束にすることができる。測定光LSの合焦位置は、測定光LSのビームウェストの深さ位置(z位置)に相当する。
 移動機構150は、例えば、少なくとも眼底カメラユニット2(光学系)を3次元的に移動する。典型的な例において、移動機構150は、少なくとも眼底カメラユニット2をx方向(左右方向)に移動するための機構と、y方向(上下方向)に移動するための機構と、z方向(奥行き方向、前後方向)に移動するための機構とを含む。x方向に移動するための機構は、例えば、x方向に移動可能なxステージと、xステージを移動するx移動機構とを含む。y方向に移動するための機構は、例えば、y方向に移動可能なyステージと、yステージを移動するy移動機構とを含む。z方向に移動するための機構は、例えば、z方向に移動可能なzステージと、zステージを移動するz移動機構とを含む。各移動機構は、パルスモータ等のアクチュエータを含み、主制御部211からの制御を受けて動作する。
 移動機構150に対する制御は、アライメントやトラッキングにおいて用いられる。トラッキングとは、被検眼Eの眼球運動に合わせて装置光学系を移動させるものである。トラッキングを行う場合には、事前にアライメントとフォーカス調整が実行される。トラッキングは、装置光学系の位置を眼球運動に追従させることにより、アライメントとピントが合った好適な位置関係を維持する機能である。いくつかの実施形態では、参照光の光路長(よって、測定光の光路と参照光の光路との間の光路長差)を変更するために移動機構150の制御を行うように構成される。
 マニュアルアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるようにユーザが後述のユーザインターフェイス240に対して操作することにより光学系と被検眼Eとを相対移動させる。例えば、主制御部211は、ユーザインターフェイス240に対する操作内容に対応した制御信号を移動機構150に出力することにより移動機構150を制御して光学系と被検眼Eとを相対移動させる。
 オートアライメントの場合、光学系に対する被検眼Eの変位がキャンセルされるように主制御部211が移動機構150を制御することにより光学系と被検眼Eとを相対移動させる。例えば、撮影光学系30により取得された被検眼Eの画像と光学系の基準位置との変位がキャンセルされるように移動機構150が制御される。いくつかの実施形態では、主制御部211は、光学系の光軸が被検眼Eの軸に略一致し、かつ、被検眼Eに対する光学系の距離が所定の作動距離になるように制御信号を移動機構150に出力することにより移動機構150を制御して光学系と被検眼Eとを相対移動させる。ここで、作動距離とは、対物レンズ22のワーキングディスタンスとも呼ばれる既定値であり、光学系を用いた測定時(撮影時)における被検眼Eと光学系との間の距離に相当する。
 主制御部211は、眼底カメラユニット2等を制御することにより眼底撮影及び前眼部撮影を制御する。また、主制御部211は、眼底カメラユニット2及びOCTユニット100等を制御することによりOCT計測を制御する。主制御部211は、OCT計測を行う前に複数の予備的な動作を実行可能である。予備的な動作としては、アライメント、フォーカス粗調整、偏波調整、フォーカス微調整などがある。複数の予備的な動作は、所定の順序で実行される。いくつかの実施形態では、複数の予備的な動作は、上記の順序で実行される。
 なお、予備的な動作の種別や順序はこれに限定されるものではなく、任意である。例えば、被検眼Eが小瞳孔眼であるか否か判定するための予備動作(小瞳孔判定)を予備的な動作に加えることができる。小瞳孔判定は、例えば、フォーカス粗調整と光路長差調整との間に実行される。いくつかの実施形態では、小瞳孔判定は、以下の一連の処理を含む:被検眼Eの正面画像(前眼部像)の取得する処理;瞳孔に相当する画像領域を特定する処理;特定された瞳孔領域のサイズ(径、周長など)を求める処理;求められたサイズに基づき小瞳孔眼か否か判定する処理(閾値処理);小瞳孔眼であると判定された場合に絞り19を制御する処理。いくつかの実施形態では、瞳孔サイズを求めるために瞳孔領域を円近似または楕円近似する処理を更に含む。
 フォーカス粗調整は、スプリット指標を用いたフォーカス調整である。なお、あらかじめ取得された眼屈折力と撮影合焦レンズ31の位置とを関連付けた情報と、被検眼Eの屈折力の測定値とに基づいて撮影合焦レンズ31の位置を決定することにより、フォーカス粗調整を行うこともできる。
 フォーカス微調整は、OCT計測の干渉感度に基づいて行われる。例えば、被検眼EのOCT計測により取得された干渉信号の干渉強度(干渉感度)をモニタすることにより、干渉強度が最大となるようなOCT合焦レンズ43の位置を求め、その位置にOCT合焦レンズ43を移動させることにより、フォーカス微調整を実行することができる。
 光路長差調整においては、被検眼Eにおける所定の位置が深さ方向の計測範囲の基準位置になるように制御される。この制御は、光路長変更部41、114の少なくとも一方に対して行われる。それにより、測定光路と参照光路との間の光路長差が調整される。光路長差調整により基準位置を設定しておくことで、波長掃引速度の変更を行うだけで深さ方向の所望の計測範囲に対して精度よくOCT計測を行うことができるようになる。
 偏波調整においては、測定光LSと参照光LRとの干渉効率を最適化するために参照光LRの偏波状態が調整される。
(記憶部)
 記憶部212は、各種のデータを記憶する。記憶部212に記憶されるデータとしては、例えば、OCT画像の画像データ、眼底像の画像データ、スキャンデータ、前眼部像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者に関する情報や、左眼/右眼の識別情報などの被検眼に関する情報を含む。
 また、記憶部212には、眼球パラメータ212Aが記憶されている。眼球パラメータ212Aは、Gullstrand模型眼等の公知の眼球モデルで規定されたパラメータ(標準値)を含む。いくつかの実施形態では、眼球パラメータ212Aは、公知の眼球モデルで規定されたパラメータの少なくとも1つが被検眼Eの測定値に置き換えられたパラメータを含む。この場合、眼球パラメータ212Aは、被検眼Eの光学特性を表すパラメータを含むことを意味する。測定値には、眼軸長、角膜厚、角膜前面の曲率半径、角膜後面の曲率半径、前房深度、水晶体前面の曲率半径、水晶体厚、水晶体後面の曲率半径、硝子体腔長、網膜厚、脈絡膜厚などがある。いくつかの実施形態では、測定値は、OCT計測により得られたOCTデータを解析することにより取得される。眼球パラメータ212Aは、後述の操作部240Bにより指定されたパラメータを含んでよい。
 また、記憶部212には、眼科装置1を動作させるための各種プログラムやデータが記憶されている。
(画像形成部)
 画像形成部220は、検出器125からの検出信号をDAQ130でサンプリングすることにより得られたサンプリングデータに対してフーリエ変換等の信号処理を施すことによってAラインにおける反射強度プロファイルを形成する。上記信号処理には、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などが含まれる。Aラインにおける反射強度プロファイルは、Aスキャンデータの一例である。画像形成部220は、Aライン毎に反射強度プロファイルを形成し、形成された複数の反射強度プロファイルをBスキャン方向(Aスキャン方向の交差方向)に配列することでBスキャンデータ(2次元のスキャンデータ)を形成することが可能である。
 いくつかの実施形態では、画像形成部220(又は後述のデータ処理部230)は、Aライン毎に形成された複数の反射強度プロファイルをBスキャン方向(例えば、x方向)と、Aスキャン方向及びBスキャン方向に交差する方向(例えば、y方向)とに配列することで3次元のスキャンデータを形成する。
 また、画像形成部220は、Aラインにおける反射強度プロファイルを画像化することで、被検眼EのAスキャン画像(OCT画像、画像データ)を形成することが可能である。画像形成部220は、Aライン毎に形成された複数のAスキャン画像をBスキャン方向(Aスキャン方向の交差方向)に配列することでBスキャン画像を形成することが可能である。
 いくつかの実施形態では、画像形成部220は、各Aスキャンデータにおける所定の深さ位置(スキャン位置)のデータを抽出し、抽出された複数のデータをBスキャン方向(Aスキャン方向の交差方向)に配列することでCスキャンデータを形成する。いくつかの実施形態では、画像形成部220は、各Aスキャン画像における所定の深さ位置(スキャン位置)の画素を抽出し、抽出された複数の画素をBスキャン方向(Aスキャン方向の交差方向)に配列することでCスキャン画像を形成する。
 いくつかの実施形態では、画像形成部220の機能は、プロセッサにより実現される。なお、この明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。
(データ処理部)
 データ処理部230は、被検眼Eの撮影やOCT計測により取得されたデータを処理する。
 例えば、データ処理部230は、画像形成部220により形成された画像に対して各種の画像処理や解析処理を施す。例えば、データ処理部230は、画像の輝度補正等の各種補正処理を実行する。また、データ処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して各種の画像処理や解析処理を施す。
 データ処理部230は、断層像の間の画素を補間する補間処理などの公知の画像処理を実行して、眼底Efの3次元画像の画像データを形成する。なお、3次元画像の画像データとは、3次元座標系により画素の位置が定義された画像データを意味する。3次元画像の画像データとしては、3次元的に配列されたボクセルからなる画像データがある。この画像データは、ボリュームデータ或いはボクセルデータなどと呼ばれる。ボリュームデータに基づく画像を表示させる場合、データ処理部230は、このボリュームデータに対してレンダリング処理(ボリュームレンダリングやMIP(Maximum Intensity Projection:最大値投影)など)を施して、特定の視線方向から見たときの擬似的な3次元画像の画像データを形成する。表示部240A等の表示デバイスには、この擬似的な3次元画像が表示される。
 また、3次元画像の画像データとして、複数の断層像のスタックデータを形成することも可能である。スタックデータは、複数のスキャンラインに沿って得られた複数の断層像を、スキャンラインの位置関係に基づいて3次元的に配列させることで得られる画像データである。すなわち、スタックデータは、元々個別の2次元座標系により定義されていた複数の断層像を、1つの3次元座標系により表現する(つまり1つの3次元空間に埋め込む)ことにより得られる画像データである。
 データ処理部230は、取得された3次元データセット(ボリュームデータ、スタックデータ等)に各種のレンダリングを施すことで、任意断面におけるBモード画像(縦断面像、軸方向断面像)、任意断面におけるCモード画像(横断面像、水平断面像)、プロジェクション画像、シャドウグラムなどを形成することができる。Bモード画像やCモード画像のような任意断面の画像は、指定された断面上の画素(ピクセル、ボクセル)を3次元データセットから選択することにより形成される。プロジェクション画像は、3次元データセットを所定方向(z方向、深さ方向、軸方向)に投影することによって形成される。シャドウグラムは、3次元データセットの一部(たとえば特定層に相当する部分データ)を所定方向に投影することによって形成される。Cモード画像、プロジェクション画像、シャドウグラムのような、被検眼の正面側を視点とする画像を正面画像(en-face画像)と呼ぶ。
 データ処理部230は、OCTにより時系列に収集されたデータ(例えば、Bスキャン画像データ)に基づいて、網膜血管や脈絡膜血管が強調されたBモード画像や正面画像(血管強調画像、アンギオグラム)を構築することができる。例えば、被検眼Eの略同一部位を反復的にスキャンすることにより、時系列のOCTデータを収集することができる。
 いくつかの実施形態では、データ処理部230は、略同一部位に対するBスキャンにより得られた時系列のBスキャン画像を比較し、信号強度の変化部分の画素値を変化分に対応した画素値に変換することにより当該変化部分が強調された強調画像を構築する。更に、データ処理部230は、構築された複数の強調画像から所望の部位における所定の厚さ分の情報を抽出してen-face画像として構築することでOCTA像を形成する。
 データ処理部230により生成された画像(例えば、3次元画像、Bモード画像、Cモード画像、プロジェクション画像、シャドウグラム、OCTA像)もまたOCT画像に含まれる。
 更に、データ処理部230は、OCT計測により得られた干渉光の検出結果を解析してフォーカス微調整制御における測定光LSのフォーカス状態を判定する。例えば、主制御部211は、合焦駆動部43Aを所定のアルゴリズムにしたがって制御しつつ、反復的なOCT計測を行う。データ処理部230は、OCT計測により繰り返し取得される干渉光LCの検出結果を解析することで、OCT画像の画質に関する所定の評価値を算出する。データ処理部230は、算出された評価値が閾値以下であるか否か判定する。いくつかの実施形態では、フォーカス微調整は、算出される評価値が閾値以下になるまで継続される。すなわち、評価値が閾値以下であるとき測定光LSのフォーカス状態が適正であると判断され、フォーカス微調整は、測定光LSのフォーカス状態が適正であると判断されるまで継続される。
 いくつかの実施形態では、主制御部211は、上記のような反復的なOCT計測を行って干渉信号を取得しつつ、逐次に取得される干渉信号の強度(干渉強度、干渉感度)をモニタする。更に、このモニタ処理を行いながら、OCT合焦レンズ43を移動させることにより、干渉強度が最大となるようなOCT合焦レンズ43の位置を探索する。このようなフォーカス微調整によれば、干渉強度が最適化されるような位置にOCT合焦レンズ43を導くことができる。
 また、データ処理部230は、OCT計測により得られた干渉光の検出結果を解析して、測定光LS及び参照光LRの少なくとも一方の偏波状態を判定する。例えば、主制御部211は、偏波コントローラ103、118の少なくとも一方を所定のアルゴリズムにしたがって制御しつつ、反復的なOCT計測を行う。いくつかの実施形態では、主制御部211は、アッテネータ120を制御して、参照光LRの減衰量を変更する。データ処理部230は、OCT計測により繰り返し取得される干渉光LCの検出結果を解析することで、OCT画像の画質に関する所定の評価値を算出する。データ処理部230は、算出された評価値が閾値以下であるか否か判定する。この閾値はあらかじめ設定される。偏波調整は、算出される評価値が閾値以下になるまで継続される。すなわち、評価値が閾値以下であるとき測定光LSの偏波状態が適正であると判断され、偏波調整は、測定光LSの偏波状態が適正であると判断されるまで継続される。
 いくつかの実施形態では、主制御部211は、偏波調整においても干渉強度をモニタすることが可能である。
 更に、データ処理部230は、OCT計測により得られた干渉光の検出結果、又は当該検出結果に基づいて形成されたOCT画像に対して所定の解析処理を行う。所定の解析処理には、被検眼Eにおける所定の部位(組織、病変部)の特定;指定された部位間の距離(層間距離)、面積、角度、比率、密度の算出;指定された計算式による演算;所定の部位の形状の特定;これらの統計値の算出;計測値、統計値の分布の算出;これら解析処理結果に基づく画像処理などがある。所定の組織には、血管、視神経乳頭、中心窩、黄斑などがある。所定の病変部には、白斑、出血などがある。
 データ処理部230は、取得されたOCT画像(又はスキャンデータ)における眼内の部位が実際の形状で描出されるように、OCT画像における画素位置又はスキャンデータにおけるスキャン位置の座標変換を行う。更に、データ処理部230は、座標変換後のOCT画像又はスキャンデータを用いて眼内の所定の部位間の距離を求めることが可能である。
 図5及び図6に、実施形態の比較例の説明図を示す。図5は、被検眼Eに入射する測定光の経路を模式的に表したものである。図6は、図5に示す経路で被検眼Eに入射する測定光によるスキャンにより得られた断層像の一例を表したものである。
 例えば光スキャナー42により偏向された測定光は、図5に示すようにスキャン中心位置としての被検眼Eの瞳孔に対して様々な入射角度で入射する。被検眼Eに入射した測定光は、例えば瞳孔中心に設定されたスキャン中心位置Csを中心に眼内の各部に向けて投射される。
 図5の測定光LS1を用いて得られた干渉データからAスキャン画像が形成され、測定光LS2を用いて得られた干渉データからAスキャン画像が形成され、測定光LS3を用いて得られた干渉データからAスキャン画像が形成される。図6に示す眼底の断層像IMG0は、このように形成された複数のAスキャン画像を配列することにより形成される。
 このように、スキャン中心位置Csを中心としたスキャン角度範囲内でAスキャン方向が変化し、得られた複数のAスキャン画像を横方向に配列された断層像において、部位の形状が変形する。これは、画角が広くなるほど、実際の形状との差異が大きくなる。
 また、被検眼Eの形態を表す形態情報は、断層像中の任意の画素の位置により求められる。このような形態情報には、眼内距離(層領域間の距離を含む)、領域の面積、領域の体積、領域の周囲長、基準位置に対する部位の方向、基準方向に対する部位の角度、部位の曲率半径などが挙げられる。
 例えば、形態情報としての眼内距離は、断層像中の任意の2点間の距離を計測することで求めることが可能である。この場合、2点間の距離は、断層像中のピクセル数により特定され、特定されたピクセル数に装置固有のピクセルサイズを乗算することで計測される。このとき、断層像中の全ピクセルについて、同一のピクセルサイズが採用される。しかしながら、上記のように、スキャン中心位置Csを中心としてスキャン方向が異なるため、スキャン方向の深さ位置に応じて断層像の水平方向のピクセルサイズが異なる。例えば、深さ範囲が2.5[mm]の場合、断層像中の全ピクセルについて同一のピクセルサイズを採用したとき、断層像の上部と下部との間でBスキャンのスキャン長に約13%の差があり、深さ範囲が10[mm]の場合、約50%の差が生じる。
 そこで、実施形態に係るデータ処理部230は、取得されたOCT画像における画素位置又はスキャンデータにおけるスキャン位置の座標変換を行う。以下、被検眼Eの形態を表す形態情報として、眼内距離を例に説明する。
 このようなデータ処理部230は、位置特定部231と、位置変換部232と、補間部233と、眼内距離算出部234とを含む。
(位置特定部)
 位置特定部231は、取得されたOCT画像における画素位置(又はスキャンデータにおけるスキャン位置)に対応し、スキャン中心位置Csを通る測定光の進行方向に沿った変換位置を特定する。いくつかの実施形態では、位置特定部231は、変換位置の特定処理に眼球パラメータ212Aを用いる。
 図7に、実施形態に係る位置特定部231の動作説明図を示す。図7において、図5と同様の部分には同一符号を付し、適宜説明を省略する。
 ここで、スキャン角度をφとし、スキャン半径をrとし、OCT計測が可能な深さ範囲をdとし、断層像の深さ方向の長さをhとし、断層像の横方向の長さをwとする。スキャン角度φは、スキャン中心位置Csを中心とする測定光LSの偏向角度に相当する。スキャン半径rは、スキャン中心位置Csから測定光路長と参照光路長とが略等しい光路長ゼロ位置までの距離に相当する。深さ範囲dは、装置の光学設計等により一意に決定される装置固有の値(既知)である。
 位置特定部231は、第1座標系における画素位置(x,z)から第2座標系における変換位置(X,Z)を特定する。第1座標系は、OCT画像(Bスキャン画像)における左上の座標位置を原点とし、Bスキャン方向をx方向とするx座標軸と、x座標軸に直交しAスキャン方向をz方向とするz座標軸とにより定義される。OCT画像における画素位置(x,z)は、第1座標系において定義される。第2座標系は、眼底Efにおける所定部位(例えば中心窩)を通過する測定光軸に対するスキャン角度が0度である測定光LSの進行方向をZ方向とするZ座標軸(例えば、第2軸)と、当該所定部位においてZ座標軸に直交するBスキャン方向をX方向とするX座標軸(例えば、第1軸)とにより定義される。第2座標系では、所定部位(例えば中心窩)を通過する測定光軸においてスキャン半径rの位置が最深部となるように所定のZ位置をZ座標軸の原点とする。また、下記のように所定の深さ方向の長さdとなるように、所定部位(例えば中心窩)を通過する測定光軸における所定のX位置をX座標軸の原点とする。変換位置(X,Z)は、第2座標系において定義される。変換位置(X,Z)は、画素位置(x,z)に対応し、スキャン中心位置Csを通る測定光LSの進行方向(Aスキャン方向)に沿った位置である。
 位置特定部231は、OCT画像に対し、Aスキャン方向のスキャン半径r、スキャン角度φ、OCT計測が可能な深さ範囲d、及び画素位置(x,z)に基づいて、変換位置(X,Z)を特定する。位置特定部231は、変換位置のX成分(第1軸方向の成分)及びZ成分(第2軸方向の成分)の少なくとも1つを特定することが可能である。
 Aスキャンライン数をN(Nは自然数)とするOCT画像(断層像)について、n(nは自然数)番目のAスキャンラインにおける画素位置(x,z)に対応する変換位置(X,Z)は、式(1)及び式(2)に示すように特定される。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 ここで、OCT画像の深さ方向の長さh、横方向の長さw、及び画素位置のx成分は、式(3)~式(5)のように表される。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
 式(1)、(2)において、画素位置のx座標は式(5)のように表される。従って、位置特定部231は、画素位置(x,z)から、スキャン半径r、スキャン角度φ、及び深さ範囲dに基づいて、変換位置(X,Z)を特定することが可能である。
 いくつかの実施形態では、位置特定部231は、スキャンデータに対して、上記と同様に、Aスキャン方向のスキャン半径r、スキャン角度φ、OCT計測が可能な深さ範囲d、及び、スキャン位置に基づいて、変換位置(X,Z)を特定することが可能である。
 いくつかの実施形態では、スキャン半径rは、OCT光学系8により得られた干渉光LCの検出結果を解析することにより特定される。これにより、被検眼Eの眼球光学特性をより正確に反映した変換位置(X,Z)を特定することが可能である。
 いくつかの実施形態では、位置特定部231は、被検眼Eの角膜形状情報に基づいて測定光LSに対して光線追跡処理を施すことによりスキャン角度φを特定する。角膜形状情報には、角膜曲率半径(角膜前面の曲率半径、角膜後面の曲率半径)、角膜厚などがある。これにより、被検眼Eの眼球光学特性をより正確に反映した変換位置(X,Z)を特定することが可能である。
(位置変換部)
 位置変換部232は、OCT画像の画素位置(x,z)を位置特定部231により特定された変換位置(X,Z)に変換する。いくつかの実施形態では、OCT画像の全画素位置のそれぞれについて、位置特定部231が変換位置を特定し、位置変換部232が画素位置を変換位置に変換する。
 それにより、図8に示すように、Aスキャンにより取得されたAスキャン画像をAスキャン方向に配置することが可能になる。従って、図9に示す断層像IMG1のように、画角が広い場合でも、所定部位の形状が実際の形状と同様の断層像を取得することができる。
(補間部)
 補間部233は、変換位置の間の画素を補間する。例えば、上記のようにスキャン中心位置Csからの距離に応じて、画素位置が変換位置に変換され互いに隣接するAスキャン画像の間隔が変化する。補間部233は、Aスキャン画像の深さ位置に応じて、互いに隣接するAスキャン画像の画素を用いてAスキャン画像の間の画素を補間する。補間部233による画素の補間処理として、ニアレストネイバー法、バイリニア補間法、バイキュービック補間法などの公知の方法を採用することが可能である。いくつかの実施形態では、補間部233は、スキャン中心位置Csからの距離に応じて、互いに隣接するAスキャン画像の間の画素を補間する。例えば、補間部233は、スキャン中心位置Csからの距離に応じて補間処理方法を変更して、互いに隣接するAスキャン画像の間の画素を補間する。
 いくつかの実施形態では、スキャンデータにおけるスキャン位置に対して、上記と同様に、スキャンデータを補間する。
(眼内距離算出部)
 眼内距離算出部234は、位置変換部232により画素位置が変換位置に変換されたOCT画像に基づいて被検眼Eの眼内の距離を算出する。
 眼内距離算出部234は、位置変換部232により変換されたOCT画像に基づいて被検眼Eにおける所定の部位間の眼内距離を求める。例えば、眼内距離算出部234は、変換されたOCT画像を解析することにより眼内の所定部位を特定し、特定された部位間の距離に基づいて上記の眼内距離を求める。2点間の距離は、断層像中のピクセル数により特定され、特定されたピクセル数に装置固有のピクセルサイズを乗算することで計測される。このとき、断層像中の全ピクセルについて、同一のピクセルサイズが採用される。
 所定の部位間の眼内距離としては、指定された部位(組織、層領域)間の距離や、眼軸長や、瞳孔中心等に設定された測定光のスキャン中心位置から網膜までの距離などがある。眼内距離として眼軸長が求められる場合、眼内距離算出部234は、角膜頂点に相当する部位から網膜に相当する部位までの距離に基づいて眼軸長を求める。
 いくつかの実施形態では、眼内距離算出部234は、位置変換部232によりスキャン位置が変換位置に変換されたスキャンデータに基づいて、上記と同様に、被検眼Eの眼内の距離を算出する。
 以上のように機能するデータ処理部230は、例えば、前述のプロセッサ、RAM、ROM、ハードディスクドライブ、回路基板等を含んで構成される。ハードディスクドライブ等の記憶装置には、上記機能をプロセッサに実行させるコンピュータプログラムがあらかじめ格納されている。
(ユーザインターフェイス)
 ユーザインターフェイス240には、表示部240Aと操作部240Bとが含まれる。表示部240Aは、前述した演算制御ユニット200の表示デバイスや表示装置3を含んで構成される。操作部240Bは、前述した演算制御ユニット200の操作デバイスを含んで構成される。操作部240Bには、眼科装置1の筐体や外部に設けられた各種のボタンやキーが含まれていてもよい。例えば眼底カメラユニット2が従来の眼底カメラと同様の筺体を有する場合、操作部240Bは、この筺体に設けられたジョイスティックや操作パネル等を含んでいてもよい。また、表示部240Aは、眼底カメラユニット2の筺体に設けられたタッチパネルなどの各種表示デバイスを含んでいてもよい。
 なお、表示部240Aと操作部240Bは、それぞれ個別のデバイスとして構成される必要はない。例えばタッチパネルのように、表示機能と操作機能とが一体化されたデバイスを用いることも可能である。その場合、操作部240Bは、このタッチパネルとコンピュータプログラムとを含んで構成される。操作部240Bに対する操作内容は、電気信号として制御部210に入力される。また、表示部240Aに表示されたグラフィカルユーザインターフェイス(GUI)と、操作部240Bとを用いて、操作や情報入力を行うようにしてもよい。
 OCTユニット100に含まれる干渉光学系から対物レンズ22に至る経路における光学系、又はこれら光学系と画像形成部220は、OCTを用いて複数のAスキャン画像又は複数のAスキャンデータを取得する実施形態に係る「取得部」の一例である。
[動作]
 実施形態に係る眼科装置1の動作について説明する。
 図10及び図11に、実施形態に係る眼科装置1の動作例を示す。図10及び図11は、実施形態に係る眼科装置1の動作例のフローチャートを表す。図11は、図10のステップS7の動作例のフローチャートを表す。記憶部212には、図10及び図11に示す処理を実現するためのコンピュータプログラムが記憶されている。主制御部211は、このコンピュータプログラムに従って動作することにより、図10及び図11に示す処理を実行する。
(S1:アライメント)
 主制御部211は、アライメントを実行する。
 すなわち、主制御部211は、アライメント光学系50を制御して、被検眼Eにアライメント指標を投影させる。このとき、被検眼Eには、LCD39による固視標も投影される。主制御部211は、例えばイメージセンサ35により取得された受光像に基づいて特定された光学系の移動量に基づいて移動機構150を制御し、被検眼Eに対して光学系を当該移動量だけ相対的に移動させる。主制御部211は、この処理を繰り返し実行させる。
 いくつかの実施形態では、ステップS1におけるアライメント完了後に、上記のアライメント粗調整及びアライメント微調整が行われる。
(S2:調整用断層像を取得)
 主制御部211は、LCD39の所定位置にOCT計測用の固視標を表示させる。主制御部211は、眼底Efにおける光学系の光軸の位置に対応するLCD39の表示位置に固視標を表示させることが可能である。
 続いて、主制御部211は、OCTユニット100を制御してOCT仮計測を実行させ、深さ方向の計測範囲の基準位置を調整するための調整用断層像を取得させる。具体的には、主制御部211は、光スキャナー42を制御することにより、光源ユニット101から出射された光L0に基づいて生成された測定光LSを偏向し、偏向された測定光LSで被検眼Eの所定部位(例えば眼底)をスキャンさせる。測定光LSのスキャンにより得られた干渉光の検出結果は、クロックKCに同期してサンプリングされた後、画像形成部220に送られる。画像形成部220は、得られた干渉信号から被検眼Eの断層像(OCT画像)を形成する。
(S3:深さ方向の基準位置を調整)
 続いて、主制御部211は、深さ方向(z方向)の計測範囲の基準位置を調整する。
 例えば、主制御部211は、ステップS2において得られた断層像における所定の部位(例えば、強膜)をデータ処理部230に特定させ、特定された所定の部位の位置に対して深さ方向に所定の距離だけ離れた位置を計測範囲の基準位置として設定する。主制御部211は、基準位置に対応して、光路長変更部41、114の少なくとも一方を制御する。また、測定光LSと参照光LRの光路長が略一致するようにあらかじめ決められた所定の位置が計測範囲の基準位置として設定されてもよい。
(S4:フォーカス調整、偏波調整)
 次に、主制御部211は、フォーカス調整制御及び偏波調整制御を実行する。
 例えば、主制御部211は、合焦駆動部43Aを制御してOCT合焦レンズ43を所定の距離だけ移動させた後、OCTユニット100を制御してOCT計測を実行させる。主制御部211は、上記のように、OCT計測により得られた干渉光の検出結果に基づいて測定光LSのフォーカス状態をデータ処理部230に判定させる。データ処理部230による判定結果に基づいて測定光LSのフォーカス状態が適正ではないと判断されたとき、主制御部211は、再び合焦駆動部43Aの制御を行い、フォーカス状態が適正であると判断されるまで繰り返す。
 また、例えば、主制御部211は、偏波コントローラ103、118の少なくとも一方を制御して光L0及び測定光LSの少なくとも一方の偏波状態を所定の量だけ変更した後、OCTユニット100を制御してOCT計測を実行させ、取得された干渉光の検出結果に基づくOCT画像を画像形成部220に形成させる。主制御部211は、上記のように、OCT計測により得られたOCT画像の画質をデータ処理部230に判定させる。データ処理部230による判定結果に基づいて測定光LSの偏波状態が適正ではないと判断されたとき、主制御部211は、再び偏波コントローラ103、118の制御を行い、偏波状態が適正であると判断されるまで繰り返す。
(S5:干渉信号を取得)
 続いて、主制御部211は、OCTユニット100を制御してOCT計測を実行させる。当該OCT計測により取得された干渉光の検出結果は、DAQ130においてサンプリングされ、干渉信号として記憶部212等に保存される。
(S6:断層像を形成)
 次に、主制御部211は、ステップS5において取得された干渉信号に基づいて被検眼EのAスキャン画像データのデータセット群を画像形成部220に形成させる。画像形成部220は、形成されたAスキャン画像をBスキャン方向に配列することにより、図6に示すような断層像を形成する。
(S7:断層像を補正)
 主制御部211は、記憶部212に記憶された眼球パラメータ212Aを用いて、ステップS6において形成された断層像を上記のように補正する。それにより、図9に示すように、Aスキャン画像がAスキャン方向に配列された断層像が取得される。
 例えば、主制御部211は、新たに生成された断層像(例えば、図9に示す断層像IMG1)と、補正前の断層像(例えば、図6に示す断層像IMG0)とを表示部240Aの同一の画面SCRに表示させる(図12)。それにより、補正後の断層像を表示することで従来の断層像において異なる形態が描出される場合であっても、多くの画像所見等が蓄積された従来の断層像との比較が容易になる。
 いくつかの実施形態では、計測部位に応じて、補正前の断層像を表示する。例えば、補正前と補正後とで形態の変化が小さい黄斑部の近傍の断層像等を表示する場合、敢えて補正前の断層像を表示してもよい。
 以上で、眼科装置1の動作は終了である(エンド)。
 図10のステップS7では、図11に示すように次のような処理が実行される。
(S11:変換位置を算出)
 ステップS7において、主制御部211は、ステップS6において形成された断層像の画素位置に対応した変換位置を位置特定部231に特定させる。位置特定部231は、上記のように、断層像の画素位置に対応する変換位置を特定する。
(S12:画素位置を変換)
 続いて、主制御部211は、位置変換部232を制御することにより、断層像の画素位置をステップS11において算出された変換位置に変換させる。
(S13:次?)
 主制御部211は、次に変換すべき画素位置があるか否かを判定する。
 次に変換すべき画素位置があると判定されたとき(S13:Y)、眼科装置1の動作はステップS11に移行する。次に変換すべき画素位置がないと判定されたとき(S13:N)、眼科装置1の動作はステップS14に移行する。
 ステップS11~S13により、断層像の画素位置毎に、変換位置の特定と、特定された変換位置への変換が行われる。
(S14:補間)
 ステップS13において、次に変換すべき画素位置がないと判定されたとき(S13:N)、主制御部211は、ステップS12において変換位置に変換された互いに隣接するAスキャン画像の間の画素を補間部233に補間させる。
 以上で、図10のステップS7の処理は終了である(エンド)。
<変形例>
 上記の実施形態では、2次元のOCT画像(又は2次元のスキャンデータ)を補正する場合について説明したが、実施形態に係る構成はこれに限定されるものではない。実施形態に係る眼科装置は、上記の実施形態と同様に、3次元のOCT画像(又は3次元のスキャンデータ)を補正することが可能である。以下、実施形態の変形例に係る眼科装置について、実施形態との相違点を中心に説明する。
 実施形態の変形例に係る眼科装置の構成は実施形態に係る眼科装置1の構成と同様であるため、説明を省略する。
 本変形例に係るデータ処理部は、3次元空間における変換位置の特定処理等を行う。
 本変形例に係る位置特定部231は、取得されたOCT画像における画素位置(又はスキャンデータにおけるスキャン位置)に対応し、スキャン中心位置Csを通る測定光の進行方向に沿った変換位置を特定する。いくつかの実施形態では、位置特定部231は、眼球パラメータ212Aを用いて変換位置を特定する。
 図13に、本変形例に係る位置特定部231の動作説明図を示す。図13において、図7と同様の部分には同一符号を付し、適宜説明を省略する。
 図13では、図7におけるX平面及びZ平面の他に、Y平面が定義される。図7に示すパラメータに加えて、Cスキャン方向の中心角をθとし、Cスキャン方向の長さをlcとする。
 位置特定部231は、第3座標系における画素位置(x,y,z)から第4座標系における変換位置(X,Y,Z)を特定する。第3座標系は、3次元のOCT画像における左上隅の座標位置を原点とし、Bスキャン方向をx方向とするx座標軸と、x座標軸と直交しCスキャン方向をy方向とするy座標軸と、x座標軸及びy座標軸の双方に直交しAスキャン方向をz方向とするz座標軸とにより定義される。OCT画像における画素位置(x,y,z)は、第3座標系において定義される。第4座標系は、眼底Efにおける所定部位(例えば中心窩)を通過する測定光軸に対するスキャン角度が0度である測定光LSの進行方向をZ方向とするZ座標軸と、当該所定部位においてZ座標軸に直交するBスキャン方向をX方向とするX座標軸と、当該所定部位においてZ座標軸に直交するCスキャン方向をY方向とするY座標軸とにより定義される。第4座標系では、所定部位(例えば中心窩)を通過する測定光軸においてスキャン半径rの位置が最深部となるように所定のZ位置をZ座標軸の原点とする。また、下記のように所定の深さ方向の長さdとなるように、所定部位(例えば中心窩)を通過する測定光軸における所定のX位置及びY位置をX座標軸及びY座標軸の原点とする。変換位置(X,Y,Z)は、第4座標系において定義される。変換位置(X,Y,Z)は、画素位置(x,y,z)に対応し、スキャン中心位置Csを通る測定光LSの進行方向(Aスキャン方向)に沿った位置である。
 位置特定部231は、変換位置のX成分、Y成分及びZ成分の少なくとも1つを特定することが可能である。
 Aスキャンライン数をN(Nは自然数)とし、Bスキャンライン数をM(Mは自然数)とするOCT画像(断層像)について、m(mは自然数)番目のBスキャンのn(nは自然数)番目のAスキャンラインにおける画素位置(x,y,z)に対応する変換位置(X,Y,Z)は、式(6)~式(8)に示すように特定される。
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
 ここで、3次元のOCT画像の深さ方向の長さhとBスキャン方向の長さwとCスキャン方向の長さlcとから、画素位置のx成分及びy成分は、式(9)~式(13)のように表される。
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000011
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000013
 式(6)~(8)において、画素位置のx座標及びy座標は式(12)及び式(13)のように表される。従って、位置特定部231は、画素位置(x,y,z)から、スキャン半径r、スキャン角度φ、及び深さ範囲dに基づいて、変換位置(X,Y,Z)を特定することが可能である。
 いくつかの実施形態では、位置特定部231は、スキャンデータに対して、上記と同様に、変換位置(X,Y,Z)を特定することが可能である。
 本変形例に係る位置変換部232は、OCT画像の画素位置(x,y,z)を位置特定部231により特定された変換位置(X,Y,Z)に変換する。いくつかの実施形態では、OCT画像の全画素位置のそれぞれについて、位置特定部231が変換位置を特定し、位置変換部232が画素位置を変換位置に変換する。
 上記の実施形態では、OCTユニット100等を含む眼科装置により断層像が補正される場合について説明したが、実施形態に係る構成はこれに限定されるものではない。例えば、図4に示すデータ処理部230の機能を実現する眼科情報処理装置が、取得されたOCT画像(又はスキャンデータ)に対して上記のように断層像を補正してもよい。この場合、OCT画像(又はスキャンデータ)は外部のOCT装置(眼科装置)により取得される。
 いくつかの実施形態では、上記の眼科情報処理をコンピュータに実行させるためのプログラムが提供される。このようなプログラムを、コンピュータによって読み取り可能な任意の記録媒体(例えば、非一時的な記録媒体(Non-transitory computer readable medium))に記憶させることができる。この記録媒体としては、たとえば、半導体メモリ、光ディスク、光磁気ディスク(CD-ROM/DVD-RAM/DVD-ROM/MO等)、磁気記憶媒体(ハードディスク/フロッピー(登録商標)ディスク/ZIP等)などを用いることが可能である。また、インターネットやLAN等のネットワークを通じてこのプログラムを送受信することも可能である。
[効果]
 実施形態に係る眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラムについて説明する。
 いくつかの実施形態に係る眼科情報処理装置(例えば、データ処理部230を含む装置)は、スキャン中心位置(Cs)を中心に偏向された測定光(LS)で被検眼(E)の眼内をスキャンすることにより得られた複数のAスキャン画像を配列することにより形成された被検眼の画像(OCT画像)を補正する。眼科情報処理装置は、特定部(位置特定部231)と、変換部(位置変換部232)とを含む。特定部は、画像における画素位置に対応し、スキャン中心位置を通る測定光の進行方向に沿った変換位置を特定する。変換部は、画素位置を特定部により特定された変換位置に変換する。
 このような構成によれば、複数のAスキャン画像のそれぞれをAスキャン方向に配置することが可能になるので、画角が広くなった場合でも実際の形態を描出する画像を取得することが可能になる。従って、眼内の所定部位の実際の形状等を特定することが可能になる。
 いくつかの実施形態は、変換部により画素位置が変換位置に変換された画像に基づいて、被検眼の形態を表す形態情報を算出する算出部(眼内距離算出部234)を含む。
 このような構成によれば、画角が広くなった場合でも、被検眼の形態を表す形態情報を正確に求めることが可能になる。
 いくつかの実施形態では、形態情報は、眼内の距離を含む。
 このような構成によれば、画角が広くなった場合でも、任意の部位間の眼内距離を正確に求めることが可能になる。
 いくつかの実施形態では、特定部は、進行方向のスキャン半径(r)、スキャン角度(φ)、光コヒーレンストモグラフィによる計測が可能な深さ範囲(d)、及び、画素位置に基づいて、所定の座標系における変換位置の第1軸方向(例えば、X軸方向)の成分及び第1軸方向と交差する第2軸方向(例えば、Z軸方向)の成分の少なくとも1つを特定する。
 このような構成によれば、スキャン半径、スキャン角度、深さ範囲、及び画素位置を用いた簡素な処理で変換位置を特定し、特定された変換位置に基づいて複数のAスキャン画像のそれぞれをAスキャン方向に配置することが可能になる。
 いくつかの実施形態に係る眼科情報処理装置(例えば、データ処理部230を含む装置)は、スキャン中心位置(Cs)を中心に偏向された測定光(LS)で被検眼(E)の眼内をスキャンすることにより得られた複数のAスキャンデータを配列することにより形成された2次元又は3次元のスキャンデータを補正する。眼科情報処理装置は、特定部(位置特定部231)と、変換部(位置変換部232)とを含む。特定部は、スキャンデータにおけるスキャン位置に対応し、スキャン中心位置を通る測定光の進行方向に沿った変換位置を特定する。変換部は、スキャン位置を特定部により特定された変換位置に変換する。
 このような構成によれば、複数のAスキャンデータのそれぞれをAスキャン方向に配置することが可能になるので、画角が広くなった場合でも実際の形態を表すスキャンデータを取得することが可能になる。従って、眼内の所定部位の実際の形状等を特定することが可能になる。
 いくつかの実施形態は、変換部によりスキャン位置が変換位置に変換されたスキャンデータに基づいて被検眼の画像(OCT画像)を形成する画像形成部(220)を含む。
 このような構成によれば、画角が広くなった場合でも実際の形態を描出する画像を取得することが可能になる。
 いくつかの実施形態は、変換部によりスキャン位置が変換位置に変換されたスキャンデータに基づいて、被検眼の形態を表す形態情報を算出する算出部(眼内距離算出部234)を含む。
 このような構成によれば、画角が広くなった場合でも、被検眼の形態を表す形態情報を正確に求めることが可能になる。
 いくつかの実施形態では、形態情報は、眼内の距離を含む。
 このような構成によれば、画角が広くなった場合でも、任意の部位間の眼内距離を正確に求めることが可能になる。
 いくつかの実施形態では、特定部は、進行方向のスキャン半径(r)、スキャン角度(φ)、光コヒーレンストモグラフィによる計測が可能な深さ範囲(d)、及び、スキャン位置に基づいて、所定の座標系における変換位置の第1軸方向(例えば、X軸方向)の成分及び第1軸方向と交差する第2軸方向(例えば、Z軸方向)の成分の少なくとも1つを特定する。
 このような構成によれば、スキャン半径、スキャン角度、深さ範囲、及び画素位置を用いた簡素な処理で変換位置を特定し、特定された変換位置に基づいて複数のAスキャン画像のそれぞれをAスキャン方向に配置することが可能になる。
 いくつかの実施形態では、特定部は、被検眼の角膜形状情報に基づいて測定光に対して光線追跡処理を施すことによりスキャン角度を特定する。
 このような構成によれば、被検眼の眼球光学特性をより正確に反映した変換位置を特定することが可能である。
 いくつかの実施形態は、変換位置の間の画素又はスキャンデータを補間する補間部(233)を含む。
 このような構成によれば、スキャン中心位置からの距離に応じて、隣接するAスキャン画像又はAスキャンデータにおける変換位置の間隔が変化した場合でも、実際の形態に近い形態を表す画像又はスキャンデータを取得することが可能になる。
 いくつかの実施形態では、特定部は、被検眼の光学特性を表すパラメータに基づいて変換位置を特定する。
 このような構成によれば、被検眼の眼球光学特性をより正確に反映した変換位置を特定することが可能である。
 いくつかの実施形態に係る眼科装置(1)は、光コヒーレンストモグラフィを用いて複数のAスキャン画像又は複数のAスキャンデータを取得する取得部(OCTユニット100に含まれる干渉光学系から対物レンズ22に至る経路における光学系、又はこれら光学系と画像形成部220)と、上記のいずれかの眼科情報処理装置と、を含む。
 このような構成によれば、複数のAスキャン画像又は複数のAスキャンデータのそれぞれをAスキャン方向に配置することが可能になるので、画角が広くなった場合でも実際の形態を表す画像又はスキャンデータを取得することが可能になる。従って、眼内の所定部位の実際の形状等を特定することが可能になる。
 いくつかの実施形態に係る眼科情報処理方法は、スキャン中心位置(Cs)を中心に偏向された測定光(LS)で被検眼(E)の眼内をスキャンすることにより得られた複数のAスキャン画像を配列することにより形成された被検眼の画像(OCT画像)を補正する。眼科情報処理方法は、特定ステップと、変換ステップとを含む。特定ステップは、画像における画素位置に対応し、スキャン中心位置を通る測定光の進行方向に沿った変換位置を特定する。変換ステップは、画素位置を特定ステップにおいて特定された変換位置に変換する。
 このような方法によれば、複数のAスキャン画像のそれぞれをAスキャン方向に配置することが可能になるので、画角が広くなった場合でも実際の形態を描出する画像を取得することが可能になる。従って、眼内の所定部位の実際の形状等を特定することが可能になる。
 いくつかの実施形態は、変換ステップにおいて画素位置が変換位置に変換された画像に基づいて、被検眼の形態を表す形態情報を算出する算出ステップを含む。
 このような方法によれば、画角が広くなった場合でも、被検眼の形態を表す形態情報を正確に求めることが可能になる。
 いくつかの実施形態に係る眼科情報処理方法は、スキャン中心位置(Cs)を中心に偏向された測定光(LS)で被検眼(E)の眼内をスキャンすることにより得られた複数のAスキャンデータを配列することにより形成された2次元又は3次元のスキャンデータを補正する。眼科情報処理方法は、特定ステップと、変換ステップとを含む。特定ステップは、スキャンデータにおけるスキャン位置に対応し、スキャン中心位置を通る測定光の進行方向に沿った変換位置を特定する。変換ステップは、スキャン位置を特定ステップにおいて特定された変換位置に変換する。
 このような方法によれば、複数のAスキャンデータのそれぞれをAスキャン方向に配置することが可能になるので、画角が広くなった場合でも実際の形態を表すスキャンデータを取得することが可能になる。従って、眼内の所定部位の実際の形状等を特定することが可能になる。
 いくつかの実施形態は、変換ステップにおいてスキャン位置が変換位置に変換されたスキャンデータに基づいて被検眼の画像(OCT画像)を形成する画像形成ステップを含む。
 このような方法によれば、画角が広くなった場合でも実際の形態を描出する画像を取得することが可能になる。
 いくつかの実施形態は、変換ステップにおいてスキャン位置が変換位置に変換されたスキャンデータに基づいて、被検眼の形態を表す形態情報を算出する算出ステップを含む。
 このような方法によれば、画角が広くなった場合でも、被検眼の形態を表す形態情報を正確に求めることが可能になる。
 いくつかの実施形態では、形態情報は、眼内の距離を含む。
 このような方法によれば、画角が広くなった場合でも、任意の部位間の眼内距離を正確に求めることが可能になる。
 いくつかの実施形態は、変換位置の間の画素又はスキャンデータを補間する補間ステップを含む。
 このような方法によれば、スキャン中心位置からの距離に応じて、隣接するAスキャン画像又はAスキャンデータにおける変換位置の間隔が変化した場合でも、実際の形態に近い形態を表す画像又はスキャンデータを取得することが可能になる。
 いくつかの実施形態では、特定ステップは、被検眼の光学特性を表すパラメータに基づいて変換位置を特定する。
 このような方法によれば、被検眼の眼球光学特性をより正確に反映した変換位置を特定することが可能である。
 いくつかの実施形態に係るプログラムは、コンピュータに、上記のいずれかに記載の眼科情報処理方法の各ステップを実行させる。
 このようなプログラムによれば、画角が広くなった場合でも実際の形態を描出する画像又は実際の形態を表すスキャンデータを取得することが可能になる。従って、眼内の所定部位の実際の形状等を特定することが可能になる。
<その他>
 以上に示された実施形態又はその変形例は、この発明を実施するための一例に過ぎない。この発明を実施しようとする者は、この発明の要旨の範囲内において任意の変形、省略、追加等を施すことが可能である。
1 眼科装置
100 OCTユニット
200 演算制御ユニット
210 制御部
211 主制御部
212 記憶部
212A 眼球パラメータ
220 画像形成部
230 データ処理部
231 位置特定部
232 位置変換部
233 補間部
234 眼内距離算出部
E 被検眼
LS 測定光

Claims (22)

  1.  スキャン中心位置を中心に偏向された測定光で被検眼の眼内をスキャンすることにより得られた複数のAスキャン画像を配列することにより形成された前記被検眼の画像を補正する眼科情報処理装置であって、
     前記画像における画素位置に対応し、前記スキャン中心位置を通る前記測定光の進行方向に沿った変換位置を特定する特定部と、
     前記画素位置を前記特定部により特定された前記変換位置に変換する変換部と、
     を含む眼科情報処理装置。
  2.  前記変換部により前記画素位置が前記変換位置に変換された前記画像に基づいて、前記被検眼の形態を表す形態情報を算出する算出部を含む
     ことを特徴とする請求項1に記載の眼科情報処理装置。
  3.  前記形態情報は、前記眼内の距離を含む
     ことを特徴とする請求項2に記載の眼科情報処理装置。
  4.  前記特定部は、前記進行方向のスキャン半径、スキャン角度、光コヒーレンストモグラフィによる計測が可能な深さ範囲、及び、前記画素位置に基づいて、所定の座標系における前記変換位置の第1軸方向の成分及び前記第1軸方向と交差する第2軸方向の成分の少なくとも1つを特定する
     ことを特徴とする請求項1~請求項3のいずれか一項に記載の眼科情報処理装置。
  5.  スキャン中心位置を中心に偏向された測定光で被検眼の眼内をスキャンすることにより得られた複数のAスキャンデータを配列することにより形成された2次元又は3次元のスキャンデータを補正する眼科情報処理装置であって、
     前記スキャンデータにおけるスキャン位置に対応し、前記スキャン中心位置を通る前記測定光の進行方向に沿った変換位置を特定する特定部と、
     前記スキャン位置を前記特定部により特定された前記変換位置に変換する変換部と、
     を含む眼科情報処理装置。
  6.  前記変換部により前記スキャン位置が前記変換位置に変換された前記スキャンデータに基づいて前記被検眼の画像を形成する画像形成部を含む
     ことを特徴とする請求項5に記載の眼科情報処理装置。
  7.  前記変換部により前記スキャン位置が前記変換位置に変換された前記スキャンデータに基づいて、前記被検眼の形態を表す形態情報を算出する算出部を含む
     ことを特徴とする請求項5又は請求項6に記載の眼科情報処理装置。
  8.  前記形態情報は、前記眼内の距離を含む
     ことを特徴とする請求項7に記載の眼科情報処理装置。
  9.  前記特定部は、前記進行方向のスキャン半径、スキャン角度、光コヒーレンストモグラフィによる計測が可能な深さ範囲、及び、前記スキャン位置に基づいて、所定の座標系における前記変換位置の第1軸方向の成分及び前記第1軸方向と交差する第2軸方向の成分の少なくとも1つを特定する
     ことを特徴とする請求項5~請求項8のいずれか一項に記載の眼科情報処理装置。
  10.  前記特定部は、前記被検眼の角膜形状情報に基づいて前記測定光に対して光線追跡処理を施すことにより前記スキャン角度を特定する
     ことを特徴とする請求項4又は請求項9に記載の眼科情報処理装置。
  11.  前記変換位置の間の画素又はスキャンデータを補間する補間部を含む
     ことを特徴とする請求項1~請求項10のいずれか一項に記載の眼科情報処理装置。
  12.  前記特定部は、前記被検眼の光学特性を表すパラメータに基づいて前記変換位置を特定する
     ことを特徴とする請求項1~請求項11のいずれか一項に記載の眼科情報処理装置。
  13.  光コヒーレンストモグラフィを用いて前記複数のAスキャン画像又は前記複数のAスキャンデータを取得する取得部と、
     請求項1~請求項12のいずれか一項に記載の眼科情報処理装置と、
     を含む眼科装置。
  14.  スキャン中心位置を中心に偏向された測定光で被検眼の眼内をスキャンすることにより得られた複数のAスキャン画像を配列することにより形成された前記被検眼の画像を補正する眼科情報処理方法であって、
     前記画像における画素位置に対応し、前記スキャン中心位置を通る前記測定光の進行方向に沿った変換位置を特定する特定ステップと、
     前記画素位置を前記特定ステップにおいて特定された前記変換位置に変換する変換ステップと、
     を含む眼科情報処理方法。
  15.  前記変換ステップにおいて前記画素位置が前記変換位置に変換された前記画像に基づいて、前記被検眼の形態を表す形態情報を算出する算出ステップを含む
     ことを特徴とする請求項14に記載の眼科情報処理方法。
  16.  スキャン中心位置を中心に偏向された測定光で被検眼の眼内をスキャンすることにより得られた複数のAスキャンデータを配列することにより形成された2次元又は3次元のスキャンデータを補正する眼科情報処理方法であって、
     前記スキャンデータにおけるスキャン位置に対応し、前記スキャン中心位置を通る前記測定光の進行方向に沿った変換位置を特定する特定ステップと、
     前記スキャン位置を前記特定ステップにおいて特定された前記変換位置に変換する変換ステップと、
     を含む眼科情報処理方法。
  17.  前記変換ステップにおいて前記スキャン位置が前記変換位置に変換された前記スキャンデータに基づいて前記被検眼の画像を形成する画像形成ステップを含む
     ことを特徴とする請求項16に記載の眼科情報処理方法。
  18.  前記変換ステップにおいて前記スキャン位置が前記変換位置に変換された前記スキャンデータに基づいて、前記被検眼の形態を表す形態情報を算出する算出ステップを含む
     ことを特徴とする請求項16又は請求項17に記載の眼科情報処理方法。
  19.  前記形態情報は、前記眼内の距離を含む
     ことを特徴とする請求項15又は請求項18に記載の眼科情報処理方法。
  20.  前記変換位置の間の画素又はスキャンデータを補間する補間ステップを含む
     ことを特徴とする請求項14~請求項19のいずれか一項に記載の眼科情報処理方法。
  21.  前記特定ステップは、前記被検眼の光学特性を表すパラメータに基づいて前記変換位置を特定する
     ことを特徴とする請求項14~請求項20のいずれか一項に記載の眼科情報処理方法。
  22.  コンピュータに、請求項14~請求項21のいずれか一項に記載の眼科情報処理方法の各ステップを実行させることを特徴とするプログラム。
PCT/JP2019/051169 2019-01-28 2019-12-26 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム WO2020158282A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19912859.6A EP3918975A4 (en) 2019-01-28 2019-12-26 OPHTHALMIC INFORMATION PROCESSING DEVICE, OPHTHALMIC DEVICE, OPHTHALMIC INFORMATION PROCESSING METHOD, AND PROGRAM
US17/083,312 US11980416B2 (en) 2019-01-28 2020-10-29 Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and recording medium
US18/404,926 US20240130612A1 (en) 2019-01-28 2024-01-05 Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019012330A JP7166182B2 (ja) 2019-01-28 2019-01-28 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP2019-012330 2019-01-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/083,312 Continuation US11980416B2 (en) 2019-01-28 2020-10-29 Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and recording medium

Publications (1)

Publication Number Publication Date
WO2020158282A1 true WO2020158282A1 (ja) 2020-08-06

Family

ID=71839955

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/051169 WO2020158282A1 (ja) 2019-01-28 2019-12-26 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム

Country Status (4)

Country Link
US (2) US11980416B2 (ja)
EP (1) EP3918975A4 (ja)
JP (1) JP7166182B2 (ja)
WO (1) WO2020158282A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022250048A1 (ja) * 2021-05-25 2022-12-01 株式会社ニコン 画像処理方法、画像処理装置、及びプログラム
CN114359254B (zh) * 2022-01-13 2023-12-19 视微影像(河南)科技有限公司 一种眼前节oct图像光柱检测与定位跟踪方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010279440A (ja) * 2009-06-02 2010-12-16 Canon Inc 画像処理装置及びその制御方法、コンピュータプログラム
JP2018175258A (ja) * 2017-04-10 2018-11-15 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
WO2019008968A1 (ja) * 2017-07-05 2019-01-10 株式会社トプコン 眼科装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5627248B2 (ja) 2010-02-17 2014-11-19 キヤノン株式会社 眼科装置および眼科装置の制御方法、そのプログラム
US8517537B2 (en) 2011-01-20 2013-08-27 Canon Kabushiki Kaisha Optical coherence tomographic imaging method and optical coherence tomographic imaging apparatus
JP5794664B2 (ja) 2011-01-20 2015-10-14 キヤノン株式会社 断層画像生成装置及び断層画像生成方法
JP5893248B2 (ja) 2011-01-20 2016-03-23 キヤノン株式会社 光断層画像撮像方法および光断層画像撮像装置
JP2015102537A (ja) 2013-11-28 2015-06-04 キヤノン株式会社 光干渉断層計
JP2015104582A (ja) 2013-11-29 2015-06-08 株式会社ニデック 光断層像撮影装置、及び光断層像撮影プログラム
JP6526145B2 (ja) 2017-10-06 2019-06-05 キヤノン株式会社 画像処理システム、処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010279440A (ja) * 2009-06-02 2010-12-16 Canon Inc 画像処理装置及びその制御方法、コンピュータプログラム
JP2018175258A (ja) * 2017-04-10 2018-11-15 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
WO2019008968A1 (ja) * 2017-07-05 2019-01-10 株式会社トプコン 眼科装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3918975A4 *

Also Published As

Publication number Publication date
JP2020116315A (ja) 2020-08-06
US20240130612A1 (en) 2024-04-25
EP3918975A1 (en) 2021-12-08
US11980416B2 (en) 2024-05-14
JP7166182B2 (ja) 2022-11-07
US20210038068A1 (en) 2021-02-11
EP3918975A4 (en) 2022-10-05

Similar Documents

Publication Publication Date Title
JP7348374B2 (ja) 眼科情報処理装置、眼科撮影装置、眼科情報処理方法、及びプログラム
US20240130612A1 (en) Ophthalmologic information processing apparatus, ophthalmologic apparatus, ophthalmologic information processing method, and recording medium
JP2020110224A (ja) 眼科装置、及びその制御方法
JP6736734B2 (ja) 眼科撮影装置及び眼科情報処理装置
WO2020044712A1 (ja) 眼科装置、及びその制御方法
WO2021149430A1 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP2020137672A (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP2020010889A (ja) 眼科装置、及びその制御方法
JP7289394B2 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP7335107B2 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP7503909B2 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP7374272B2 (ja) 眼科装置
US11298019B2 (en) Ophthalmologic apparatus and method for controlling the same
JP7288276B2 (ja) 眼科装置、及びその制御方法
JP7202808B2 (ja) 眼科装置、及びその制御方法
JP2023175006A (ja) 眼科装置、及びその制御方法
JP2022171788A (ja) 眼科装置、及びその制御方法
JP2020124380A (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP2020103425A (ja) 眼科装置、及びその制御方法
JP2020103422A (ja) 眼科装置、及びその制御方法
JP2020039560A (ja) 眼科装置、及びその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19912859

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019912859

Country of ref document: EP

Effective date: 20210830