WO2017090549A1 - 眼科撮影装置及び眼科画像表示装置 - Google Patents

眼科撮影装置及び眼科画像表示装置 Download PDF

Info

Publication number
WO2017090549A1
WO2017090549A1 PCT/JP2016/084402 JP2016084402W WO2017090549A1 WO 2017090549 A1 WO2017090549 A1 WO 2017090549A1 JP 2016084402 W JP2016084402 W JP 2016084402W WO 2017090549 A1 WO2017090549 A1 WO 2017090549A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
unit
image
eye
display condition
Prior art date
Application number
PCT/JP2016/084402
Other languages
English (en)
French (fr)
Inventor
釣 滋孝
秋葉 正博
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Publication of WO2017090549A1 publication Critical patent/WO2017090549A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Definitions

  • the present invention relates to an ophthalmologic photographing apparatus and an ophthalmic image display apparatus.
  • OCT optical coherence tomography
  • Patent Document 1 discloses an OCT technique capable of imaging an intermediate translucent region (a crystalline lens, a vitreous body, or the like) between the anterior eye part and the fundus oculi.
  • the change in the signal in the vitreous body which is a transparent jelly-like tissue, is considerably weaker than the change in the signal in the fundus where a plurality of tissues are laminated, so a cross-sectional image of the range including the vitreous body and the fundus Is displayed in monochrome, the vitreous body state may not be observed in detail.
  • An object of the ophthalmologic photographing apparatus and the ophthalmic image display apparatus according to the present invention is to provide an image in which a plurality of parts of the eye to be examined are depicted in detail.
  • the ophthalmologic photographing apparatus includes a storage unit, a data collection unit, an image forming unit, a partial region specifying unit, a display condition selecting unit, and a control unit.
  • the storage unit stores in advance display condition information in which display conditions including a display color and a display gradation are associated with each of one or more parts of the eye.
  • the data collection unit collects data of the eye to be examined using optical coherence tomography.
  • the image forming unit forms an image based on the data collected by the data collecting unit.
  • the partial region specifying unit specifies a partial region corresponding to a predetermined part of the eye to be examined by analyzing the image formed by the image forming unit.
  • the display condition selection unit selects a display condition corresponding to the predetermined part from the display condition information.
  • the control unit causes the display unit to display the image formed by the image forming unit based on the display condition selected by the display condition selection unit.
  • Schematic showing an example of a structure of the ophthalmologic imaging apparatus which concerns on embodiment Schematic showing an example of a structure of the ophthalmologic imaging apparatus which concerns on embodiment. Schematic showing an example of a structure of the ophthalmologic imaging apparatus which concerns on embodiment. Schematic showing an example of a structure of the ophthalmologic imaging apparatus which concerns on embodiment. Schematic for demonstrating an example of a structure of the ophthalmologic imaging device which concerns on embodiment. Schematic for demonstrating an example of a structure of the ophthalmologic imaging device which concerns on embodiment. Schematic showing an example of a structure of the ophthalmologic imaging apparatus which concerns on embodiment. Schematic for demonstrating an example of operation
  • the ophthalmologic imaging apparatus is an ophthalmologic apparatus having a function of executing at least optical coherence tomography (OCT).
  • OCT optical coherence tomography
  • the embodiment is not limited to this.
  • the type of OCT is not limited to the swept source OCT, and may be a spectral domain OCT, a time domain OCT, or a full field OCT (in-face OCT).
  • the ophthalmologic photographing apparatus may or may not have a function of acquiring a photograph (digital photograph) of the eye to be examined like a fundus camera.
  • a scanning laser ophthalmoscope SLO
  • a slit lamp microscope an anterior segment imaging camera, a surgical microscope, or the like.
  • the ophthalmologic photographing apparatus 1 includes a fundus camera unit 2, an OCT unit 100, and an arithmetic control unit 200.
  • the fundus camera unit 2 is provided with an optical system that is substantially the same as that of a conventional fundus camera.
  • the OCT unit 100 is provided with an optical system and a mechanism for performing OCT.
  • the arithmetic control unit 200 includes a processor.
  • a chin rest and a forehead support for supporting the face of the subject are provided at positions facing the fundus camera unit 2.
  • processor refers to, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application Specific Integrated Circuit), a programmable logic device (for example, SPLD (Simple ProGLD). It means a circuit such as Programmable Logic Device (FPGA) or Field Programmable Gate Array (FPGA).
  • FPGA Programmable Logic Device
  • FPGA Field Programmable Gate Array
  • the fundus camera unit 2 is provided with an optical system and mechanism for photographing the fundus oculi Ef of the eye E to be examined. Images obtained by photographing the fundus oculi Ef (called fundus images, fundus photographs, etc.) include observation images and photographed images. The observation image is obtained, for example, by moving image shooting using near infrared light. The captured image is, for example, a color image or monochrome image obtained using visible flash light, or a monochrome image obtained using near-infrared flash light.
  • the fundus camera unit 2 may be able to acquire a fluorescein fluorescent image, an indocyanine green fluorescent image, a spontaneous fluorescent image, or the like.
  • the fundus camera unit 2 includes an illumination optical system 10 and a photographing optical system 30.
  • the illumination optical system 10 irradiates the eye E with illumination light.
  • the imaging optical system 30 detects the return light of the illumination light from the eye E.
  • the measurement light from the OCT unit 100 is guided to the eye E through the optical path in the fundus camera unit 2, and the return light is guided to the OCT unit 100 through the same optical path.
  • the observation light source 11 of the illumination optical system 10 is, for example, a halogen lamp or an LED (Light Emitting Diode).
  • the light (observation illumination light) output from the observation light source 11 is reflected by the reflection mirror 12 having a curved reflection surface, passes through the condensing lens 13, passes through the visible cut filter 14, and is converted into near infrared light. Become. Further, the observation illumination light is once converged in the vicinity of the photographing light source 15, reflected by the mirror 16, and passes through the relay lenses 17 and 18, the diaphragm 19 and the relay lens 20.
  • the observation illumination light is reflected by the peripheral part of the perforated mirror 21 (area around the perforated part), passes through the dichroic mirror 46, and is refracted by the objective lens 22 so as to pass through the eye E (especially the fundus oculi Ef). Illuminate.
  • the return light of the observation illumination light from the eye E is refracted by the objective lens 22, passes through the dichroic mirror 46, passes through the hole formed in the central region of the perforated mirror 21, and passes through the dichroic mirror 55.
  • the light is reflected by the mirror 32 via the photographing focusing lens 31. Further, the return light passes through the half mirror 33A, is reflected by the dichroic mirror 33, and forms an image on the light receiving surface of the CCD image sensor 35 by the condenser lens.
  • the CCD image sensor 35 detects the return light at a predetermined frame rate, for example. Note that an observation image of the fundus oculi Ef is obtained when the photographing optical system 30 is focused on the fundus oculi Ef, and an anterior eye observation image is obtained when the focus is on the anterior eye segment.
  • the imaging light source 15 is a visible light source including, for example, a xenon lamp or an LED.
  • the light (imaging illumination light) output from the imaging light source 15 is applied to the fundus oculi Ef through the same path as the observation illumination light.
  • the return light of the imaging illumination light from the eye E is guided to the dichroic mirror 33 through the same path as the return light of the observation illumination light, passes through the dichroic mirror 33, is reflected by the mirror 36, and is reflected by the condenser lens 37.
  • An image is formed on the light receiving surface of the CCD image sensor 38.
  • the LCD 39 displays a fixation target for fixing the eye E to be examined.
  • a part of the light beam (fixed light beam) output from the LCD 39 is reflected by the half mirror 33A, reflected by the mirror 32, and passes through the photographing focusing lens 31 and the dichroic mirror 55, and then the hole of the aperture mirror 21. Pass through the department.
  • the fixation light beam that has passed through the hole of the aperture mirror 21 passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the fixation position of the eye E can be changed.
  • a matrix LED in which a plurality of LEDs are two-dimensionally arranged, or a combination of a light source and a variable aperture (liquid crystal aperture or the like) can be used as the fixation light output unit.
  • the fundus camera unit 2 is provided with an alignment optical system 50 and a focus optical system 60.
  • the alignment optical system 50 generates an alignment index used for alignment of the optical system with respect to the eye E.
  • the focus optical system 60 generates a split index used for focus adjustment with respect to the eye E.
  • Alignment light output from the LED 51 of the alignment optical system 50 is reflected by the dichroic mirror 55 via the apertures 52 and 53 and the relay lens 54, and passes through the hole of the perforated mirror 21.
  • the light that has passed through the hole of the perforated mirror 21 passes through the dichroic mirror 46 and is projected onto the eye E by the objective lens 22.
  • the cornea-reflected light of the alignment light passes through the objective lens 22, the dichroic mirror 46, and the hole, part of which passes through the dichroic mirror 55, passes through the photographing focusing lens 31, is reflected by the mirror 32, and is half
  • the light passes through the mirror 33A, is reflected by the dichroic mirror 33, and is projected onto the light receiving surface of the CCD image sensor 35 by the condenser lens. Based on the received light image (alignment index image) by the CCD image sensor 35, manual alignment and auto alignment similar to the conventional one can be performed.
  • the focus optical system 60 is moved along the optical path (illumination optical path) of the illumination optical system 10 in conjunction with the movement of the imaging focusing lens 31 along the optical path (imaging optical path) of the imaging optical system 30.
  • the reflection bar 67 can be inserted into and removed from the illumination optical path.
  • the reflecting surface of the reflecting rod 67 is obliquely provided in the illumination light path.
  • the focus light output from the LED 61 passes through the relay lens 62, is separated into two light beams by the split target plate 63, passes through the two-hole aperture 64, is reflected by the mirror 65, and is reflected by the condenser lens 66. An image is once formed on the reflection surface 67 and reflected. Further, the focus light passes through the relay lens 20, is reflected by the perforated mirror 21, passes through the dichroic mirror 46, is refracted by the objective lens 22, and is projected onto the fundus oculi Ef.
  • the fundus reflected light of the focus light is detected by the CCD image sensor 35 through the same path as the corneal reflected light of the alignment light. Based on the received image (split index image) by the CCD image sensor 35, manual alignment and auto-alignment similar to the conventional one can be performed.
  • the photographing optical system 30 includes diopter correction lenses 70 and 71.
  • the diopter correction lenses 70 and 71 can be selectively inserted into a photographing optical path between the perforated mirror 21 and the dichroic mirror 55.
  • the diopter correction lens 70 is a plus (+) lens for correcting intensity hyperopia, for example, a + 20D (diopter) convex lens.
  • the diopter correction lens 71 is a minus ( ⁇ ) lens for correcting high myopia, for example, a ⁇ 20D concave lens.
  • the diopter correction lenses 70 and 71 are mounted on, for example, a turret plate. The turret plate is formed with a hole for the case where none of the diopter correction lenses 70 and 71 is applied.
  • the dichroic mirror 46 combines the optical path for fundus imaging and the optical path for OCT.
  • the dichroic mirror 46 reflects light in a wavelength band used for OCT and transmits light for fundus photographing.
  • a collimator lens unit 40, an optical path length changing unit 41, an optical scanner 42, an OCT focusing lens 43, a mirror 44, and a relay lens 45 are provided in this order from the OCT unit 100 side.
  • the optical path length changing unit 41 is movable in the direction of the arrow shown in FIG. 1, and changes the optical path length of the optical path for OCT. This change in the optical path length is used for correcting the optical path length according to the axial length of the eye E or adjusting the interference state.
  • the optical path length changing unit 41 includes, for example, a corner cube and a mechanism for moving the corner cube.
  • the optical scanner 42 is disposed at a position optically conjugate with the pupil of the eye E to be examined.
  • the optical scanner 42 changes the traveling direction of the measurement light LS that passes through the optical path for OCT. Thereby, the eye E is scanned with the measurement light LS.
  • the optical scanner 42 can deflect the measurement light LS in an arbitrary direction on the xy plane, and includes, for example, a galvanometer mirror that deflects the measurement light LS in the x direction and a galvanometer mirror that deflects the measurement light LS in the y direction.
  • the OCT unit 100 is provided with an optical system for performing OCT of the eye E.
  • the configuration of this optical system is the same as that of the conventional swept source OCT. That is, this optical system divides the light from the wavelength sweep type (wavelength scanning type) light source into the measurement light and the reference light, and returns the return light of the measurement light from the eye E and the reference light via the reference light path.
  • An interference optical system that generates interference light by causing interference and detects the interference light is included.
  • a detection result (detection signal) obtained by the interference optical system is a signal indicating the spectrum of the interference light, and is sent to the arithmetic control unit 200.
  • the light source unit 101 includes a wavelength swept type (wavelength scanning type) light source that changes the wavelength of the emitted light at high speed, like a general swept source OCT.
  • the wavelength sweep type light source is, for example, a near infrared laser light source.
  • the light L0 output from the light source unit 101 is guided to the polarization controller 103 by the optical fiber 102 and its polarization state is adjusted. Further, the light L0 is guided to the fiber coupler 105 by the optical fiber 104 and is divided into the measurement light LS and the reference light LR.
  • the reference light LR is guided to the collimator 111 by the optical fiber 110, converted into a parallel light beam, and guided to the corner cube 114 via the optical path length correction member 112 and the dispersion compensation member 113.
  • the optical path length correction member 112 acts to match the optical path length of the reference light LR and the optical path length of the measurement light LS.
  • the dispersion compensation member 113 acts to match the dispersion characteristics between the reference light LR and the measurement light LS.
  • the corner cube 114 turns the traveling direction of the incident reference light LR in the reverse direction.
  • the incident direction and the emitting direction of the reference light LR with respect to the corner cube 114 are parallel to each other.
  • the corner cube 114 is movable in the incident direction of the reference light LR, and thereby the optical path length of the reference light LR is changed.
  • the optical path length changing unit 41 for changing the length of the optical path (measurement optical path, measurement arm) of the measurement light LS and the optical path (reference optical path, reference arm) of the reference light LR are used. Both corner cubes 114 for changing the length are provided, but only one of the optical path length changing unit 41 and the corner cube 114 may be provided. It is also possible to change the difference between the measurement optical path length and the reference optical path length using optical members other than these.
  • the reference light LR that has passed through the corner cube 114 is converted from a parallel light beam into a converged light beam by the collimator 116 via the dispersion compensation member 113 and the optical path length correction member 112, and enters the optical fiber 117.
  • the reference light LR incident on the optical fiber 117 is guided to the polarization controller 118 and its polarization state is adjusted.
  • the reference light LR is guided to the attenuator 120 by the optical fiber 119 and the amount of light is adjusted, and is guided to the fiber coupler 122 by the optical fiber 121. It is burned.
  • the measurement light LS generated by the fiber coupler 105 is guided by the optical fiber 127 and converted into a parallel light beam by the collimator lens unit 40, and the optical path length changing unit 41, the optical scanner 42, the OCT focusing lens 43, and the mirror 44. Then, the light passes through the relay lens 45, is reflected by the dichroic mirror 46, is refracted by the objective lens 22, and enters the eye E to be examined.
  • the measurement light LS is scattered and reflected at various depth positions of the eye E.
  • the return light of the measurement light LS from the eye E travels in the reverse direction on the same path as the forward path, is guided to the fiber coupler 105, and reaches the fiber coupler 122 via the optical fiber 128.
  • the fiber coupler 122 combines (interferences) the measurement light LS incident through the optical fiber 128 and the reference light LR incident through the optical fiber 121 to generate interference light.
  • the fiber coupler 122 generates a pair of interference light LC by branching the interference light at a predetermined branching ratio (for example, 1: 1).
  • the pair of interference lights LC are guided to the detector 125 through optical fibers 123 and 124, respectively.
  • the detector 125 is, for example, a balanced photodiode (Balanced Photo Diode).
  • the balanced photodiode has a pair of photodetectors that respectively detect the pair of interference lights LC, and outputs a difference between detection results obtained by these.
  • the detector 125 sends the detection result (detection signal) to a DAQ (Data Acquisition System) 130.
  • DAQ Data Acquisition System
  • the clock KC is supplied from the light source unit 101 to the DAQ 130.
  • the clock KC is generated in synchronization with the output timing of each wavelength swept within a predetermined wavelength range by the wavelength sweep type light source in the light source unit 101.
  • the light source unit 101 optically delays one of the two branched lights obtained by branching the light L0 of each output wavelength, and then generates a clock KC based on the result of detecting these combined lights. Generate.
  • the DAQ 130 samples the detection signal input from the detector 125 based on the clock KC.
  • the DAQ 130 sends the sampling result of the detection signal from the detector 125 to the arithmetic control unit 200.
  • the arithmetic control unit 200 controls each part of the fundus camera unit 2, the display device 3, and the OCT unit 100.
  • the arithmetic control unit 200 executes various arithmetic processes.
  • the arithmetic control unit 200 performs signal processing such as Fourier transform on the spectrum distribution based on the detection result obtained by the detector 125 for each series of wavelength scans (for each A line).
  • a reflection intensity profile is formed.
  • the arithmetic control unit 200 forms image data by imaging the reflection intensity profile of each A line.
  • the arithmetic processing for that is the same as the conventional swept source OCT.
  • the arithmetic control unit 200 includes, for example, a processor, a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk drive, a communication interface, and the like. Various computer programs are stored in a storage device such as a hard disk drive.
  • the arithmetic control unit 200 may include an operation device, an input device, a display device, and the like.
  • Control system> A configuration example of the control system of the ophthalmologic photographing apparatus 1 is shown in FIG.
  • Control unit 210 controls each unit of the ophthalmologic photographing apparatus 1.
  • Control unit 210 includes a processor.
  • the control unit 210 includes a main control unit 211, a storage unit 212, and a display condition selection unit 213.
  • the main control unit 211 performs various controls.
  • the main control unit 211 includes an imaging focusing lens 31, CCDs (image sensors) 35 and 38, an LCD 39, an optical path length changing unit 41, an optical scanner 42, an OCT focusing lens 43, a focus optical system 60, a reflector 67,
  • the light source unit 101, the reference driving unit 114A, the detector 125, the DAQ 130, and the like are controlled.
  • the reference driving unit 114A moves the corner cube 114 provided in the reference optical path. Thereby, the length of the reference optical path is changed.
  • the ophthalmologic photographing apparatus 1 includes a moving mechanism 150.
  • the moving mechanism 150 moves, for example, the fundus camera unit 2 (or at least a part of the optical system stored therein).
  • the moving mechanism 150 may be capable of moving the OCT unit 100 (or at least a part of the optical system stored in the OCT unit 100).
  • the moving mechanism 150 includes one or more actuators 151.
  • the actuator 151 includes, for example, a pulse motor controlled by the main control unit 211, and generates a driving force for moving the fundus camera unit 2 and the like.
  • the driving force generated by the pulse motor 151 is transmitted by a mechanism (not shown) to move the fundus camera unit 2 and the like. Thereby, the fundus camera unit 2 and the like are moved three-dimensionally.
  • the storage unit 212 stores various data. Examples of the data stored in the storage unit 212 include image data of an OCT image, image data of a fundus image, and eye information to be examined.
  • the eye information includes subject information such as patient ID and name, left / right eye identification information, electronic medical record information, and the like.
  • display condition information 212a is stored in the storage unit 212 in advance.
  • display conditions are associated with one or more parts of the eye.
  • the part of the eye includes, for example, the fundus, the vitreous body, the crystalline lens, the anterior chamber, and the cornea.
  • the “fundus” may be classified into a plurality of sub-tissues (retina, vitreous, sclera, etc.).
  • the display condition represents a condition (parameter) for displaying an image (cross-sectional image, three-dimensional image, front cross-sectional image, etc.) obtained by OCT.
  • the display conditions include, for example, display color and display gradation. A combination of display color and display gradation may be referred to as a color code.
  • the display condition includes a color code.
  • the display color may be any color that can be displayed by the display unit 241 (or an external display device), and may be a single color or a multicolor.
  • Examples of single colors include black and white, red, green, and blue.
  • Examples of multicolor include the three primary colors of light (red, green, blue).
  • the display gradation indicates the gradation (number of shade steps) when displaying an image obtained by OCT.
  • the display gradation may include at least one of a color gradation and a brightness (luminance) gradation.
  • the number of gradations may be an arbitrary number of 1 or more. For example, there are 1 gradation, 2 gradations,..., 256 gradations.
  • the display gradation is set based on, for example, the gradation of a cross-sectional image (grayscale image) formed by an image forming unit 220 described later.
  • the gradation of this gray scale image (image expressed by white, black, and gray that is an intermediate color thereof) may be referred to as a reference gradation.
  • the display gradation includes one or more gradation values as described above. If display gradation is 1 gradation, the same display tone value for a given tone value at the reference gradation A 0 is assigned.
  • gradation number N of display gradations is a number of gradations or less of the value of the reference tone A 0.
  • Each of the plurality of subsets of tone values included in the reference gray level A 0 may be connected set.
  • n 1 1 to N
  • n 2 1 to N (n 1 ⁇ n 2 )
  • any tone value included in the n 1 subset and any n 2 subset There is a certain magnitude relationship (ie, one is always greater than or less than the other).
  • FIGS. 4A to 4C Examples of the correspondence between the reference gradation A0 and the display gradation are shown in FIGS. 4A to 4C.
  • a graph 301 illustrated in FIG. 4A represents a first example of a correspondence relationship between the reference gradation A0 and the display gradation A.
  • the horizontal axis represents the reference gray A 0, the range is from 0 alpha K. That is, the reference gray level A 0 of the present example is K + 1 gradations.
  • the vertical axis represents any display gradation A, the range is from 0 a N. That is, the display gradation A in this example is N + 1 gradation.
  • K and N may or may not be equal.
  • N is the is the K or less (N ⁇ K) (When N> K, so that two or more a n for a certain alpha k is associated).
  • Graph 301 represents that one of the display gradation values a n each gradation value alpha k are associated at the reference gradation A 0.
  • graph 301 is represented as a continuous straight line, actually, on a discrete set (line graph 301 representing a correspondence between the plurality of reference gray values alpha k and a plurality of display gradation values a n A plurality of arranged points).
  • Such graph 301 is used as a look-up table for converting pixel values of an image obtained by the OCT (represented by the reference grayscale value alpha k) to the display tone value a n.
  • FIG. 4B shows a second example of the correspondence relationship between the reference gradation A0 and the display gradation.
  • a graph 302 illustrated in FIG. 4B represents an example of a correspondence relationship between the reference gradation A0 and the display gradation A, similarly to the graph 301 in FIG. 4A, but is different from the graph 301 in that it is a curved graph.
  • the coordinate axes and the number of gradations are the same as in FIG. 4A.
  • FIG. 4C shows a third example of the correspondence relationship between the reference gradation A0 and the display gradation.
  • an arbitrary portion 303 (n) has a reference gradation value range ⁇ k1 ⁇ k ⁇ ⁇ k2 as a domain of definition, and an arbitrary reference gradation within this range ⁇ k1 ⁇ k ⁇ ⁇ k2 . and it associates the same display tone value a n for a value alpha k. That is, the graph 301 of FIG. 4A and the graph 302 of FIG. 4B associate the reference gradation value and the display gradation value “one-to-one”, whereas the graph 303 of FIG. The display gradation value is associated with “many-to-one”. As a look-up table for converting the pixel value alpha k of an image obtained by the OCT to display gradation values a n, it is possible to use such a graph 303.
  • the form of information representing the correspondence relationship between the reference gradation A0 and the display gradation is not limited to a graph.
  • the display condition information 212a shown in FIG. 5 includes at least “fundus” and “vitreous body” as eye parts.
  • the display color “C 1 ” and the display gradation “A 1 ” are associated with the region “fundus”. Further, the display color “C 2 ” and the display gradation “A 2 ” are associated with the region “vitreous body”.
  • the display color “C 1 ” corresponding to the region “fundus” is, for example, a gray scale (white, black, and an intermediate color thereof).
  • the display gradation “A 1 ” may be, for example, the graph or table information shown in FIGS. 4A to 4C.
  • both the display color and the display gradation included in the display conditions are the same as the color (grayscale) and gradation (reference gradation) of the image formed by the image forming unit 220, that is, image formation.
  • the conversion indicated by the lookup table provided for the part may be an identity conversion.
  • the display color “C 2 ” and the display gradation “A 2 ” corresponding to the region “vitreous body” provide, for example, a pseudo color expression.
  • Pseudocolor is a color representation technique for assigning a predetermined color for each tone value of the reference tone A 0 of the gray scale (luminance value), the difference in gray scale subtle (black and white shades), the difficult determination luminance It can be expressed with emphasis by color change.
  • the lookup table for converting the gray scale expression (reference gradation A 0 ) into the pseudo color expression (display gradation A 2 ) may be, for example, the graphs or table information shown in FIGS. 4A to 4C.
  • the display gradation A 2 for example, the gradation value a n of the longitudinal axis A of FIG. 4A, red (R), green (G), and is obtained by assigning a combination of blue (B).
  • a look-up table for converting the gradation value alpha n of the reference tone A 0 is a horizontal axis to the gray scale value a n of the pseudo color is obtained.
  • the display condition selection unit 213 selects a display condition corresponding to the part of the eye E to be examined designated by the user or the ophthalmologic imaging apparatus 1 from the display condition information 212a.
  • the display condition selection unit 213 displays the display color “C 1 ” corresponding to the part “fundus” in the display condition information 212a.
  • display gradation “A 1 ” are selected.
  • the display condition selection unit 213 selects the display color “C 2 ” and the display gradation “A 2 ”.
  • part of the eye E to be examined is performed by the user or the ophthalmologic imaging apparatus 1 as described above.
  • a graphical user interface (GUI) for designating the part can be displayed on the display unit 241 by the control unit 210.
  • the user can specify a desired part using the operation unit 242.
  • an image formed by the image forming unit 220 (or an OCT image acquired from the outside) can be displayed on the display unit 241 by the control unit 210.
  • the user can specify a desired area in the displayed image using the operation unit 240.
  • the user can input the name of the part corresponding to the designated area.
  • the data processing unit 230 acquires the shape, size, luminance, and positional relationship with other regions by specifying the region corresponding to the specified region based on the analysis result. be able to.
  • the data processing unit 230 may be configured to identify a part corresponding to the image area specified by the partial area specifying unit 231 described later.
  • the processing for that purpose includes, for example, processing for acquiring the shape, size, brightness, and positional relationship with other image regions of the image region specified by the partial region specifying unit 231 with the specified image region. And a process of specifying the name of the part corresponding to the above from the result of image analysis.
  • the image forming unit 220 forms image data of a cross-sectional image of the fundus oculi Ef based on the sampling result of the detection signal input from the DAQ 130.
  • This processing includes signal processing such as noise removal (noise reduction), filter processing, and FFT (Fast Fourier Transform) as in the case of the conventional swept source OCT.
  • the image data formed by the image forming unit 220 is a group of image data (a group of image data) formed by imaging reflection intensity profiles in a plurality of A lines (lines in the z direction) arranged along the scan line. A scan image data).
  • the image forming unit 220 includes, for example, at least one of a processor and a dedicated circuit board.
  • image data and “image” based thereon may be identified. Further, the part of the eye E to be examined and the image representing it may be identified.
  • the data processing unit 230 performs image processing and analysis processing on the image formed by the image forming unit 220. For example, the data processing unit 230 executes correction processing such as image luminance correction and dispersion correction. Further, the data processing unit 230 performs image processing and analysis processing on an image (fundus image, anterior eye image, etc.) obtained by the fundus camera unit 2.
  • the data processing unit 230 includes, for example, at least one of a processor and a dedicated circuit board.
  • the partial area specifying unit 231 specifies a partial area corresponding to a predetermined part of the eye E by analyzing the image formed by the image forming unit 220. This predetermined part is the same as the part of the eye E that is input information for the display condition selection unit 213 to select a display condition (display color, display gradation, etc.) from the display condition information 212a.
  • the partial area specifying unit 231 performs processing for dividing the OCT image of the eye E to be examined into a plurality of partial areas.
  • a case where the partial region specifying unit 231 divides a two-dimensional image (cross-sectional image) of the eye E into a plurality of two-dimensional partial regions will be described.
  • the two-dimensional image include a cross-sectional image (such as a B-scan image) formed by the image forming unit 220 and a cross-sectional image (MPR image) obtained from the three-dimensional image.
  • Processing for forming a three-dimensional image from a plurality of B-scan images and processing for forming an MPR image from a three-dimensional image are executed by the data processing unit 230.
  • “dividing an image” means to classify an image into a plurality of partial areas, that is, to divide a set of a plurality of pixels constituting an image into a plurality of subsets (or to configure an image). A label corresponding to any partial region is assigned to each pixel).
  • the plurality of pixels to be subjected to the classification process may be all the pixels constituting the image or some of the pixels.
  • the process of “dividing the image” may include a process of extracting the partial area obtained by the classification process from the original image, that is, a process of extracting the partial area.
  • a display image is formed by again synthesizing the extracted partial regions in the subsequent display process.
  • the partial area specifying unit 231 specifies a one-dimensional image area corresponding to each of one or more parts of the eye E by analyzing a two-dimensional image of the eye E.
  • the specific target region may be an arbitrary region of the eye E to be examined.
  • the specific target region is the retinal layer (retinal pigment epithelium layer, photoreceptor layer, outer boundary membrane, outer granule layer, outer reticular layer, inner granule layer, inner reticular layer, ganglion cell layer, nerve fiber layer, Inner boundary membrane) or its boundary, Bruch's membrane, choroidal boundary, scleral boundary, vitreous boundary.
  • part of specific object may be a boundary of a lesioned part.
  • the boundary of the cornea, the layer of the cornea (corneal epithelium, Bowman's membrane, corneal stroma, Dua layer, Descemet's membrane, corneal endothelium) or its boundary, the boundary of the lens, the iris It may be a boundary of.
  • the specific target region is not limited to an anatomical tissue or a lesion, and is manually set with reference to an area obtained by analyzing an image of the eye to be examined or an image of the eye to be examined.
  • the concept may include a region or the like. Examples of regions obtained by analyzing images include image regions (layer regions, layer boundary regions, etc.) obtained by the following segmentation.
  • a process called segmentation will be described as an example of a process executed by the partial area specifying unit 231.
  • the partial area specifying unit 231 specifies a plurality of pixels included in the image area corresponding to the part to be specified based on the pixel value of the two-dimensional image of the eye E to be examined.
  • the partial region specifying unit 231 obtains an approximate curve based on the plurality of specified pixels.
  • This approximate curve can be obtained by an arbitrary method, and examples thereof include a linear approximate curve, a logarithmic approximate curve, a polynomial approximate curve, a power approximate curve, an exponential approximate curve, and a moving average approximate curve.
  • the approximate curve acquired in this way can be used as a one-dimensional image region corresponding to a specific target region.
  • the number of parts specified by the partial area specifying unit 231 is arbitrary. One or more parts to be specified may be set in advance.
  • the setting method there are a default setting, a selective setting according to an analysis method and an observation site, an arbitrary setting by a user, and the like.
  • the number of partial areas obtained by the partial area specifying unit 231 is also arbitrary.
  • the partial region specifying unit 231 specifies a two-dimensional image region whose boundary is the one-dimensional image region specified by the preceding process as a partial region that is a specific target by the partial region specifying unit 231.
  • Each partial area may be a predetermined tissue of the eye E or a part thereof, or may be two or more tissues or a part thereof.
  • Each partial area may be a lesion or a part thereof.
  • the partial area specifying unit 231 corresponds to the boundary (inner boundary film) between the retina and the vitreous body by analyzing the cross-sectional image (B scan image) G formed by the image forming unit 220.
  • a one-dimensional image region (retinal-choroidal boundary region) corresponding to the boundary between the retina and the choroid (Bruch's membrane), the choroid and the sclera
  • a one-dimensional image region (choroid-sclera boundary region) corresponding to the boundary of
  • the partial region specifying unit 231 specifies the vitreous region G 1 and the fundus region G 2 adjacent to each other with the retina-vitre boundary region g 1 as a boundary, as shown in FIG. 6B. Can do. It is also possible to divide the fundus region G 2 into two or more sub-regions.
  • the fundus region G 2 is, retina - vitreous boundary region g 1 and retina - a retina area bounded by both the choroid boundary region, the retina - choroid boundary region and the choroid - choroid region and sclera boundary and boundary And a sclera region having a choroid-sclera boundary as a boundary.
  • the retinal region can be divided into two or more sub-regions.
  • the user interface 240 includes a display unit 241 and an operation unit 242.
  • the display unit 241 includes the display device 3.
  • the operation unit 242 includes various operation devices and input devices.
  • the user interface 240 may include a device such as a touch panel in which a display function and an operation function are integrated. Embodiments that do not include at least a portion of the user interface 240 can also be constructed.
  • the display device may be an external device connected to the ophthalmologic photographing apparatus.
  • OCT measurement of the eye E is performed.
  • data in a range including the fundus oculi Ef and the vitreous body is collected.
  • the image forming unit 220 forms an OCT image based on the data collected in step S1.
  • This OCT image can be processed by the data processing unit 230.
  • a three-dimensional image volume data, stack data, etc.
  • B scan images formed by the image forming unit 220.
  • an arbitrary cross section can be set for the three-dimensional data, and an image (MPR image) representing this cross section can be formed.
  • image quality adjustment, enhancement processing, noise reduction, and the like can be performed on the OCT image.
  • the partial area specifying unit 231 specifies a partial area corresponding to a predetermined part of the eye E by analyzing the OCT image formed in step S2.
  • the fundus region corresponding to the fundus oculi Ef and the vitreous region corresponding to the vitreous body are specified.
  • the display condition selection unit 213 selects a display condition for each partial area from the display condition information 212a.
  • the display color “C 1 ” and display gradation “A 1 ” corresponding to the fundus region, and the display color “C 2 ” and display gradation “A 2 ” corresponding to the vitreous region are shown in FIG.
  • the selected display condition information 212a is selected.
  • the main control unit 211 converts the pixel value of the OCT image under the display condition selected in step S4.
  • the value of each pixel in the fundus region of the OCT image is converted based on the display color “C 1 ” and the display gradation “A 1 ”, and the value of each pixel in the vitreous region is converted to the display color “C 2 ”.
  • the main control unit 211 causes the display unit 241 to display the OCT image in which the values of at least some of the pixels are converted in step S5.
  • the fundus region of the OCT image is displayed in gray scale, and the vitreous region is displayed in pseudo color.
  • Two or more images of the eye E may be displayed on the display unit 241.
  • two or more images acquired at different timings may be comparatively observed during follow-up observation and pre- and post-operative observation.
  • Two or more images are displayed side by side in a predetermined layout, for example.
  • two or more images are sequentially displayed by a predetermined number (one or more).
  • a part of two or more images may be acquired by another ophthalmologic photographing apparatus.
  • the two or more images may be a plurality of B-scan images obtained by a three-dimensional scan, or may be a plurality of images (such as MPR images) formed from a three-dimensional image.
  • the partial area specifying unit 231 specifies a partial area corresponding to a predetermined part of the eye E in each of two or more images.
  • the main control unit 211 applies the display condition corresponding to this part to the partial area of each image.
  • FIG. 1 A specific example will be described with reference to FIG.
  • two cross-sectional images (B-scan images) G and H of the eye E are displayed.
  • the cross sections represented by the cross sectional images G and H may be the same or different.
  • Partial region specifying unit 231 the retina by analyzing the cross-sectional image G - identifies the vitreous boundary region g 1, retina - vitreous boundary region g 1 vitreous region G 1 adjacent to each other as a boundary and a fundus region G 2 is specified.
  • the partial region specifying unit 231 specifies the retina-vitreous boundary region h 1 by analyzing the cross-sectional image H, and the vitreous region H 1 and the fundus adjacent to each other with the retina-vitreous boundary region h 1 as a boundary. identifying a region H 2.
  • the display condition selection unit 213 displays the display color “C 2 ” and the display gradation “A 2 ” corresponding to the vitreous regions G 1 and H 1 and the display color “C 1 ” corresponding to the fundus regions G 2 and H 2.
  • the display gradation “A 1 ” is selected from the display condition information 212a shown in FIG.
  • the main control unit 211 converts the value of each pixel in the vitreous regions G 1 and H 1 based on the display color “C 2 ” and the display gradation “A 2 ”, and the fundus regions G 2 and H 2. Are converted based on the display color “C 1 ” and the display gradation “A 1 ”.
  • the main control unit 211 causes the display unit 241 to display two cross-sectional images G and H whose pixel values have been converted. Thereby, the vitreous region G 1 and H 1 of sectional images G and H are displayed in pseudocolor, and fundus region G 2 and H 2 are displayed in grayscale.
  • the display condition of the image displayed on the display unit 241 can be configured to be arbitrarily changed by the user.
  • the main control unit 211 causes the display unit 241 to display a GUI for changing display conditions together with an image, for example.
  • the user performs an operation of specifying a desired partial area of the image and an operation of changing display conditions by operating the GUI using the operation unit 242.
  • the operation of designating the partial area is performed on the image using a pointing device such as a mouse, for example.
  • a desired part can be selected from a list of eye parts displayed together with the image.
  • the operation for changing the display condition is performed, for example, by selecting a desired display condition from a list (pull-down menu, software key, etc.) in which display condition options are listed. It is also possible to configure an optimum combination of display conditions for each predetermined attribute (for example, eye disease) in advance and arbitrarily select them.
  • the main control unit 211 applies the display condition to the partial area. Thereby, the display conditions of the partial area of the displayed image are switched.
  • the display condition can be applied by specifying a partial region in the image. That is, it is possible to configure so that a change in display condition made on any one of two or more images is automatically reflected on other images.
  • the display condition information 212a stored in the storage unit 212 can be configured to be arbitrarily edited by the user.
  • the main control unit 211 causes the display unit 241 to display a GUI for editing the display conditions.
  • the user edits the display condition information 212a by operating the GUI using the operation unit 242.
  • the main control unit 211 causes the display unit 241 to display one or more display conditions recorded in the display condition information 212a.
  • On the GUI software keys and a list for editing each item of the display conditions are displayed.
  • An example of a means for editing the display color is a list in which display color options are presented.
  • Examples of means for editing the display gradation include a software key for changing the number of display gradations and a software key for changing the shape of the graph that associates the reference gradation with the display gradation. is there.
  • the ophthalmologic photographing apparatus includes a storage unit, a data collection unit, an image forming unit, a partial region specifying unit, a display condition selecting unit, and a control unit.
  • Display condition information is stored in advance in the storage unit.
  • a display condition including a display color and a display gradation is associated with each of one or more parts of the eye.
  • the storage unit 212 corresponds to a storage unit
  • the display condition information 212a corresponds to display condition information.
  • the data collection unit collects data of the eye to be examined using optical coherence tomography (OCT).
  • OCT optical coherence tomography
  • the elements in the OCT unit 100 and the optical member that forms the measurement arm are included in the data collection unit.
  • the image forming unit forms an image based on the data collected by the data collecting unit.
  • the image forming unit 220 corresponds to the image forming unit.
  • the partial region specifying unit specifies a partial region corresponding to a predetermined part of the eye to be examined by analyzing the image formed by the image forming unit.
  • the partial area specifying unit 231 corresponds to the partial area specifying unit.
  • the display condition selection unit selects a display condition corresponding to a predetermined part of the eye to be examined from the display condition information.
  • the display condition selection unit 213 corresponds to the display condition selection unit.
  • the control unit causes the display unit to display the image formed by the image forming unit based on the display condition selected by the display condition selection unit.
  • the main control unit 211 corresponds to the control unit
  • the display unit 241 corresponds to the display unit.
  • the display means may be a display device provided outside the ophthalmologic photographing apparatus.
  • control unit is configured to display at least a partial region in the image by applying a display color and a display gradation included in the display condition selected by the display condition selection unit.
  • a partial area corresponding to a predetermined part of the eye to be examined is displayed under conditions (including display color and display gradation) according to the partial area. Is possible. Therefore, it is possible to express a predetermined part of the eye to be examined with a suitable display color and display gradation. Thereby, an image in which a plurality of parts of the eye to be examined are depicted in detail can be provided.
  • the image forming unit is configured to form a grayscale image having a predetermined reference gradation.
  • a predetermined color code is associated with each of one or more parts. This color code is defined by one or more display colors different from any of white, black, and their intermediate colors, and a display gradation including a plurality of gradation values set based on a reference gradation. Good.
  • the control unit is configured to convert the gray scale value of each pixel of the partial area specified by the partial area specifying unit into a color value based on a color code corresponding to a predetermined part.
  • the predetermined site may be a site where it is difficult to observe details in a gray scale image, such as a vitreous body.
  • the partial region specifying unit is configured to specify a partial region corresponding to a predetermined part for each of two or more images.
  • the control unit is configured to apply the display condition corresponding to the predetermined part selected by the display condition selection unit to the partial regions in each of the two or more images.
  • the ophthalmologic photographing apparatus may include a first user interface unit for performing an operation of specifying a partial region of the image of the eye to be examined displayed on the display unit by the control unit and an operation of changing the display condition.
  • the user interface 240 corresponds to the first user interface unit.
  • the control unit is configured to apply the display condition specified by the first user interface unit to the partial area specified by the first user interface unit.
  • the user can arbitrarily adjust the display conditions. For example, by changing the display color from a gray scale to a pseudo color or increasing the display gradation, it becomes possible to observe a predetermined part of the eye to be examined in more detail.
  • the display condition adjusted by the user can be given a name (condition name) and stored in the storage unit 212, an external computer, or the like. Furthermore, it is possible to configure the display condition corresponding to the input or specified condition name to be called in the subsequent examination.
  • the ophthalmologic photographing apparatus may include a second user interface unit for editing display condition information.
  • the user interface 240 corresponds to the second user interface unit.
  • the user can perform desired editing on the display condition information.
  • the ophthalmologic image display device is a device for displaying an image of an eye to be examined.
  • the ophthalmologic image display apparatus may include, for example, any one of information processing apparatuses such as a computer terminal, a server on a network (LAN) in a medical institution, and a server on a wide area network (such as a cloud server). Further, the ophthalmologic image display apparatus may be configured as a part of an arbitrary photographing apparatus used in ophthalmology or the like.
  • FIG. 9 shows an example of the configuration of the ophthalmic image display apparatus according to the embodiment.
  • the ophthalmic image display device 400 includes a control unit 410, a communication unit 420, a data processing unit 430, and a user interface (UI) 440.
  • UI user interface
  • the control unit 410 has the same configuration and function as the control unit 210 of the ophthalmologic photographing apparatus 1 described above. Specifically, the control unit 410 includes a main control unit 411, a storage unit 412, and a display condition selection unit 413.
  • the main control unit 211 has the same configuration and functions as the main control unit 211 of the ophthalmologic photographing apparatus 1.
  • the storage unit 412 has the same configuration and function as the storage unit 212 of the ophthalmologic photographing apparatus 1, and stores in advance display condition information 412a similar to the display condition information 212a.
  • the display condition selection unit 413 has the same configuration and function as the display condition selection unit 213 of the ophthalmologic photographing apparatus 1.
  • the communication unit 420 includes a communication interface for performing data communication with an external device via a network.
  • the communication interface has a configuration and function conforming to the network, and includes, for example, a modem and a LAN card.
  • the data processing unit 430 has the same configuration and function as the data processing unit 230 of the ophthalmologic photographing apparatus 1 and includes a partial area specifying unit 431 similar to the partial area specifying unit 231.
  • the user interface 440 includes a display unit 441 and an operation unit 442 similar to the display unit 241 and the operation unit 242 of the ophthalmologic photographing apparatus 1.
  • the storage unit 412 stores in advance display condition information 412a in which display conditions including display color and display gradation are associated with each of one or more parts of the eye.
  • the communication unit 420 receives an image of the eye to be examined that is acquired using optical coherence tomography.
  • the communication unit 420 is an example of a reception unit.
  • the partial area specifying unit 431 specifies a partial area corresponding to a predetermined part of the eye to be examined by analyzing the image received by the communication unit 420.
  • the display condition selection unit 431 selects a display condition corresponding to a predetermined part of the eye to be examined from the display condition information 412a.
  • the main control unit 411 causes the display unit 441 to display the image received by the communication unit 420 based on the display condition selected by the display condition selection unit 413.
  • a partial area corresponding to a predetermined part of the eye to be examined in an image obtained by OCT is displayed under conditions (including at least display color and display gradation) according to the partial area. Is possible. Therefore, it is possible to express a predetermined part of the eye to be examined with a suitable display color and display gradation. Thereby, an image in which a plurality of parts of the eye to be examined are depicted in detail can be provided.
  • the ophthalmologic image display apparatus may include any of the configurations and functions described for the ophthalmologic imaging apparatus 1 according to the above embodiment.

Abstract

実施形態の眼科撮影装置の記憶部は、眼の1以上の部位のそれぞれに表示色及び表示階調を含む表示条件が対応付けられた表示条件情報を予め記憶する。データ収集部は、光コヒーレンストモグラフィを用いて被検眼のデータを収集する。画像形成部は、データ収集部により収集されたデータに基づいて画像を形成する。部分領域特定部は、画像形成部により形成された画像を解析することにより被検眼の所定部位に相当する部分領域を特定する。表示条件選択部は、所定部位に対応する表示条件を表示条件情報から選択する。制御部は、表示条件選択部により選択された表示条件に基づいて、画像形成部により形成された画像を表示手段に表示させる。

Description

眼科撮影装置及び眼科画像表示装置
 本発明は、眼科撮影装置及び眼科画像表示装置に関する。
 近年、レーザ光源等からの光ビームを用いて対象を画像化する光コヒーレンストモグラフィ(Optical Coherence Tomography:OCT)が注目を集めている。OCTは、X線CTのような人体に対する侵襲性を持たないことから、医療分野や生物学分野への応用が進んでいる。例えば眼科分野では、眼底や角膜のOCTを行う装置が実用化されている。更に、硝子体の画像化が可能な装置も提案されている。例えば特許文献1には、前眼部及び眼底の画像化に加え、これらの間の中間透光部位(水晶体、硝子体等)の画像化も可能なOCT技術が開示されている。
特開2015-157182号公報
 被検眼の複数の部位が描出された画像を表示した場合、全ての部位を詳細に観察できないことがある。例えば、複数の組織が積層されてなる眼底における信号の変化と比較し、透明なゼリー状組織である硝子体における信号の変化はかなり微弱であるため、硝子体と眼底とを含む範囲の断面像をモノクロで表示すると、硝子体の状態を詳細に観察できないことがある。
 本発明に係る眼科撮影装置及び眼科画像表示装置の目的は、被検眼の複数の部位が詳細に描出された画像を提供することにある。
 実施形態の眼科撮影装置は、記憶部と、データ収集部と、画像形成部と、部分領域特定部と、表示条件選択部と、制御部とを備える。記憶部は、眼の1以上の部位のそれぞれに表示色及び表示階調を含む表示条件が対応付けられた表示条件情報を予め記憶する。データ収集部は、光コヒーレンストモグラフィを用いて被検眼のデータを収集する。画像形成部は、データ収集部により収集されたデータに基づいて画像を形成する。部分領域特定部は、画像形成部により形成された画像を解析することにより被検眼の所定部位に相当する部分領域を特定する。表示条件選択部は、所定部位に対応する表示条件を表示条件情報から選択する。制御部は、表示条件選択部により選択された表示条件に基づいて、画像形成部により形成された画像を表示手段に表示させる。
 実施形態によれば、被検眼の複数の部位が詳細に描出された画像を提供することが可能である。
実施形態に係る眼科撮影装置の構成の一例を表す概略図。 実施形態に係る眼科撮影装置の構成の一例を表す概略図。 実施形態に係る眼科撮影装置の構成の一例を表す概略図。 実施形態に係る眼科撮影装置の構成の一例を説明するための概略図。 実施形態に係る眼科撮影装置の構成の一例を説明するための概略図。 実施形態に係る眼科撮影装置の構成の一例を説明するための概略図。 実施形態に係る眼科撮影装置の構成の一例を表す概略図。 実施形態に係る眼科撮影装置の動作の一例を説明するための概略図。 実施形態に係る眼科撮影装置の動作の一例を説明するための概略図。 実施形態に係る眼科撮影装置の動作の一例を表すフロー図。 実施形態に係る眼科撮影装置の動作の一例を説明するための概略図。 実施形態に係る眼科画像表示装置の構成の一例を表す概略図。
 本発明の幾つかの実施形態について図面を参照しながら詳細に説明する。実施形態の眼科撮影装置は、少なくとも光コヒーレンストモグラフィ(OCT)を実行する機能を備えた眼科装置である。
 以下、スウェプトソースOCTと眼底カメラとを組み合わせた眼科撮影装置について説明するが、実施形態はこれに限定されない。例えば、OCTの種別はスウェプトソースOCTには限定されず、スペクトラルドメインOCTやタイムドメインOCTやフルフィールドOCT(インファスOCT)であってもよい。また、眼科撮影装置は、眼底カメラのような被検眼の写真(デジタル写真)を取得する機能を備えていてもいなくてもよい。また、眼底カメラの代わりに、走査型レーザ検眼鏡(SLO)や、スリットランプ顕微鏡や、前眼部撮影カメラや、手術用顕微鏡などが設けられてもよい。
〈構成〉
 図1に示すように、眼科撮影装置1は、眼底カメラユニット2、OCTユニット100及び演算制御ユニット200を含む。眼底カメラユニット2には、従来の眼底カメラとほぼ同様の光学系が設けられている。OCTユニット100には、OCTを実行するための光学系や機構が設けられている。演算制御ユニット200はプロセッサを含む。被検者の顔を支持するための顎受けや額当てが、眼底カメラユニット2に対向する位置に設けられている。
 本明細書において「プロセッサ」は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(たとえば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array))等の回路を意味する。プロセッサは、例えば、記憶回路や記憶装置に格納されているプログラムを読み出し実行することで、実施形態に係る機能を実現する。
〈眼底カメラユニット2〉
 眼底カメラユニット2には、被検眼Eの眼底Efを撮影するための光学系や機構が設けられている。眼底Efを撮影して得られる画像(眼底像、眼底写真等と呼ばれる)には、観察画像や撮影画像がある。観察画像は、例えば、近赤外光を用いた動画撮影により得られる。撮影画像は、例えば、可視フラッシュ光を用いて得られるカラー画像若しくはモノクロ画像、又は近赤外フラッシュ光を用いて得られるモノクロ画像である。眼底カメラユニット2は、フルオレセイン蛍光画像やインドシアニングリーン蛍光画像や自発蛍光画像などを取得可能であってもよい。
 眼底カメラユニット2は、照明光学系10と撮影光学系30とを含む。照明光学系10は被検眼Eに照明光を照射する。撮影光学系30は、被検眼Eからの照明光の戻り光を検出する。OCTユニット100からの測定光は、眼底カメラユニット2内の光路を通じて被検眼Eに導かれ、その戻り光は、同じ光路を通じてOCTユニット100に導かれる。
 照明光学系10の観察光源11は、例えばハロゲンランプ又はLED(Light Emitting Diode)である。観察光源11から出力された光(観察照明光)は、曲面状の反射面を有する反射ミラー12により反射され、集光レンズ13を経由し、可視カットフィルタ14を透過して近赤外光となる。更に、観察照明光は、撮影光源15の近傍にて一旦集束し、ミラー16により反射され、リレーレンズ17、18、絞り19及びリレーレンズ20を経由する。そして、観察照明光は、孔開きミラー21の周辺部(孔部の周囲の領域)にて反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて被検眼E(特に眼底Ef)を照明する。
 被検眼Eからの観察照明光の戻り光は、対物レンズ22により屈折され、ダイクロイックミラー46を透過し、孔開きミラー21の中心領域に形成された孔部を通過し、ダイクロイックミラー55を透過し、撮影合焦レンズ31を経由し、ミラー32により反射される。更に、この戻り光は、ハーフミラー33Aを透過し、ダイクロイックミラー33により反射され、集光レンズ34によりCCDイメージセンサ35の受光面に結像される。CCDイメージセンサ35は、例えば所定のフレームレートで戻り光を検出する。なお、撮影光学系30のピントが眼底Efに合っている場合には眼底Efの観察画像が得られ、ピントが前眼部に合っている場合には前眼部の観察画像が得られる。
 撮影光源15は、例えば、キセノンランプ又はLEDを含む可視光源である。撮影光源15から出力された光(撮影照明光)は、観察照明光と同様の経路を通って眼底Efに照射される。被検眼Eからの撮影照明光の戻り光は、観察照明光の戻り光と同じ経路を通ってダイクロイックミラー33まで導かれ、ダイクロイックミラー33を透過し、ミラー36により反射され、集光レンズ37によりCCDイメージセンサ38の受光面に結像される。
 LCD39は、被検眼Eを固視させるための固視標を表示する。LCD39から出力された光束(固視光束)は、その一部がハーフミラー33Aにて反射され、ミラー32に反射され、撮影合焦レンズ31及びダイクロイックミラー55を経由し、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した固視光束は、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。LCD39の画面における固視標の表示位置を変更することにより被検眼Eの固視位置を変更できる。なお、LCD39の代わりに、複数のLEDが2次元的に配列されたマトリクスLEDや、光源と可変絞り(液晶絞り等)との組み合わせなどを、固視光束出力手段として用いることができる。
 眼底カメラユニット2にはアライメント光学系50とフォーカス光学系60が設けられている。アライメント光学系50は、被検眼Eに対する光学系のアライメントに用いられるアライメント指標を生成する。フォーカス光学系60は、被検眼Eに対するフォーカス調整に用いられるスプリット指標を生成する。
 アライメント光学系50のLED51から出力されたアライメント光は、絞り52及び53並びにリレーレンズ54を経由し、ダイクロイックミラー55により反射され、孔開きミラー21の孔部を通過する。孔開きミラー21の孔部を通過した光は、ダイクロイックミラー46を透過し、対物レンズ22により被検眼Eに投射される。
 アライメント光の角膜反射光は、対物レンズ22、ダイクロイックミラー46及び上記孔部を経由し、その一部がダイクロイックミラー55を透過し、撮影合焦レンズ31を通過し、ミラー32により反射され、ハーフミラー33Aを透過し、ダイクロイックミラー33に反射され、集光レンズ34によりCCDイメージセンサ35の受光面に投影される。CCDイメージセンサ35による受光像(アライメント指標像)に基づき、従来と同様のマニュアルアライメントやオートアライメントを行うことができる。
 フォーカス光学系60は、撮影光学系30の光路(撮影光路)に沿った撮影合焦レンズ31の移動に連動して、照明光学系10の光路(照明光路)に沿って移動される。反射棒67は、照明光路に対して挿脱可能である。
 フォーカス調整を行う際には、反射棒67の反射面が照明光路に斜設される。LED61から出力されたフォーカス光は、リレーレンズ62を通過し、スプリット視標板63により2つの光束に分離され、二孔絞り64を通過し、ミラー65により反射され、集光レンズ66により反射棒67の反射面に一旦結像されて反射される。更に、フォーカス光は、リレーレンズ20を経由し、孔開きミラー21に反射され、ダイクロイックミラー46を透過し、対物レンズ22により屈折されて眼底Efに投射される。
 フォーカス光の眼底反射光は、アライメント光の角膜反射光と同じ経路を通ってCCDイメージセンサ35により検出される。CCDイメージセンサ35による受光像(スプリット指標像)に基づき、従来と同様のマニュアルアライメントやオートアライメントを行うことができる。
 撮影光学系30は、視度補正レンズ70及び71を含む。視度補正レンズ70及び71は、孔開きミラー21とダイクロイックミラー55との間の撮影光路に選択的に挿入可能である。視度補正レンズ70は、強度遠視を補正するためのプラス(+)レンズであり、例えば+20D(ディオプター)の凸レンズである。視度補正レンズ71は、強度近視を補正するためのマイナス(-)レンズであり、例えば-20Dの凹レンズである。視度補正レンズ70及び71は、例えばターレット板に装着されている。ターレット板には、視度補正レンズ70及び71のいずれも適用しない場合のための孔部が形成されている。
 ダイクロイックミラー46は、眼底撮影用の光路とOCT用の光路とを合成する。ダイクロイックミラー46は、OCTに用いられる波長帯の光を反射し、眼底撮影用の光を透過させる。OCT用の光路には、OCTユニット100側から順に、コリメータレンズユニット40、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44、及びリレーレンズ45が設けられている。
 光路長変更部41は、図1に示す矢印の方向に移動可能とされ、OCT用の光路の光路長を変更する。この光路長の変更は、被検眼Eの眼軸長に応じた光路長の補正や、干渉状態の調整などに利用される。光路長変更部41は、例えばコーナーキューブと、これを移動する機構とを含む。
 光スキャナ42は、被検眼Eの瞳孔と光学的に共役な位置に配置される。光スキャナ42は、OCT用の光路を通過する測定光LSの進行方向を変更する。それにより、被検眼Eが測定光LSでスキャンされる。光スキャナ42は、xy平面の任意方向に測定光LSを偏向可能であり、例えば、測定光LSをx方向に偏向するガルバノミラーと、y方向に偏向するガルバノミラーとを含む。
〈OCTユニット100〉
 図2に例示するように、OCTユニット100には、被検眼EのOCTを実行するための光学系が設けられている。この光学系の構成は、従来のスウェプトソースOCTと同様である。すなわち、この光学系は、波長掃引型(波長走査型)光源からの光を測定光と参照光とに分割し、被検眼Eからの測定光の戻り光と参照光路を経由した参照光とを干渉させて干渉光を生成し、この干渉光を検出する干渉光学系を含む。干渉光学系により得られる検出結果(検出信号)は、干渉光のスペクトルを示す信号であり、演算制御ユニット200に送られる。
 光源ユニット101は、一般的なスウェプトソースOCTと同様に、出射光の波長を高速で変化させる波長掃引型(波長走査型)光源を含む。波長掃引型光源は、例えば、近赤外レーザ光源である。
 光源ユニット101から出力された光L0は、光ファイバ102により偏波コントローラ103に導かれてその偏光状態が調整される。更に、光L0は、光ファイバ104によりファイバカプラ105に導かれて測定光LSと参照光LRとに分割される。
 参照光LRは、光ファイバ110によりコリメータ111に導かれて平行光束に変換され、光路長補正部材112及び分散補償部材113を経由し、コーナーキューブ114に導かれる。光路長補正部材112は、参照光LRの光路長と測定光LSの光路長とを合わせるよう作用する。分散補償部材113は、参照光LRと測定光LSとの間の分散特性を合わせるよう作用する。
 コーナーキューブ114は、入射した参照光LRの進行方向を逆方向に折り返す。コーナーキューブ114に対する参照光LRの入射方向と出射方向は互いに平行である。コーナーキューブ114は、参照光LRの入射方向に移動可能であり、それにより参照光LRの光路長が変更される。
 図1及び図2に示す構成では、測定光LSの光路(測定光路、測定アーム)の長さを変更するための光路長変更部41と、参照光LRの光路(参照光路、参照アーム)の長さを変更するためのコーナーキューブ114の双方が設けられているが、光路長変更部41とコーナーキューブ114のいずれか一方のみが設けられてもよい。また、これら以外の光学部材を用いて、測定光路長と参照光路長との差を変更することも可能である。
 コーナーキューブ114を経由した参照光LRは、分散補償部材113及び光路長補正部材112を経由し、コリメータ116によって平行光束から集束光束に変換され、光ファイバ117に入射する。光ファイバ117に入射した参照光LRは、偏波コントローラ118に導かれてその偏光状態が調整され、光ファイバ119によりアッテネータ120に導かれて光量が調整され、光ファイバ121によりファイバカプラ122に導かれる。
 一方、ファイバカプラ105により生成された測定光LSは、光ファイバ127により導かれてコリメータレンズユニット40により平行光束に変換され、光路長変更部41、光スキャナ42、OCT合焦レンズ43、ミラー44及びリレーレンズ45を経由し、ダイクロイックミラー46により反射され、対物レンズ22により屈折されて被検眼Eに入射する。測定光LSは、被検眼Eの様々な深さ位置において散乱・反射される。被検眼Eからの測定光LSの戻り光は、往路と同じ経路を逆向きに進行してファイバカプラ105に導かれ、光ファイバ128を経由してファイバカプラ122に到達する。
 ファイバカプラ122は、光ファイバ128を介して入射された測定光LSと、光ファイバ121を介して入射された参照光LRとを合成して(干渉させて)干渉光を生成する。ファイバカプラ122は、所定の分岐比(例えば1:1)で干渉光を分岐することにより、一対の干渉光LCを生成する。一対の干渉光LCは、それぞれ光ファイバ123及び124を通じて検出器125に導かれる。
 検出器125は、例えばバランスドフォトダイオード(Balanced Photo Diode)である。バランスドフォトダイオードは、一対の干渉光LCをそれぞれ検出する一対のフォトディテクタを有し、これらによる検出結果の差分を出力する。検出器125は、その検出結果(検出信号)をDAQ(Data Acquisition System)130に送る。
 DAQ130には、光源ユニット101からクロックKCが供給される。クロックKCは、光源ユニット101において、波長掃引型光源により所定の波長範囲内で掃引される各波長の出力タイミングに同期して生成される。光源ユニット101は、例えば、各出力波長の光L0を分岐することにより得られた2つの分岐光の一方を光学的に遅延させた後、これらの合成光を検出した結果に基づいてクロックKCを生成する。DAQ130は、検出器125から入力される検出信号をクロックKCに基づきサンプリングする。DAQ130は、検出器125からの検出信号のサンプリング結果を演算制御ユニット200に送る。
〈演算制御ユニット200〉
 演算制御ユニット200は、眼底カメラユニット2、表示装置3及びOCTユニット100の各部を制御する。また、演算制御ユニット200は、各種の演算処理を実行する。例えば、演算制御ユニット200は、一連の波長走査毎に(Aライン毎に)、検出器125により得られた検出結果に基づくスペクトル分布にフーリエ変換等の信号処理を施すことにより、各Aラインにおける反射強度プロファイルを形成する。更に、演算制御ユニット200は、各Aラインの反射強度プロファイルを画像化することにより画像データを形成する。そのための演算処理は、従来のスウェプトソースOCTと同様である。
 演算制御ユニット200は、例えば、プロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、通信インターフェイスなどを含む。ハードディスクドライブ等の記憶装置には各種コンピュータプログラムが格納されている。演算制御ユニット200は、操作デバイス、入力デバイス、表示デバイスなどを含んでよい。
〈制御系〉
 眼科撮影装置1の制御系の構成例を図3に示す。
〈制御部210〉
 制御部210は、眼科撮影装置1の各部を制御する。制御部210はプロセッサを含む。制御部210には、主制御部211と、記憶部212と、表示条件選択部213とが設けられている。
〈主制御部211〉
 主制御部211は各種の制御を行う。例えば、主制御部211は、撮影合焦レンズ31、CCD(イメージセンサ)35及び38、LCD39、光路長変更部41、光スキャナ42、OCT合焦レンズ43、フォーカス光学系60、反射棒67、光源ユニット101、参照駆動部114A、検出器125、DAQ130などを制御する。参照駆動部114Aは、参照光路に設けられたコーナーキューブ114を移動させる。それにより、参照光路の長さが変更される。
 眼科撮影装置1は移動機構150を備える。移動機構150は、例えば眼底カメラユニット2(又は、それに格納された光学系の少なくとも一部)を移動する。移動機構150は、OCTユニット100(又は、それに格納された光学系の少なくとも一部)を移動可能であってもよい。移動機構150は1以上のアクチュエータ151を含む。アクチュエータ151は、例えば、主制御部211により制御されるパルスモータ等を含み、眼底カメラユニット2等を移動するための駆動力を発生する。パルスモータ151により生成された駆動力は、図示しない機構によって伝達されて眼底カメラユニット2等を移動する。それにより、眼底カメラユニット2等が3次元的に移動される。
〈記憶部212〉
 記憶部212は各種のデータを記憶する。記憶部212に記憶されるデータとしては、例えば、OCT画像の画像データ、眼底像の画像データ、被検眼情報などがある。被検眼情報は、患者IDや氏名などの被検者情報や、左眼/右眼の識別情報や、電子カルテ情報などを含む。
 更に、記憶部212には表示条件情報212aが予め記憶される。表示条件情報212aには、眼の1以上の部位に対してそれぞれ表示条件が対応付けられている。眼の部位は、例えば、眼底、硝子体、水晶体、前房、角膜等を含む。また、「眼底」を複数のサブ組織(網膜、硝子体、強膜等)に分類してもよい。
 表示条件は、OCTにより得られた画像(断面像、3次元画像、正面断面像等)を表示させるための条件(パラメータ)を表す。表示条件は、例えば、表示色と表示階調とを含む。表示色と表示階調との組み合わせをカラーコードと呼ぶことがある。本実施形態では、表示条件はカラーコードを含む。
 表示色は、表示部241(又は外部の表示装置)により表示可能な任意の色であってよく、また、単色でも多色でもよい。単色の例として、白黒、赤、緑、青などがある。多色の例として、光の三原色(赤、緑、青)などがある。
 表示階調は、OCTにより得られた画像を表示させるときの階調(濃淡の段階数)を示す。表示階調は、色の階調及び明るさ(輝度)の階調の少なくとも一方を含んでよい。階調数は1以上の任意の数であってよい。例えば、1階調、2階調、・・・、256階調などがある。
 表示階調は、例えば、後述の画像形成部220により形成される断面像(グレースケール画像)の階調に基づき設定される。このグレースケール画像(白、黒、及びその中間色である灰色によって表現される画像)の階調を基準階調と呼ぶことがある。基準階調Aは、例えば256階調(例えば、黒の画素値=0、白の画素値=255)である。表示階調は、上記のように1以上の階調値を含む。表示階調が1階調の場合、基準階調Aにおける任意の階調値に対して同じ表示階調値が割り当てられる。表示階調が2階調の場合、基準階調Aに含まれる全ての階調値が2つの部分集合に分割され、第1部分集合が第1表示階調値に割り当てられ、第2部分集合が第2表示階調値に割り当てられる。同様に、表示階調がN階調の場合、基準階調Aに含まれる全ての階調値がN個の部分集合に分割され、第n部分集合が第n表示階調値に割り当てられる(n=1,2,・・・,N)。なお、表示階調の階調数Nは、例えば、基準階調Aの階調数以下の値とされる。
 基準階調Aに含まれる階調値の複数の部分集合のそれぞれは連結集合であってよい。換言すると、任意のn=1~N、n=1~N(n≠n)について、第n部分集合に含まれる任意の階調値と第n部分集合に含まれる任意の階調値との間には、一定の大小関係がある(つまり、一方は他方よりも常に大きいか、或いは常に小さい)。
 基準階調Aと表示階調との対応関係の例を図4A~図4Cに示す。図4Aに示すグラフ301は、基準階調Aと表示階調Aとの対応関係の第1の例を表す。横軸は基準階調Aを表し、その範囲は0からαである。つまり、本例の基準階調AはK+1階調である。基準階調Aにおける任意の階調値をαと表す(k=0,1,2,・・・,K)。一方、縦軸は任意の表示階調Aを表し、その範囲は0からaである。つまり、本例の表示階調AはN+1階調である。表示階調Aにおける任意の階調値をaと表す(n=0,1,2,・・・,N)。ここで、KとNとは等しくても等しくなくてもよい。また、本例では、NはK以下(N≦K)とされる(N>Kとすると、或るαに対して2以上のaが対応付けられることになる)。グラフ301は、基準階調Aにおける各階調値αに1つの表示階調値aが対応付けられていることを表している。なお、グラフ301は連続的な直線として表現されているが、実際は、複数の基準階調値αと複数の表示階調値aとの対応を表す離散的な集合(直線グラフ301上に配置された複数の点)である。このようなグラフ301は、OCTにより得られた画像の画素値(基準階調値αで表現される)を表示階調値aに変換するためのルックアップテーブルとして用いられる。
 基準階調Aと表示階調との対応関係の第2の例を図4Bに示す。図4Bに示すグラフ302は、図4Aのグラフ301と同様に基準階調Aと表示階調Aとの対応関係の例を表すが、曲線状のグラフである点でグラフ301と異なる。座標軸や階調数については図4Aの場合と同様である。OCTにより得られた画像の画素値αを表示階調値aに変換するためのルックアップテーブルとして、このようなグラフ302を用いることができる。
 基準階調Aと表示階調との対応関係の第3の例を図4Cに示す。図4Cに示すグラフ303は、座標軸や階調数については上記グラフ301及び302の場合と同様であるが、全体が連続なグラフ301及び302と異なり、グラフ303は複数の不連続点を有するグラフである。より具体的には、本例のグラフ303は、基準階調Aを表す横軸に平行な複数の部分303(n)(n=0,1,2,・・・,N)が階段状に配列されたグラフである。図4Cにおいて、任意の部分303(n)は、基準階調値の範囲αk1<α≦αk2を定義域としており、この範囲αk1<α≦αk2内の任意の基準階調値αに対して同じ表示階調値aを対応付けている。すなわち、図4Aのグラフ301及び図4Bのグラフ302が基準階調値と表示階調値とを「一対一」に対応付けているのに対し、図4Cのグラフ303では、基準階調値と表示階調値とが「多対一」に対応付けられている。OCTにより得られた画像の画素値αを表示階調値aに変換するためのルックアップテーブルとして、このようなグラフ303を用いることができる。
 基準階調Aと表示階調との対応関係を表す情報の形態はグラフには限定されない。例えば、複数の基準階調値と複数の表示階調値とが対応付けられたテーブルを適用することが可能である。
 以上のようなカラーコード(表示色、表示階調)を含む表示条件情報212aの構成の例を図5に示す。図5に示す表示条件情報212aは、眼の部位として少なくとも「眼底」と「硝子体」を含む。部位「眼底」に対し、表示色「C」と表示階調「A」が対応付けられている。また、部位「硝子体」に対し、表示色「C」と表示階調「A」が対応付けられている。
 部位「眼底」に対応する表示色「C」は、例えばグレースケール(白、黒及びこれらの中間色)である。表示階調「A」は、例えば、図4A~図4Cに示すグラフ又はテーブル情報であってよい。例えば、表示階調「A」として、基準階調Aと表示階調A=Aとを対応付けるよう作成された図4A~図4Cのいずれかに示すグラフ又はテーブル情報を用いることができる。
 なお、表示条件に含まれる表示色及び表示階調の双方が、画像形成部220により形成される画像の色(グレースケール)及び階調(基準階調)と同じである場合、つまり、画像形成部220により形成される画像の(少なくとも)一部について色変換を行わずそのまま表示させる場合、その部位に関する表示条件を設ける必要はない。或いは、その部位について設けられたルックアップテーブルが示す変換は恒等変換であってよい。
 部位「硝子体」に対応する表示色「C」及び表示階調「A」は、例えば疑似カラー表現を提供する。疑似カラーは、グレースケールの基準階調Aの階調値(輝度値)ごとに所定の色を割り当てるカラー表現技術であり、グレースケール(白黒の濃淡)では判別しにくい微妙な輝度の違いを色の変化によって強調して表現することができる。グレースケール表現(基準階調A)を疑似カラー表現(表示階調A)に変換するルックアップテーブルは、例えば、図4A~図4Cに示すグラフ又はテーブル情報であってよい。例えば、表示階調「A」として、基準階調Aと表示階調A=Aとを対応付けるよう作成された図4A~図4Cのいずれかに示すグラフ又はテーブル情報を用いることができる。ここで、表示階調Aは、例えば、図4Aの縦軸Aの各階調値aに、赤(R)、緑(G)、青(B)の組み合わせを割り当てることにより得られる。それにより、横軸である基準階調Aの各階調値αを疑似カラーの階調値aに変換するためのルックアップテーブルが得られる。
〈表示条件選択部213〉
 表示条件選択部213は、ユーザ又は眼科撮影装置1により指定された被検眼Eの部位に対応する表示条件を表示条件情報212aから選択する。図5に示す表示条件情報212aが適用され、かつ、指定された部位が眼底Efである場合、表示条件選択部213は、表示条件情報212aにおいて部位「眼底」に対応する表示色「C」と表示階調「A」とを選択する。また、指定された部位が「硝子体」である場合、表示条件選択部213は、表示色「C」と表示階調「A」とを選択する。
 なお、被検眼Eの部位の指定は、上記のようにユーザ又は眼科撮影装置1により行われる。ユーザが被検眼Eの部位を指定する場合の例として、部位を指定するためのグラフィカルユーザーインターフェイス(GUI)を制御部210により表示部241に表示することができる。ユーザは、操作部242を用いて所望の部位を指定することが可能である。ユーザによる指定の他の例として、画像形成部220により形成された画像(又は外部から取得されたOCT画像)を制御部210により表示部241に表示することができる。ユーザは、表示された画像中の所望の領域を、操作部240を用いて指定することが可能である。このとき、指定された領域に相当する部位の名称等をユーザが入力することができる。或いは、例えばデータ処理部230が、指定領域の形状やサイズや輝度、更には他の領域との位置関係などを画像解析によって取得し、この解析結果に基づいて指定領域に相当する部位を特定することができる。
 画像撮影装置1が被検眼Eの部位を指定する場合の例として、後述の部分領域特定部231により特定された画像領域に相当する部位を例えばデータ処理部230が特定するように構成することが可能である。そのための処理は、例えば、部分領域特定部231により特定された画像領域の形状やサイズや輝度、更には他の画像領域との位置関係などを画像解析で取得する処理と、特定された画像領域に相当する部位の名称等を画像解析の結果から特定する処理とを含む。
〈画像形成部220〉
 画像形成部220は、DAQ130から入力された検出信号のサンプリング結果に基づいて、眼底Efの断面像の画像データを形成する。この処理には、従来のスウェプトソースOCTと同様に、ノイズ除去(ノイズ低減)、フィルタ処理、FFT(Fast Fourier Transform)などの信号処理が含まれる。画像形成部220により形成される画像データは、スキャンラインに沿って配列された複数のAライン(z方向のライン)における反射強度プロファイルを画像化することにより形成された一群の画像データ(一群のAスキャン像データ)を含むデータセットである。
 画像形成部220は、例えば、プロセッサ及び専用回路基板の少なくともいずれかを含む。なお、本明細書では、「画像データ」と、それに基づく「画像」とを同一視することがある。また、被検眼Eの部位とそれを表す画像とを同一視することがある。
〈データ処理部230〉
 データ処理部230は、画像形成部220により形成された画像に対して画像処理や解析処理を施す。例えば、データ処理部230は、画像の輝度補正や分散補正等の補正処理を実行する。また、データ処理部230は、眼底カメラユニット2により得られた画像(眼底像、前眼部像等)に対して画像処理や解析処理を施す。データ処理部230は、例えば、プロセッサ及び専用回路基板の少なくともいずれかを含む。
〈部分領域特定部231〉
 部分領域特定部231は、画像形成部220により形成された画像を解析することにより、被検眼Eの所定部位に相当する部分領域を特定する。この所定部位は、表示条件選択部213が表示条件情報212aから表示条件(表示色、表示階調等)を選択するための入力情報である被検眼Eの部位と同じである。
 部分領域特定部231が実行する処理の例を説明する。部分領域特定部231は、被検眼EのOCT画像を複数の部分領域に分割する処理を行う。本例では、部分領域特定部231が被検眼Eの2次元画像(断面像)を複数の2次元部分領域に分割する場合について説明する。この2次元画像としては、画像形成部220により形成された断面像(Bスキャン画像等)や、3次元画像から得られる断面像(MPR画像)などがある。複数のBスキャン画像から3次元画像を形成する処理と、3次元画像からMPR画像を形成する処理は、データ処理部230により実行される。ここで、「画像を分割する」とは、画像を複数の部分領域に分類すること、つまり、画像を構成する複数の画素からなる集合を複数の部分集合に分けること(或いは、画像を構成する各画素に対していずれかの部分領域に対応するラベルを付与すること)を少なくとも含む。なお、上記分類処理の対象となる複数の画素は、当該画像を構成する全ての画素であってもよいし、一部の画素であってもよい。さらに、「画像を分割する」処理は、上記分類処理により得られた部分領域を元の画像から取り出す処理、つまり、部分領域を抽出する処理を含んでいてもよい。この場合、後段の表示処理において、抽出された複数の部分領域を再度合成することにより表示画像が形成される。
 部分領域特定部231は、被検眼Eの2次元画像を解析することにより、被検眼Eの1以上の部位のそれぞれに相当する1次元画像領域を特定する。特定対象の部位は、被検眼Eの任意の部位であってよい。たとえば、特定対象の部位は、網膜の層(網膜色素上皮層、視細胞層、外境界膜、外顆粒層、外網状層、内顆粒層、内網状層、神経節細胞層、神経線維層、内境界膜)又はその境界、ブルッフ膜、脈絡膜の境界、強膜の境界、硝子体の境界であってよい。また、特定対象の部位は、病変部の境界であってよい。また、撮像範囲に前眼部が含まれている場合、角膜の境界、角膜の層(角膜上皮、ボーマン膜、角膜実質、デュア層、デスメ膜、角膜内皮)又はその境界、水晶体の境界、虹彩の境界などであってよい。なお、特定対象の部位は、解剖学的な組織や病変部などには限定されず、被検眼の画像を解析して得られた領域や、被検眼の画像を参照して手動で設定された領域なども含む概念であってよい。画像を解析して得られた領域の例として、下記のセグメンテーションにより得られた画像領域(層領域、層の境界領域等)がある。
 部分領域特定部231が実行する処理の例として、セグメンテーションと呼ばれる処理を説明する。部分領域特定部231は、被検眼Eの2次元画像の画素値に基づいて、特定対象の部位に相当する画像領域に含まれる複数の画素を特定する。次に、部分領域特定部231は、特定された複数の画素に基づいて近似曲線を求める。この近似曲線は、任意の手法で求めることができ、その一例として、線形近似曲線、対数近似曲線、多項式近似曲線、累乗近似曲線、指数近似曲線、移動平均近似曲線などがある。このようにして取得された近似曲線を、特定対象の部位に相当する1次元画像領域として用いることができる。
 部分領域特定部231により特定される部位の個数は任意である。特定対象となる1以上の部位は予め設定されてよい。その設定方法としては、デフォルト設定、解析手法や観察部位に応じた選択的な設定、ユーザによる任意的な設定などがある。同様に、部分領域特定部231により得られる部分領域の個数も任意である。
 部分領域特定部231は、前段の処理により特定された1次元画像領域を境界とする2次元画像領域を、部分領域特定部231による特定目標である部分領域として特定する。各部分領域は、被検眼Eの所定の組織又はその一部であってよく、また、2以上の組織又はその一部であってもよい。また、各部分領域は、病変部又はその一部であってよい。
 部分領域特定部231が実行する処理の例を、図6A及び図6Bを参照して説明する。図6Aに示すように、部分領域特定部231は、画像形成部220により形成された断面像(Bスキャン画像)Gを解析することにより、網膜と硝子体との境界(内境界膜)に相当する1次元画像領域(網膜-硝子体境界領域)gを特定する。なお、特定対象は網膜-硝子体境界領域には限定されず、例えば、網膜と脈絡膜との境界(ブルッフ膜)に相当する1次元画像領域(網膜-脈絡膜境界領域)や、脈絡膜と強膜との境界に相当する1次元画像領域(脈絡膜-強膜境界領域)を特定するよう構成することが可能である。
 図6Aに示す場合において、部分領域特定部231は、図6Bに示すように、網膜-硝子体境界領域gを境界として互いに隣接する硝子体領域Gと眼底領域Gとを特定することができる。なお、眼底領域Gを2以上のサブ領域に分割することも可能である。例えば、眼底領域Gは、網膜-硝子体境界領域g及び網膜-脈絡膜境界領域の双方を境界とする網膜領域と、網膜-脈絡膜境界領域と脈絡膜-強膜境界とを境界とする脈絡膜領域と、脈絡膜-強膜境界を境界とする強膜領域とに分割される。更に、網膜領域を2以上のサブ領域に分割することも可能である。
〈ユーザインターフェイス240〉
 ユーザインターフェイス240は表示部241と操作部242とを含む。表示部241は表示装置3を含む。操作部242は各種の操作デバイスや入力デバイスを含む。ユーザインターフェイス240は、例えばタッチパネルのような表示機能と操作機能とが一体となったデバイスを含んでいてもよい。ユーザインターフェイス240の少なくとも一部を含まない実施形態を構築することも可能である。例えば、表示デバイスは、眼科撮影装置に接続された外部装置であってよい。
〈動作態様〉
 眼科撮影装置1の動作について説明する。動作の一例を図7に示す。
(S1:被検眼のOCT測定を行う)
 まず、被検眼EのOCT測定が行われる。本例では、眼底Efと硝子体とを含む範囲のデータが収集される。
(S2:OCT画像を形成する)
 画像形成部220は、ステップS1で収集されたデータに基づいてOCT画像を形成する。このOCT画像をデータ処理部230により加工することができる。例えば、画像形成部220により形成された複数のBスキャン画像から3次元画像(ボリュームデータ、スタックデータ等)を形成することができる。更に、この3次元データに対して任意の断面を設定し、この断面を表す画像(MPR画像)を形成することができる。また、画質調整や強調処理やノイズ低減などをOCT画像に施すことができる。
(S3:眼底領域と硝子体領域を特定する)
 部分領域特定部231は、ステップS2で形成されたOCT画像を解析することにより、被検眼Eの所定部位に相当する部分領域を特定する。本例では、眼底Efに相当する眼底領域と、硝子体に相当する硝子体領域とが特定される。
(S4:各部分領域の表示条件を選択する)
 表示条件選択部213は、各部分領域の表示条件を表示条件情報212aから選択する。本例では、眼底領域に対応する表示色「C」及び表示階調「A」と、硝子体領域に対応する表示色「C」及び表示階調「A」が、図5に示す表示条件情報212aから選択される。
(S5:表示色・表示階調を変換する)
 主制御部211は、ステップS4で選択された表示条件でOCT画像の画素値を変換する。本例では、OCT画像の眼底領域の各画素の値を表示色「C」及び表示階調「A」に基づき変換し、かつ、硝子体領域の各画素の値を表示色「C」及び表示階調「A」に基づき変換する。
(S6:変換されたOCT画像を表示する)
 主制御部211は、ステップS5において少なくとも一部の画素の値が変換されたOCT画像を表示部241に表示させる。本例では、OCT画像の眼底領域はグレースケールで表示され、硝子体領域は疑似カラーで表示される。
〈他の動作態様〉
 眼科撮影装置1の動作態様の幾つかの例を説明する。
 第1の例を説明する。被検眼Eの2以上の画像を表示部241に表示させることがある。例えば、経過観察や術前術後観察において、異なるタイミングで取得された2以上の画像を比較観察することがある。2以上の画像は、例えば、所定のレイアウトで並べて表示される。或いは、2以上の画像は、所定枚数(1枚以上)ずつ順次に表示される。なお、2以上の画像の一部が他の眼科撮影装置により取得されたものであってよい。また、2以上の画像は、3次元スキャンにより得られた複数のBスキャン画像であってよいし、3次元画像から形成された複数の画像(MPR画像等)であってもよい。
 このように2以上の画像を表示する場合、被検眼Eの同じ部位に相当する各画像の部分領域に同じ表示条件を適用することができる。そのために、部分領域特定部231は、2以上の画像のそれぞれにおいて被検眼Eの所定部位に相当する部分領域を特定する。主制御部211は、この部位に対応する表示条件を各画像の部分領域に適用する。
 図8を参照しつつ具体例を説明する。本例では、被検眼Eの2つの断面像(Bスキャン画像)G及びHが表示される。断面像G及びHが表す断面は同じでも異なってもよい。部分領域特定部231は、断面像Gを解析することにより網膜-硝子体境界領域gを特定し、網膜-硝子体境界領域gを境界として互いに隣接する硝子体領域Gと眼底領域Gとを特定する。更に、部分領域特定部231は、断面像Hを解析することにより網膜-硝子体境界領域hを特定し、網膜-硝子体境界領域hを境界として互いに隣接する硝子体領域Hと眼底領域Hとを特定する。
 表示条件選択部213は、硝子体領域G及びHに対応する表示色「C」及び表示階調「A」と、眼底領域G及びHに対応する表示色「C」及び表示階調「A」とを、図5に示す表示条件情報212aから選択する。主制御部211は、硝子体領域G及びHのそれぞれの各画素の値を表示色「C」及び表示階調「A」に基づき変換し、かつ、眼底領域G及びHのそれぞれの各画素の値を表示色「C」及び表示階調「A」に基づき変換する。更に、主制御部211は、画素値が変換された2つの断面像G及びHを表示部241に表示させる。それにより、断面像G及びHの硝子体領域G及びHは疑似カラーで表示され、かつ、眼底領域G及びHはグレースケールで表示される。
 第2の例を説明する。表示部241に表示されている画像の表示条件をユーザが任意に変更できるよう構成することが可能である。そのために、主制御部211は、例えば、表示条件を変更するためのGUIを画像とともに表示部241に表示させる。ユーザは、操作部242を用いてGUIを操作することにより、この画像の所望の部分領域を指定する操作と、表示条件を変更する操作とを行う。部分領域を指定する操作は、例えば、マウス等のポインティングデバイスを用いて画像に対して行われる。或いは、画像とともに表示された眼の部位のリストから所望の部位を選択するよう構成することもできる。表示条件を変更する操作は、例えば、表示条件の選択肢が列挙されたリスト(プルダウンメニュー、ソフトウェアキー等)から所望の表示条件を選択することにより行われる。また、所定の属性(例えば眼疾患)毎に表示条件の最適な組み合わせを予め設定しておき、それらを任意に選択できるように構成することも可能である。
 ユーザが部分領域と表示条件とを指定すると、主制御部211は、この表示条件をこの部分領域に適用する。それにより、表示されている画像の当該部分領域の表示条件が切り替わる。
 また、第1の例のように2以上の画像を表示する場合において、ユーザが1つの画像の部分領域を指定し、かつ、表示条件の指定を行ったとき、当該部分領域に相当する他の画像中の部分領域を特定して当該表示条件を適用することができる。つまり、2以上の画像のいずれかに対してなされた表示条件の変更を他の画像に自動で反映するよう構成することが可能である。
 第3の例を説明する。記憶部212に格納されている表示条件情報212aをユーザが任意に編集できるよう構成することが可能である。そのために、主制御部211は、表示条件を編集するためのGUIを表示部241に表示させる。ユーザは、操作部242を用いてGUIを操作することにより、表示条件情報212aを編集する。主制御部211は、表示条件情報212aに記録されている1以上の表示条件を表示部241に表示させる。GUIには、表示条件の各項目を編集するためのソフトウェアキーやリストが表示されている。表示色を編集するための手段の例として、表示色の選択肢が提示されたリストがある。また、表示階調を編集するための手段の例として、表示階調数を変更するためのソフトウェアキーや、基準階調と表示階調とを対応付けるグラフの形状を変更するためのソフトウェアキーなどがある。
〈作用・効果〉
 実施形態に係る眼科撮影装置の作用及び効果について説明する。
 実施形態の眼科撮影装置は、記憶部と、データ収集部と、画像形成部と、部分領域特定部と、表示条件選択部と、制御部とを備える。記憶部には表示条件情報が予め記憶される。表示条件情報は、眼の1以上の部位のそれぞれに対して表示色及び表示階調を含む表示条件を対応付けている。上記実施形態では、記憶部212が記憶部に相当し、表示条件情報212aが表示条件情報に相当する。データ収集部は、光コヒーレンストモグラフィ(OCT)を用いて被検眼のデータを収集する。上記実施形態では、OCTユニット100内の要素と、測定アームを形成する光学部材とが、データ収集部に含まれる。画像形成部は、データ収集部により収集されたデータに基づいて画像を形成する。上記実施形態では、画像形成部220が画像形成部に相当する。部分領域特定部は、画像形成部により形成された画像を解析することにより、被検眼の所定部位に相当する部分領域を特定する。上記実施形態では、部分領域特定部231が部分領域特定部に相当する。表示条件選択部は、被検眼の所定部位に対応する表示条件を表示条件情報から選択する。上記実施形態では、表示条件選択部213が表示条件選択部に相当する。制御部は、表示条件選択部により選択された表示条件に基づいて、画像形成部により形成された画像を表示手段に表示させる。上記実施形態では、主制御部211が制御部に相当し、表示部241が表示手段に相当する。なお、表示手段は眼科撮影装置の外部に設けられた表示装置であってよい。
 実施形態において、制御部は、少なくとも、表示条件選択部により選択された表示条件に含まれる表示色及び表示階調を適用して画像中の部分領域を表示させるよう構成される。
 このような実施形態によれば、OCTにより得られた画像において被検眼の所定部位に相当する部分領域を、その部分領域に応じた条件(表示色及び表示階調を少なくとも含む)で表示することが可能である。したがって、被検眼の所定部位を好適な表示色及び表示階調で表現することが可能である。それにより、被検眼の複数の部位が詳細に描出された画像を提供できる。
 実施形態において、画像形成部は、所定の基準階調のグレースケール画像を形成するよう構成される。また、表示条件情報には、所定のカラーコードが1以上の部位のそれぞれに対応付けられる。このカラーコードは、白、黒及びこれらの中間色のいずれとも異なる1以上の表示色と、基準階調に基づき設定された複数の階調値を含む表示階調とにより定義されたものであってよい。制御部は、部分領域特定部により特定された部分領域の各画素のグレースケール値を、所定部位に対応するカラーコードに基づいてカラー値に変換するよう構成される。
 このような構成によれば、グレースケール画像として得られるOCT画像に描出された所定部位を、この所定部位に応じたカラーコードで疑似カラー表示することが可能である。所定部位は、例えば硝子体のように、グレースケール画像では詳細を観察しにくい部位であってよい。
 被検眼の2以上の画像が表示手段に表示される場合、次のような実施形態を適用することが可能である。すなわち、部分領域特定部は、2以上の画像のそれぞれについて、所定部位に相当する部分領域を特定するよう構成される。更に、制御部は、表示条件選択部により選択された所定部位に対応する表示条件を、2以上の画像のそれぞれにおける部分領域に適用するよう構成される。
 このような構成によれば、被検眼の同じ部位を同じ表示条件で提示することができるので、2以上の画像の比較観察などを容易かつ好適に行うことが可能である。
 実施形態の眼科撮影装置は、制御部により表示手段に表示された被検眼の画像の部分領域を指定する操作と、表示条件を変更する操作とを行うための第1ユーザインターフェイス部を備えてよい。上記実施形態では、ユーザインターフェイス240が第1ユーザインターフェイス部に相当する。制御部は、第1ユーザインターフェイス部により指定された表示条件を、第1ユーザインターフェイス部により指定された部分領域に適用するよう構成される。
 このような構成によれば、表示されている画像の部分領域を満足に観察できない場合、ユーザが任意に表示条件を調整することができる。例えば、表示色をグレースケールから疑似カラーに変更したり、表示階調を増加させたりすることにより、被検眼の所定部位をより詳細に観察することが可能となる。ここで、ユーザによって調整された表示条件に名称(条件名)を付して記憶部212や外部コンピュータ等に保存することができる。更に、次回以降の検査において、入力又は指定された条件名に対応する表示条件を呼び出すよう構成することが可能である。
 実施形態の眼科撮影装置は、表示条件情報を編集するための第2ユーザインターフェイス部を備えていてよい。上記実施形態では、ユーザインターフェイス240が第2ユーザインターフェイス部に相当する。
 このような構成によれば、ユーザは、表示条件情報に対して所望の編集を施すことが可能である。
〈眼科画像表示装置〉
 実施形態に係る眼科画像表示装置について説明する。眼科画像表示装置は、被検眼の画像を表示するための装置である。眼科画像表示装置は、例えば、コンピュータ端末、医療機関内のネットワーク(LAN)上のサーバ、広域ネットワーク上のサーバ(クラウドサーバ等)等の情報処理装置のいずれかを含んだ構成であってよい。また、眼科画像表示装置は、眼科等で用いられる任意の撮影装置の一部として構成されてよい。
 実施形態の眼科画像表示装置の構成の例を図9に示す。眼科画像表示装置400は、制御部410と、通信部420と、データ処理部430と、ユーザインターフェイス(UI)440とを含む。
 制御部410は、上記の眼科撮影装置1の制御部210と同様の構成及び機能を備える。具体的には、制御部410は、主制御部411と、記憶部412と、表示条件選択部413とを含む。主制御部211は、眼科撮影装置1の主制御部211と同様の構成及び機能を備える。記憶部412は、眼科撮影装置1の記憶部212と同様の構成及び機能を備え、表示条件情報212aと同様の表示条件情報412aを予め記憶する。表示条件選択部413は、眼科撮影装置1の表示条件選択部213と同様の構成及び機能を備える。
 通信部420は、外部の装置とネットワークを介してデータ通信を行うための通信インターフェイスを含む。通信インターフェイスは、ネットワークに準拠した構成及び機能を備え、例えばモデムやLANカードを含む。
 データ処理部430は、眼科撮影装置1のデータ処理部230と同様の構成及び機能を備え、部分領域特定部231と同様の部分領域特定部431を含む。ユーザインターフェイス440は、眼科撮影装置1の表示部241及び操作部242と同様の表示部441及び操作部442を含む。
 記憶部412は、眼の1以上の部位のそれぞれに表示色及び表示階調を含む表示条件が対応付けられた表示条件情報412aを予め記憶する。通信部420は、光コヒーレンストモグラフィを用いて取得された被検眼の画像を受け付ける。通信部420は受付部の一例である。部分領域特定部431は、通信部420により受け付けられた画像を解析することにより、被検眼の所定部位に相当する部分領域を特定する。表示条件選択部431は、被検眼の所定部位に対応する表示条件を表示条件情報412aから選択する。主制御部411は、表示条件選択部413により選択された表示条件に基づいて、通信部420により受信された画像を表示部441に表示させる。
 このような眼科画像表示装置によれば、OCTにより得られた画像において被検眼の所定部位に相当する部分領域を、その部分領域に応じた条件(表示色及び表示階調を少なくとも含む)で表示することが可能である。したがって、被検眼の所定部位を好適な表示色及び表示階調で表現することが可能である。それにより、被検眼の複数の部位が詳細に描出された画像を提供できる。
 実施形態の眼科画像表示装置は、上記実施形態の眼科撮影装置1について説明された構成及び機能のうち任意のものを備えていてよい。
 以上に説明した実施形態は本発明の一例に過ぎない。本発明を実施しようとする者は、本発明の要旨の範囲内における変形(省略、置換、付加等)を任意に施すことが可能である。
1 眼科撮影装置
100 OCTユニット
211 主制御部
212 記憶部
212a 表示条件情報
213 表示条件選択部
220 画像形成部
231 部分領域特定部
241 表示部

Claims (8)

  1.  眼の1以上の部位のそれぞれに表示色及び表示階調を含む表示条件が対応付けられた表示条件情報を予め記憶する記憶部と、
     光コヒーレンストモグラフィを用いて被検眼のデータを収集するデータ収集部と、
     前記データ収集部により収集されたデータに基づいて画像を形成する画像形成部と、
     前記画像形成部により形成された画像を解析することにより前記被検眼の所定部位に相当する部分領域を特定する部分領域特定部と、
     前記所定部位に対応する前記表示条件を前記表示条件情報から選択する表示条件選択部と、
     前記表示条件選択部により選択された表示条件に基づいて、前記画像形成部により形成された画像を表示手段に表示させる制御部と
     を備える眼科撮影装置。
  2.  前記制御部は、少なくとも、前記表示条件選択部により選択された表示条件に含まれる表示色及び表示階調を適用して前記画像中の前記部分領域を表示させる
     ことを特徴とする請求項1に記載の眼科撮影装置。
  3.  前記画像形成部は、所定の基準階調のグレースケール画像を形成し、
     前記表示条件情報には、白、黒及びこれらの中間色のいずれとも異なる1以上の表示色と前記基準階調に基づき設定された複数の階調値を含む表示階調とにより定義されたカラーコードが、前記1以上の部位のそれぞれに対応付けられており、
     前記制御部は、前記部分領域の各画素のグレースケール値を前記所定部位に対応する前記カラーコードに基づいてカラー値に変換する
     ことを特徴とする請求項2に記載の眼科撮影装置。
  4.  前記1以上の部位のいずれかは硝子体である
     ことを特徴とする請求項3に記載の眼科撮影装置。
  5.  前記被検眼の2以上の画像が前記表示手段に表示されるとき、
     前記部分領域特定部は、前記2以上の画像のそれぞれにおいて前記所定部位に相当する部分領域を特定し、
     前記制御部は、前記所定部位に対応する前記表示条件を前記2以上の画像のそれぞれにおける前記部分領域に適用する
     ことを特徴とする請求項1~4のいずれかに記載の眼科撮影装置。
  6.  前記制御部により前記表示手段に表示された前記被検眼の画像の部分領域を指定する操作と、表示条件を変更する操作とを行うための第1ユーザインターフェイス部を備え、
     前記制御部は、前記第1ユーザインターフェイス部により指定された表示条件を、前記第1ユーザインターフェイス部により指定された部分領域に適用する
     ことを特徴とする請求項1~5のいずれかに記載の眼科撮影装置。
  7.  前記表示条件情報を編集するための第2ユーザインターフェイス部を備える
     ことを特徴とする請求項1~6のいずれかに記載の眼科撮影装置。
  8.  眼の1以上の部位のそれぞれに表示色及び表示階調を含む表示条件が対応付けられた表示条件情報を予め記憶する記憶部と、
     光コヒーレンストモグラフィを用いて取得された被検眼の画像を受け付ける受付部と、
     前記受付部により受け付けられた画像を解析することにより前記被検眼の所定部位に相当する部分領域を特定する部分領域特定部と、
     前記所定部位に対応する前記表示条件を前記表示条件情報から選択する表示条件選択部と、
     前記表示条件選択部により選択された表示条件に基づいて、前記受付部により受け付けられた画像を表示手段に表示させる制御部と
     を備える眼科画像表示装置。
PCT/JP2016/084402 2015-11-25 2016-11-21 眼科撮影装置及び眼科画像表示装置 WO2017090549A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015229886A JP2017093854A (ja) 2015-11-25 2015-11-25 眼科撮影装置及び眼科画像表示装置
JP2015-229886 2015-11-25

Publications (1)

Publication Number Publication Date
WO2017090549A1 true WO2017090549A1 (ja) 2017-06-01

Family

ID=58763186

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/084402 WO2017090549A1 (ja) 2015-11-25 2016-11-21 眼科撮影装置及び眼科画像表示装置

Country Status (2)

Country Link
JP (1) JP2017093854A (ja)
WO (1) WO2017090549A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7148113B2 (ja) 2018-06-04 2022-10-05 株式会社トーメーコーポレーション 眼科装置
JP7417981B2 (ja) 2019-10-15 2024-01-19 株式会社トーメーコーポレーション 眼科装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014203901A1 (ja) * 2013-06-19 2014-12-24 株式会社トプコン 眼科撮影装置および眼科画像表示装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014203901A1 (ja) * 2013-06-19 2014-12-24 株式会社トプコン 眼科撮影装置および眼科画像表示装置

Also Published As

Publication number Publication date
JP2017093854A (ja) 2017-06-01

Similar Documents

Publication Publication Date Title
JP6586196B2 (ja) 眼科撮影装置および眼科画像表示装置
JP6045895B2 (ja) 眼科観察装置
JP5937163B2 (ja) 眼底解析装置及び眼底観察装置
JP6322042B2 (ja) 眼科撮影装置、その制御方法、およびプログラム
WO2017154348A1 (ja) 眼科装置
JP6703839B2 (ja) 眼科計測装置
JP2017143994A (ja) 眼科撮影装置
JP2022027879A (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP2016140428A (ja) 眼科装置、画像処理方法およびプログラム
WO2018135175A1 (ja) 眼科装置
WO2017090549A1 (ja) 眼科撮影装置及び眼科画像表示装置
JP6279682B2 (ja) 眼科観察装置
JP6739183B2 (ja) 眼科装置
JP6713297B2 (ja) 眼科装置
JP2018023818A (ja) 眼科観察装置
JP2021079013A (ja) 医用画像処理装置、医用画像処理装置の処理方法およびプログラム
JP6685119B2 (ja) 眼科撮影装置
WO2016039188A1 (ja) 眼底解析装置及び眼底観察装置
JP6912554B2 (ja) 眼科装置
WO2021014744A1 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP6954831B2 (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP6942627B2 (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP6942626B2 (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP6664992B2 (ja) 眼科撮影装置
JP2021154160A (ja) 眼科撮影装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16868496

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16868496

Country of ref document: EP

Kind code of ref document: A1