WO2022177028A1 - 画像処理方法、画像処理装置、及びプログラム - Google Patents

画像処理方法、画像処理装置、及びプログラム Download PDF

Info

Publication number
WO2022177028A1
WO2022177028A1 PCT/JP2022/007393 JP2022007393W WO2022177028A1 WO 2022177028 A1 WO2022177028 A1 WO 2022177028A1 JP 2022007393 W JP2022007393 W JP 2022007393W WO 2022177028 A1 WO2022177028 A1 WO 2022177028A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
volume data
oct
stereoscopic image
blood vessels
Prior art date
Application number
PCT/JP2022/007393
Other languages
English (en)
French (fr)
Inventor
泰士 田邉
洋志 葛西
真梨子 向井
媛テイ 吉
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to US18/278,128 priority Critical patent/US20240153203A1/en
Priority to JP2023500975A priority patent/JPWO2022177028A1/ja
Publication of WO2022177028A1 publication Critical patent/WO2022177028A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the technology of the present disclosure relates to an image processing method, an image processing device, and a program.
  • US Patent No. 10238281 discloses a technique for generating volume data of an eye to be examined using an optical coherence tomography. Conventionally, it has been desired to visualize blood vessels based on volume data of an eye to be examined.
  • An image processing method is an image processing method performed by a processor, comprising: acquiring OCT volume data including a choroid; extracting choroidal blood vessels based on the OCT volume data; and generating a stereoscopic image of the choroidal vessels.
  • An image processing apparatus includes a memory and a processor connected to the memory, the processor acquiring OCT volume data including a choroid; and extracting a choroidal blood vessel using a method to generate a stereoscopic image of the choroidal blood vessel.
  • a program causes a computer to acquire OCT volume data including a choroid, extract choroidal blood vessels based on the OCT volume data, and generate a stereoscopic image of the choroidal blood vessels. Execute the step and
  • FIG. 1 is a schematic configuration diagram of an ophthalmologic system of this embodiment
  • FIG. 1 is a schematic configuration diagram of an ophthalmologic apparatus according to an embodiment
  • FIG. 3 is a schematic configuration diagram of a server
  • FIG. FIG. 4 is an explanatory diagram of functions realized by an image processing program in the CPU of the server
  • 4 is a flowchart showing image processing by a server
  • FIG. 6 is a flow chart showing vortex vein stereoscopic image generation processing in step 6100 of FIG. 5
  • FIG. FIG. 4 is a schematic diagram showing the relationship between the eyeball and the position of the vortex vein
  • FIG. 4 is a diagram showing the relationship between OCT volume data and an en-face image; Schematic diagram of 3D image of vortex veins It is a first example of a display screen using a stereoscopic image of vortex veins. This is a second example of a display screen using a stereoscopic image of vortex veins.
  • FIG. 11B is a third example of a display screen using a stereoscopic image of vortex veins.
  • FIG. This is a fourth example of a display screen using a stereoscopic image of vortex veins.
  • FIG. 1 shows a schematic configuration of an ophthalmic system 100.
  • the ophthalmologic system 100 includes an ophthalmologic apparatus 110 , a server apparatus (hereinafter referred to as “server”) 140 , and a display apparatus (hereinafter referred to as “viewer”) 150 .
  • the ophthalmologic device 110 acquires a fundus image.
  • the server 140 associates a plurality of fundus images obtained by photographing the fundus of a plurality of patients with the ophthalmologic apparatus 110 and the axial length measured by an axial length measuring device (not shown) with the patient ID. memorize.
  • the viewer 150 displays the fundus image acquired by the server 140 and the analysis results.
  • the server 140 is an example of the "image processing device" of the technology of the present disclosure.
  • Network 130 is any network such as LAN, WAN, the Internet, or a wide area Ethernet network.
  • LAN local area network
  • WAN wide area network
  • Ethernet wide area Ethernet network
  • the viewer 150 is a client in a client-server system, and a plurality of viewers 150 are connected via a network. Also, a plurality of servers 140 may be connected via a network in order to ensure system redundancy.
  • the ophthalmologic apparatus 110 has an image processing function and an image viewing function of the viewer 150, the ophthalmologic apparatus 110 can acquire, process, and view fundus images in a stand-alone state.
  • the server 140 has the image viewing function of the viewer 150, the configuration of the ophthalmologic apparatus 110 and the server 140 enables fundus image acquisition, image processing, and image viewing.
  • ophthalmologic equipment inspection equipment for visual field measurement, intraocular pressure measurement, etc.
  • diagnosis support device that performs image analysis using AI (Artificial Intelligence) are connected via the network 130 to the ophthalmic equipment 110, the server 140, and the viewer. 150 may be connected.
  • AI Artificial Intelligence
  • SLO scanning laser ophthalmoscope
  • OCT optical coherence tomography
  • the horizontal direction is the "X direction”
  • the vertical direction to the horizontal plane is the "Y direction”.
  • the ophthalmologic device 110 includes an imaging device 14 and a control device 16 .
  • the imaging device 14 includes an SLO unit 18 and an OCT unit 20 and acquires a fundus image of the eye 12 to be examined.
  • the two-dimensional fundus image acquired by the SLO unit 18 is hereinafter referred to as an SLO image.
  • a tomographic image of the retina, a front image (en-face image), and the like created based on the OCT data acquired by the OCT unit 20 are referred to as OCT images.
  • the control device 16 comprises a computer having a CPU (Central Processing Unit) 16A, a RAM (Random Access Memory) 16B, a ROM (Read-Only Memory) 16C, and an input/output (I/O) port 16D. ing.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read-Only Memory
  • I/O input/output
  • the control device 16 has an input/display device 16E connected to the CPU 16A via an I/O port 16D.
  • the input/display device 16E has a graphic user interface that displays an image of the subject's eye 12 and receives various instructions from the user. Graphic user interfaces include touch panel displays.
  • the control device 16 also includes an image processor 17 connected to the I/O port 16D.
  • the image processor 17 generates an image of the subject's eye 12 based on the data obtained by the imaging device 14 .
  • the control device 16 is connected to the network 130 via the communication interface 16F.
  • the control device 16 of the ophthalmic device 110 includes the input/display device 16E, but the technology of the present disclosure is not limited to this.
  • the controller 16 of the ophthalmic device 110 may not have the input/display device 16E, but may have a separate input/display device physically separate from the ophthalmic device 110.
  • the display device includes an image processor unit that operates under the control of the display control section 204 of the CPU 16A of the control device 16.
  • FIG. The image processor unit may display an SLO image or the like based on the image signal output by the display control unit 204 .
  • the imaging device 14 operates under the control of the CPU 16A of the control device 16.
  • the imaging device 14 includes an SLO unit 18 , an imaging optical system 19 and an OCT unit 20 .
  • the imaging optical system 19 includes an optical scanner 22 and a wide-angle optical system 30 .
  • the optical scanner 22 two-dimensionally scans the light emitted from the SLO unit 18 in the X and Y directions.
  • the optical scanner 22 may be any optical element capable of deflecting a light beam, such as a polygon mirror or a galvanomirror. Moreover, those combinations may be sufficient.
  • the wide-angle optical system 30 synthesizes the light from the SLO unit 18 and the light from the OCT unit 20.
  • the wide-angle optical system 30 may be a reflective optical system using a concave mirror such as an elliptical mirror, a refractive optical system using a wide-angle lens, or a catadioptric system combining concave mirrors and lenses.
  • a wide-angle optical system using an elliptical mirror, a wide-angle lens, etc. it is possible to photograph not only the central part of the fundus but also the peripheral part of the retina.
  • the wide-angle optical system 30 realizes observation in a wide field of view (FOV: Field of View) 12A at the fundus.
  • the FOV 12A indicates a range that can be photographed by the photographing device 14.
  • FIG. FOV12A can be expressed as a viewing angle.
  • a viewing angle may be defined by an internal illumination angle and an external illumination angle in this embodiment.
  • the external irradiation angle is an irradiation angle defined by using the pupil 27 as a reference for the irradiation angle of the light beam irradiated from the ophthalmologic apparatus 110 to the eye 12 to be examined.
  • the internal illumination angle is an illumination angle defined by using the eyeball center O as a reference for the illumination angle of the luminous flux that illuminates the fundus F.
  • the external illumination angle and the internal illumination angle are in correspondence. For example, an external illumination angle of 120 degrees corresponds to an internal illumination angle of approximately 160 degrees. In this embodiment, the internal illumination angle is 200 degrees.
  • UWF-SLO fundus image an SLO fundus image obtained by photographing at an angle of view of 160 degrees or more with an internal irradiation angle is referred to as a UWF-SLO fundus image.
  • UWF is an abbreviation for UltraWide Field.
  • the wide-angle optical system 30, which has an ultra-wide field of view (FOV) of the fundus, can image the area beyond the posterior pole of the fundus of the eye 12 to be examined and beyond the equator. You can take pictures of existing structures.
  • FOV ultra-wide field of view
  • the ophthalmologic apparatus 110 can photograph the region 12A with an internal illumination angle of 200° with the eyeball center O of the subject's eye 12 as a reference position.
  • the internal illumination angle of 200° is 110° in terms of the external illumination angle with the pupil of the eyeball of the subject's eye 12 as a reference.
  • the wide-angle optical system 30 irradiates the laser light from the pupil with an external irradiation angle of 110°, and photographs the fundus region with an internal irradiation angle of 200°.
  • the SLO system is implemented by the control device 16, SLO unit 18, and imaging optical system 19 shown in FIG. Since the SLO system includes the wide-angle optical system 30, it enables fundus imaging with a wide FOV 12A.
  • the SLO unit 18 includes a B light (blue light) light source 40, a G light (green light) light source 42, an R light (red light) light source 44, and an IR light (infrared (for example, near infrared light)) light source. It comprises a light source 46 and optical systems 48, 50, 52, 54 and 56 that reflect or transmit the light from the light sources 40, 42, 44 and 46 and guide them to one optical path.
  • Optical systems 48, 56 are mirrors and optical systems 50, 52, 54 are beam splitters.
  • the B light is reflected by the optical system 48, transmitted through the optical system 50, and reflected by the optical system 54, the G light is reflected by the optical systems 50 and 54, and the R light is transmitted by the optical systems 52 and 54.
  • the IR light is reflected by optical systems 52 and 56 and directed to one optical path, respectively.
  • the SLO unit 18 is configured to be switchable between a light source that emits laser light with different wavelengths, such as a mode that emits R light and G light, and a mode that emits infrared light, or a combination of light sources that emit light.
  • a light source that emits laser light with different wavelengths
  • the example shown in FIG. 2 includes four light sources, that is, the B light source 40, the G light source 42, the R light source 44, and the IR light source 46
  • the technology of the present disclosure is not limited to this.
  • the SLO unit 18 may further include a white light source and emit light in various modes such as a mode emitting G light, R light, and B light, and a mode emitting only white light. good.
  • the light that has entered the imaging optical system 19 from the SLO unit 18 is scanned in the X and Y directions by the optical scanner 22 .
  • the scanning light passes through the wide-angle optical system 30 and the pupil 27 and illuminates the fundus. Reflected light reflected by the fundus enters the SLO unit 18 via the wide-angle optical system 30 and the optical scanner 22 .
  • the SLO unit 18 has a beam splitter 64 that reflects the B light from the posterior segment (fundus) of the subject's eye 12 and transmits other than the B light, and G light from the light transmitted through the beam splitter 64 .
  • a beam splitter 58 that reflects and transmits light other than G light is provided.
  • the SLO unit 18 has a beam splitter 60 that reflects the R light and transmits other than the R light out of the light transmitted through the beam splitter 58 .
  • the SLO unit 18 has a beam splitter 62 that reflects IR light out of the light transmitted through the beam splitter 60 .
  • the SLO unit 18 includes a B light detection element 70 for detecting B light reflected by the beam splitter 64, a G light detection element 72 for detecting G light reflected by the beam splitter 58, and an R light reflected by the beam splitter 60.
  • An R photodetector element 74 and an IR photodetector element 76 for detecting IR light reflected by the beam splitter 62 are provided.
  • the light (reflected light reflected by the fundus) that is incident on the SLO unit 18 via the wide-angle optical system 30 and the optical scanner 22 is reflected by the beam splitter 64 and received by the B light detection element 70 in the case of B light.
  • the beam splitter 58 In the case of G light, it is reflected by the beam splitter 58 and received by the G light detection element 72 .
  • the incident light, in the case of R light passes through the beam splitter 58 , is reflected by the beam splitter 60 , and is received by the R light detection element 74 .
  • the incident light, in the case of IR light passes through the beam splitters 58 and 60 , is reflected by the beam splitter 62 , and is received by the IR photodetector 76 .
  • the image processor 17 operating under the control of the CPU 16A uses the signals detected by the B photodetector 70, the G photodetector 72, the R photodetector 74, and the IR photodetector 76 to produce a UWF-SLO image. Generate.
  • a UWF-SLO image generated using the signal detected by the B photodetector 70 is called a B-UWF-SLO image (B-color fundus image).
  • a UWF-SLO image generated using the signals detected by the G photodetector 72 is called a G-UWF-SLO image (G color fundus image).
  • a UWF-SLO image generated using the signal detected by the R photodetector 74 is called an R-UWF-SLO image (R color fundus image).
  • a UWF-SLO image generated using the signal detected by the IR photodetector 76 is called an IR-UWF-SLO image (IR fundus image).
  • UWF-SLO images include these R-color fundus images, G-color fundus images, B-color fundus images, and IR fundus images. Also included is a fluorescence UWF-SLO image of fluorescence.
  • control device 16 controls the light sources 40, 42, 44 to emit light simultaneously.
  • a G-color fundus image, an R-color fundus image, and a B-color fundus image whose respective positions correspond to each other are obtained.
  • An RGB color fundus image is obtained from the G color fundus image, the R color fundus image, and the B color fundus image.
  • the control device 16 controls the light sources 42 and 44 to emit light at the same time, and the fundus of the subject's eye 12 is photographed simultaneously with the G light and the R light, thereby obtaining a G-color fundus image and an R-color fundus image corresponding to each other at each position.
  • a fundus image is obtained.
  • An RG color fundus image is obtained from the G color fundus image and the R color fundus image.
  • a full-color fundus image may be generated using the G-color fundus image, the R-color fundus image, and the B-color fundus image.
  • the field of view (FOV) of the fundus can be set to a super-wide angle, and the area extending from the posterior pole of the fundus to the equator of the subject's eye 12 can be photographed.
  • the OCT system is implemented by the control device 16, OCT unit 20, and imaging optical system 19 shown in FIG. Since the OCT system includes the wide-angle optical system 30, OCT imaging of the peripheral part of the fundus can be performed in the same manner as the SLO fundus image imaging described above. In other words, the wide-angle optical system 30 having a super-wide field of view (FOV) of the fundus can perform OCT imaging of the region extending from the posterior pole of the fundus to the equator 178 of the subject's eye 12 . It is possible to acquire OCT data of structures such as vortex veins that exist in the peripheral part of the eye fundus, and obtain 3D structures of vortex veins by performing image processing on tomographic images of vortex veins and OCT data.
  • FOV super-wide field of view
  • the OCT unit 20 includes a light source 20A, a sensor (detection element) 20B, a first optical coupler 20C, a reference optical system 20D, a collimating lens 20E, and a second optical coupler 20F.
  • the light emitted from the light source 20A is split by the first optical coupler 20C.
  • One of the split beams is collimated by the collimating lens 20E and then enters the imaging optical system 19 as measurement light.
  • the measurement light passes through the wide-angle optical system 30 and the pupil 27 and illuminates the fundus.
  • the measurement light reflected by the fundus enters the OCT unit 20 via the wide-angle optical system 30, and enters the second optical coupler 20F via the collimating lens 20E and the first optical coupler 20C.
  • the other light emitted from the light source 20A and branched by the first optical coupler 20C enters the reference optical system 20D as reference light, passes through the reference optical system 20D, and enters the second optical coupler 20F. do.
  • the image processor 17 operating under the control of the image processor 206 generates OCT data detected by the sensor 20B. It is also possible for the image processor 17 to generate an OCT image such as a tomographic image or an en-face image based on the OCT data.
  • the OCT unit 20 can scan a predetermined range (for example, a rectangular range of 6 mm x 6 mm) in one OCT imaging.
  • the predetermined range is not limited to 6 mm x 6 mm, but may be a square range of 12 mm x 12 mm or 23 mm x 23 mm, or a rectangular range such as 14 mm x 9 mm, 6 mm x 3.5 mm, or any rectangular range. can. It may also be in a range of circular diameters such as 6 mm, 12 mm, and 23 mm in diameter.
  • the ophthalmologic apparatus 110 can scan the region 12A with an internal irradiation angle of 200°. That is, by controlling the optical scanner 22, OCT imaging of a predetermined range including vortex veins is performed. The ophthalmologic apparatus 110 can generate OCT data through the OCT imaging.
  • the ophthalmologic apparatus 110 can generate OCT images such as tomographic images (B-scan images) of the fundus including vortex veins, OCT volume data including vortex veins, and en-face images (OCT images) which are cross sections of the OCT volume data.
  • OCT images such as tomographic images (B-scan images) of the fundus including vortex veins, OCT volume data including vortex veins, and en-face images (OCT images) which are cross sections of the OCT volume data.
  • a frontal image generated based on the volume data can be generated.
  • the OCT image includes an OCT image of the central part of the fundus (the posterior pole part of the eyeball where the macula, the optic papilla, etc. are present).
  • the OCT data (or image data of an OCT image) is sent from the ophthalmologic apparatus 110 to the server 140 via the communication interface 16F and stored in the storage device 254.
  • the light source 20A exemplifies a wavelength sweep type SS-OCT (Swept-Source OCT). It may be an OCT system of any type.
  • SS-OCT Tin-Source OCT
  • the server 140 has a computer main body 252 .
  • the computer main body 252 has a CPU 262 , a RAM 266 , a ROM 264 and an input/output (I/O) port 268 .
  • Input/output (I/O) port 268 is connected to storage device 254 , display 256 , mouse 255 M, keyboard 255 K, and communication interface (I/F) 258 .
  • the storage device 254 is composed of, for example, a non-volatile memory.
  • Input/output (I/O) port 268 is connected to network 130 via communication interface (I/F) 258 . Accordingly, server 140 can communicate with ophthalmic device 110 and viewer 150 .
  • the image processing program shown in FIG. 6 is stored in the ROM 264 or the storage device 254.
  • the ROM 264 or storage device 254 is an example of the "memory" of the technology of the present disclosure.
  • the CPU 262 is an example of the “processor” of the technology of the present disclosure.
  • the image processing program is an example of the "program” of the technology of the present disclosure.
  • the server 140 stores each data received from the ophthalmologic apparatus 110 in the storage device 254 .
  • the image processing program has a display control function, an image processing function, and a processing function.
  • CPU 262 functions as display control unit 204 , image processing unit 206 , and processing unit 208 by executing image processing programs having these functions.
  • the CPU 262 of the server 140 executes the image processing program to implement the image processing (image processing method) shown in the flowchart of FIG.
  • the image processing unit 206 acquires OCT volume data including the choroid from the storage device 254 .
  • the image processing unit 206 extracts choroidal blood vessels based on the OCT volume data, and executes stereoscopic image generation processing (described later) for generating stereoscopic images (3D images) of vortex vein vessels.
  • step 6200 the processing unit 208 outputs the generated stereoscopic image (3D image) of the vortex vein blood vessel, specifically, stores it in the RAM 266 or the storage device 254, and ends the image processing.
  • the display control unit 204 Based on the user's instruction, the display control unit 204 generates a display screen containing a stereoscopic image of the vortex veins (examples of the display screen are shown in FIGS. 10 to 15, which will be described later).
  • the generated display screen is output to the viewer 150 by the processing unit 208 as an image signal.
  • a display screen appears on the viewer 150 display.
  • step 620 of FIG. 6, the image processing unit 206 extracts a region corresponding to the choroid from the OCT volume data 400 (see FIG. 8) acquired in step 6000, and performs OCT of the choroid part based on the extracted region. Extract (acquire) volume data.
  • OCT volume data 400 including vortex veins and choroidal blood vessels around the vortex veins will be described as an example of OCT volume data 400D.
  • the choroidal vessels refer to the vortex veins and the choroidal vessels surrounding the vortex veins.
  • the image processing unit 206 scans the OCT volume data so as to include the vortex veins and the choroidal vessels around the vortex veins.
  • OCT volume data 400 of the region where the choroidal vessels exist OCT volume data 400D of the region below the epithelial cell layer 400R (retinal pigment epithelium, hereinafter referred to as RPE layer) is extracted.
  • the image processing unit 206 first identifies the RPE layer 400R by performing image processing for identifying the boundary surface of each layer on the OCT volume data 400 . Also, the highest brightness layer in the OCT volume data may be identified as the RPE layer 400R.
  • the image processing unit 206 extracts pixel data of a choroid region in a predetermined range deeper than the RPE layer 400R (a predetermined range farther than the RPE layer when viewed from the center of the eyeball) as OCT volume data 400D. Since the OCT volume data of the deep region may not be uniform, the image processing unit 206, as shown in FIG. may be extracted as the OCT volume data 400D.
  • a region of the choroid of a predetermined range deeper than the RPE layer 400R is an example of a "choroid portion" of the technology of the present disclosure.
  • OCT volume data 400D for generating a stereoscopic image of choroidal blood vessels is extracted.
  • the image processing unit 206 performs noise removal processing, particularly speckle noise processing, as the first preprocessing for performing the first blood vessel extraction processing (linear blood vessel extraction) on the OCT volume data 400D.
  • noise removal processing particularly speckle noise processing
  • Speckle noise processing includes Gaussian blur processing and the like.
  • the image processing unit 206 performs the first blood vessel extraction processing (linear blood vessel extraction) on the OCT volume data 400D that has been subjected to the first preprocessing, thereby obtaining the OCT volume data 400D.
  • a first choroidal blood vessel which is a linear portion, is extracted from the . Thereby, a first stereoscopic image is generated.
  • a first blood vessel extraction process will be described.
  • the image processing unit 206 performs image processing using, for example, an eigenvalue filter, a Gabor filter, or the like, and extracts a linear blood vessel region from the OCT volume data 400D.
  • the blood vessel region is composed of low-luminance pixels (blackish pixels), and a region in which low-luminance pixels are continuous remains as the blood vessel portion.
  • the image processing unit 206 performs image processing such as processing for deleting isolated regions that are not connected to surrounding blood vessels, median filtering, opening processing, contraction processing, etc. for the extracted linear blood vessel region. to remove noise regions.
  • the image processing unit 206 performs binarization processing on the pixel data of the linear blood vessel region after the noise processing.
  • the linear blood vessel shown in FIG. 9 is an example of the "first choroidal blood vessel” of the technology of the present disclosure
  • the stereoscopic image 680L of the linear blood vessel is an example of the "first stereoscopic image” of the technology of the present disclosure. be.
  • step 650 the image processing unit 206 performs binarization processing on the OCT volume data 400D as second preprocessing for performing the second blood vessel extraction processing (ampullary part extraction) on the OCT volume data 400D.
  • the binarization threshold By setting the binarization threshold to a predetermined threshold value that leaves the enlarged blood vessel, the OCT volume data D has black pixels in the enlarged blood vessel and white pixels in the other portions.
  • the image processing unit 206 extracts the second choroidal blood vessel, which is the ampulla, from the OCT volume data by deleting the noise region in the binarized OCT volume data 400D. Thereby, a second stereoscopic image is generated.
  • the noise area may be an isolated area of black pixels or an area corresponding to a thin blood vessel.
  • the image processing unit 206 performs median filtering, opening processing, contraction processing, or the like on the binarized OCT volume data 400D to remove noise regions.
  • the image processing unit 206 further applies segmentation processing (such as dynamic contour, graph cut, or U-net image processing) may be applied.
  • segmentation refers to image processing that performs binarization processing for separating the background and foreground of an image to be analyzed.
  • the processing unit 208 saves the image data of the stereoscopic image 680B of the blood vessels in the ampulla in the RAM 266 .
  • the blood vessel in the ampulla shown in FIG. 9 is an example of the "second choroidal blood vessel" of the technology of the present disclosure
  • the stereoscopic image 680B of the blood vessel in the ampulla is the "second stereoscopic image” of the technology of the present disclosure. An example.
  • Either one of the processing of steps 630 and 640 and the processing of steps 650 and 660 may be performed first, or may proceed simultaneously.
  • step 670 the image processing unit 206 reads out from the RAM 266 the stereoscopic image 680L of linear blood vessels and the stereoscopic image 680B of the ampulla. Then, by aligning both stereoscopic images and calculating the logical sum of both images, the linear blood vessel stereoscopic image 680L and the ampulla stereoscopic image 680B are synthesized. As a result, a stereoscopic image 680M (see also FIG. 9) of choroidal blood vessels including vortex veins is generated.
  • the image data of the stereoscopic image 680M is stored in the RAM 266 or the storage device 254 by the processing unit 208.
  • the stereoscopic image 680M of the choroidal blood vessel including the vortex veins is an example of the "stereoscopic image of the choroidal blood vessel" of the technology of the present disclosure.
  • a display screen for displaying a three-dimensional image (3D image) of the choroidal blood vessels including the generated vortex veins will be described below.
  • the display screen is generated by the display control unit 204 of the server 140 based on the user's instruction, and output as an image signal to the viewer 150 by the processing unit 208 .
  • the viewer 150 displays the display screen on the display based on the image signal.
  • a first display screen 500A is shown in FIG. As shown in Figure 10, the first display screen 500A has an information area 502 and an image display area 504A.
  • the information area 502 has a patient ID display field 512, a patient name display field 514, an age display field 516, a visual acuity display field 518, a right/left eye display field 520, and an axial length display field 522.
  • viewer 150 displays respective information based on the information received from server 140 .
  • the image display area 504A is an area for displaying the image of the eye to be examined.
  • the image display area 504A is provided with the following display fields. There is an image display field 548 .
  • a comment field may be provided in the image display area 504A.
  • the comment field is a remark column in which the user, an ophthalmologist, can arbitrarily enter observation results or diagnosis results.
  • a UWF-SLO fundus image 542B obtained by photographing the fundus of the subject's eye with the ophthalmologic apparatus 110 is displayed.
  • a range 542A indicating the position where the OCT volume data was acquired is superimposed on the UWF-SLO fundus image 542B. If there are multiple pieces of OCT volume data associated with the UWF-SLO image, multiple ranges may be superimposed and the user may select one position from the multiple ranges.
  • FIG. 10 shows that the range including the upper right vortex vein of the UWF-SLO image was scanned.
  • the OCT volume data conceptual diagram display field 544 displays an OCT volume data conceptual diagram (stereoscopic shape) 544B.
  • OCT volume data conceptual diagram three-dimensional shape
  • the user designates a section 544A to be displayed using a mouse or the like in order to display a section image in the depth direction.
  • an enface image corresponding to the cross section 544A specified for the OCT volume data is generated and displayed in the tomographic image display field 546 as a tomographic image 546B.
  • a stereoscopic image (3D image) 548B of the choroidal blood vessel obtained by image processing the OCT volume data is displayed.
  • the stereoscopic image 548B can be rotated about three axes by user's operation.
  • a cross section 548A is superimposed and displayed at a position corresponding to the cross section 544A of the displayed tomographic image 546B.
  • a stereoscopic image of choroidal blood vessels can be recognized.
  • the vortex veins and the surrounding choroidal blood vessels can be displayed as a stereoscopic image, enabling the user to obtain more information for diagnosis.
  • the position of the OCT volume data on the UWF-SLO image can be grasped.
  • the cross section of the stereoscopic image can be arbitrarily selected, and the user can obtain detailed information on the choroidal blood vessels by displaying the tomographic image.
  • the choroidal blood vessels can be stereoscopically displayed without using OCT-A (OCT-angiography). It is possible to generate a stereoscopic image of choroidal blood vessels without performing complicated processing with a large amount of calculation, such as obtaining a motion contrast by taking a difference of OCT volume data.
  • OCT-A requires a plurality of OCT volume data at different times to obtain the difference, but in the present embodiment, choroidal blood vessels are detected based on one OCT volume data without performing motion contrast extraction processing. 3D image can be generated.
  • a second display screen 500B is shown in FIG. Since the second display screen 500B has the same fields as the fields of the first display screen 500A, the same fields are denoted by the same reference numerals and descriptions thereof are omitted, and different portions are described.
  • the display screen 500B has an information area 502 and an image display area 504B. Since the image display area 504B has the same fields as the image display area 504A, the same fields are denoted by the same reference numerals and description thereof is omitted, and different portions are described. Specifically, the image display area 504B differs in that it has an en-face image display field 550 instead of the tomographic image display field 546 of the image display area 504A.
  • the user specifies a section 544n to be displayed in order to display a section image (enface image) perpendicular to the depth direction.
  • an en-face image 550B corresponding to cross-section 544n is generated based on the OCT volume data.
  • the en-face image display field 550 displays an en-face image 550B corresponding to the cross section 544n.
  • the en-face image 550B displayed in the en-face image display field 550 includes the contours 550A of the first and second blood vessels extracted in steps 640 and 660 of FIG. 6 in color (eg, red). Highlighting such as displaying may be performed.
  • the position of the cross section 544n may be displayed numerically (in FIG. 11, the notation "nth layer").
  • a slice 548n corresponding to the slice 544n is displayed superimposed on the stereoscopic image 548B.
  • a stereoscopic (3D) image of the vortex vein at the selected vortex vein position can be recognized. Furthermore, the display screen 500B allows the perception of a stereoscopic image of the choroidal blood vessels. By scanning the area containing the vortex veins, the vortex veins and the surrounding choroidal blood vessels can be displayed as a stereoscopic image, enabling the user to obtain more information for diagnosis.
  • the enface plane of the stereoscopic image can be arbitrarily selected, and the user can obtain detailed information regarding the depth direction of the choroidal blood vessels by displaying the enface image.
  • a third display screen 500C is shown in FIG. Since the third display screen 500C has the same fields as the fields of the first display screen 500A, the same fields are denoted by the same reference numerals and descriptions thereof are omitted, and different portions are described.
  • a third display screen 500C has an information area 502 and an image display area 504C. Since the image display area 504C has the same fields as the image display area 504A, the same fields are denoted by the same reference numerals and description thereof is omitted, and different portions are described.
  • the image display area 504C differs from the display screens 500A and 500B in that it does not have the tomographic image display field 546 of the image display area 504A.
  • the image display area 504C has two OCT volumes for recognizing OCT volume data from two different angles (first angle and second angle). It differs in that it has data conceptual diagram display fields 544P and 544Q.
  • the OCT volume data conceptual diagram display field 544P displays a conceptual diagram 544PB showing the OCT volume data drawn at an angle of 45 degrees.
  • the OCT volume data conceptual diagram display field 544Q displays a conceptual diagram 544QB showing the OCT volume data drawn as viewed from directly above.
  • the OCT volume data conceptual diagram display fields 544P and 544Q can be designated at arbitrary angles by the user's operation.
  • a choroidal blood vessel stereoscopic image display field 548 in the image display area 504C is for displaying choroidal blood vessel stereoscopic images 548D1B and 548D2B viewed from two different angles specified in the OCT volume data conceptual diagram display fields 544P and 544Q. 3D image sections 548D1, 548D2 of choroidal vessels.
  • the two different angles may be preset directions or may be determined by AI. Note that the number is not limited to two, and may be three or more.
  • the stereoscopic images 548D1B and 548D2B of the choroidal blood vessels may be moved in any direction selected by the user individually or in conjunction with each other, or may be clicked to be enlarged and displayed in another window.
  • the image display area 504C of the third display screen 500C allows the user to check the stereoscopic image of the choroidal blood vessels from a plurality of different angles.
  • the vortex veins can be confirmed at an angle as seen from the scleral side.
  • a fourth display screen 500D is shown in FIG. Since the fourth display screen 500D has the same fields as the fields of the third display screen 500C, the same fields are denoted by the same reference numerals and descriptions thereof are omitted, and different portions are described.
  • a fourth display screen 500D has an information area 502 and an image display area 504D. Since the image display area 504D has the same fields as the image display area 504C, the same fields are denoted by the same reference numerals and description thereof is omitted, and different portions will be described.
  • FIG. 13 shows an example of synthesizing multiple OCT volume data and visualizing the choroidal blood vessels using the synthesized OCT volume data in order to visualize a wider range of choroidal blood vessels.
  • the acquired ranges of two adjacent OCT volume data that partially overlap are displayed as ranges 542K and 542L superimposed on the UWF-SLO image 542B.
  • the stereoscopic image display field 548 of the choroidal vessels in the image display area 504D has stereoscopic image display sections 548KL1 and 548KL2 for displaying stereoscopic images 548KL1B and 548KL2B obtained based on adjacent OCT volume data.
  • the two stereoscopic images 548K1B and 548L1B of the choroidal blood vessels are stereoscopic images viewed from two different angles designated by the OCT volume data conceptual diagram display fields 544P and 544Q, as in FIG.
  • a stereoscopic image of the choroidal blood vessels is created and displayed based on a plurality of adjacent OCT volume data. Therefore, a stereoscopic image of a wide range of choroidal blood vessels can be confirmed compared to a stereoscopic image of the choroidal blood vessels created based on one piece of OCT volume data.
  • the user can confirm stereoscopic images of a wide range of choroidal blood vessels from a plurality of different angles. In particular, in a stereoscopic image of a choroidal blood vessel including vortex veins, the vortex veins can be confirmed at an angle as seen from the scleral side.
  • a fifth display screen 500E is shown in FIG. Since the fifth display screen 500E has the same fields as the fields of the first display screen 500A, the same fields are denoted by the same reference numerals and descriptions thereof are omitted, and different portions are described.
  • a fifth display screen 500E has an information area 502 and an image display area 504E. Since the image display area 504E has the same fields as the image display area 504A, the same fields are denoted by the same reference numerals and description thereof is omitted, and different portions will be described.
  • the image display area 504E differs in that it does not have the tomographic image display field 544 and the tomographic image display field 546 of the image display area 504A. Further, the image display area 504E is different in that it has a stereoscopic image display field 548E of choroidal blood vessels suitable for follow-up, which will be described below, instead of the stereoscopic image display field 548 of the vortex veins of the image display area 504A.
  • the choroidal blood vessel stereoscopic image display field 548E is a field for displaying a plurality of choroidal blood vessel stereoscopic images in chronological order using OCT volumes obtained by imaging the fundus of the same subject at different timings.
  • the choroidal blood vessel stereoscopic image display field 548E has three stereoscopic image display sections 548E1, 548E2, and 548E3 in chronological order from the left of the photographing date of the fundus.
  • Stereo image display sections 548E1, 548E2, 548E3 have photographing date display portions 548D1, 548D2, 548D3 that display the photographing date of the fundus.
  • the stereoscopic image 548E1B obtained by photographing the fundus on March 12, 2021 is displayed in the stereoscopic image display section 548E1.
  • a stereoscopic image 548E2B obtained by photographing the fundus on June 15, 2021 is displayed in the stereoscopic image display section 548E2.
  • a stereoscopic image 548E3B obtained by photographing the fundus on September 12, 2021 is displayed in the stereoscopic image display section 548E3.
  • the stereoscopic image display field 548E is not limited to three, and two or three or more stereoscopic images may be displayed.
  • the choroidal blood vessel stereoscopic image display field 548E includes a return button 548R for giving an instruction to display a stereoscopic image photographed earlier than the currently displayed stereoscopic image of the vortex veins, and a return button 548R for giving an instruction to display a stereoscopic image photographed earlier than the currently displayed stereoscopic image. and a forward button 548F for giving an instruction to display a stereoscopic image with a newer date.
  • the return button 548R is pressed, a stereoscopic image with an older shooting date than the currently displayed stereoscopic image is displayed.
  • the forward button 548F is pressed, a stereoscopic image shot on a newer date than the currently displayed stereoscopic image is displayed.
  • stereoscopic images of a plurality of choroidal blood vessels of the subject can be displayed in chronological order. Therefore, the user can confirm temporal changes in the thickness of the vortex vein, for example, and can confirm the appropriate treatment method required at the present time.
  • a sixth display screen 500F is shown in FIG. As shown in Figure 15, the first display screen 500F has an information area 502F and an image display area 504F.
  • the information area 502F has patient information display fields 502P, 502Q, and 502R that display information on a plurality of, for example, three patients.
  • Each of the patient information display fields 502P, 502Q, 502R has a patient number display field, gender display field, age display field, right eye/left eye display field, vision display field, and disease name display field for the respective patient.
  • a patient to be displayed can be specified by the user specifying a patient ID on a patient specifying screen (not shown). For example, it is possible to specify patients with the same disease, or patients with the same gender and annual interest rate.
  • the display control unit 204 of the server 140 reads the stereoscopic image and UWF-SLO image corresponding to the designated patient ID, and generates the display screen 500F.
  • Image display area 504F includes image display fields 548P, 548Q, 548R corresponding to each patient in information area 502F.
  • the image display field 548P displays a patient number 542PA, a UWF-SLO image 542PB, and a stereoscopic image 548PB of choroidal blood vessels.
  • FIG. 15 shows an example in which the patient number 542PA, the UWF-SLO image 542PB, and the stereoscopic image 548PB of the choroidal blood vessels are displayed in this order from the bottom of the page. It would be nice to be able to change the display position.
  • an image display field 548P in addition to the patient number 542PA, the UWF-SLO image 542PB, and the stereoscopic image 548PB of the choroidal blood vessels, the attribute information of the patient that the user wants to compare and the fundus image of the same site (for example, around the optic papilla, (around the macula, etc.) may be displayed together.
  • an image display field 548Q displays a patient number 542QA, a UWF-SLO image 542QB, and a stereoscopic image 548QB of choroidal blood vessels.
  • a patient number 542RA, a UWF-SLO image 542RB, and a stereoscopic image 548RB of choroidal blood vessels are displayed in the image display field 548R.
  • the information area 502F is not limited to displaying images of the eyes of three patients, and images of the eyes of two or more patients can be displayed.
  • the sixth display screen 500F includes stereoscopic images of the choroidal vessels of each of a plurality of patients, the user can compare the stereoscopic images of the choroidal vessels of a plurality of patients without switching screens. .
  • the first display screen 500A to the sixth display screen 500F may be selectively displayed individually or may be displayed in order.
  • the choroidal blood vessels are extracted based on the OCT volume data including the choroid, and a stereoscopic image of the choroidal blood vessels is generated, so that the choroid can be stereoscopically visualized.
  • a stereoscopic image of choroidal blood vessels is generated based on OCT volume data without using OCT-A (OCT-angiography). Therefore, in the present embodiment, it is possible to generate a three-dimensional image of the choroidal blood vessels without performing complicated processing with a large amount of calculation, such as taking the difference of the OCT volume data and extracting the motion contrast, thereby reducing the calculation amount. can be done.
  • the image processing (FIG. 5) is executed by the server 140, but the technology of the present disclosure is not limited to this, and the ophthalmic apparatus 110, the viewer 150, or the additional It may be performed by the image processing device.
  • each component may exist either singly or two or more.
  • image processing may be performed only by a hardware configuration such as FPGA (Field-Programmable Gate Array) or ASIC (Application Specific Integrated Circuit).
  • FPGA Field-Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • the technology of the present disclosure includes the following technology, as it includes both cases in which image processing is realized by software configuration using a computer and cases in which it is not.
  • An image processing device comprising:
  • An acquisition unit (Second technology) an acquisition unit acquiring OCT volume data including the choroid; a generating unit extracting choroidal blood vessels based on the OCT volume data and generating a stereoscopic image of the choroidal blood vessels;
  • An image processing method including The image processing unit 206 is an example of the “acquisition unit” and the “generation unit” of the technology of the present disclosure. The following technique is proposed from the above disclosure.
  • a computer program product for image processing comprising:
  • the computer program product comprises a computer readable storage medium that is not itself a transitory signal;
  • the computer-readable storage medium stores a program, Said program to the computer, acquiring OCT volume data including the choroid; extracting choroidal blood vessels based on the OCT volume data and generating a stereoscopic image of the choroidal blood vessels; to run computer program product.
  • Server 140 is an example of a “computer program product” of the technology of the present disclosure.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

OCTボリュームデータに基づいて渦静脈の立体画像を生成すること。 プロセッサが行う画像処理方法であって、脈絡膜を含むOCTボリュームデータを取得するステップと、前記OCTボリュームデータに基づいて脈絡膜血管を抽出し、前記脈絡膜血管の立体画像を生成するステップと、を含む。

Description

画像処理方法、画像処理装置、及びプログラム
 本開示の技術は、画像処理方法、画像処理装置、及びプログラムに関する。
 米国特許第10238281号には、光干渉断層計を用いて被検眼のボリュームデータを生成する技術が開示されている。従来、被検眼のボリュームデータに基づいて血管を可視化することが望まれている。
 本開示の技術の第1の態様の画像処理方法は、プロセッサが行う画像処理方法であって、脈絡膜を含むOCTボリュームデータを取得するステップと、前記OCTボリュームデータに基づいて脈絡膜血管を抽出し、前記脈絡膜血管の立体画像を生成するステップと、を含む。
 本開示の技術の第2の態様の画像処理装置は、メモリと、前記メモリに接続するプロセッサとを備え、前記プロセッサは、脈絡膜を含むOCTボリュームデータを取得するステップと、前記OCTボリュームデータに基づいて脈絡膜血管を抽出し、前記脈絡膜血管の立体画像を生成するステップと、を実行する。
 本開示の技術の第3の態様のプログラムは、コンピュータに、脈絡膜を含むOCTボリュームデータを取得するステップと、前記OCTボリュームデータに基づいて脈絡膜血管を抽出し、前記脈絡膜血管の立体画像を生成するステップと、を実行させる。
本実施形態の眼科システムの概略構成図である。 本実施形態の眼科装置の概略構成図である。 サーバの概略構成図である。 サーバのCPUにおいて、画像処理プログラムによって実現される機能の説明図である。 サーバによる画像処理を示したフローチャートである。 図5のステップ6100の渦静脈の立体画像生成処理を示したフローチャートである。 眼球と渦静脈の位置との関係を示す模式図である。 OCTボリュームデータとen-face画像の関係を示す図である。 渦静脈の立体画像の概念図 渦静脈の立体画像を用いた表示画面の第1の例である。 渦静脈の立体画像を用いた表示画面の第2の例である。 渦静脈の立体画像を用いた表示画面の第3の例である。 渦静脈の立体画像を用いた表示画面の第4の例である。 渦静脈の立体画像を用いた表示画面の第5の例である。 渦静脈の立体画像を用いた表示画面の第6の例である。
 以下、本発明の実施形態に係る眼科システム100について図面を参照して説明する。図1には、眼科システム100の概略構成が示されている。図1に示すように、眼科システム100は、眼科装置110と、サーバ装置(以下、「サーバ」という)140と、表示装置(以下、「ビューワ」という)150と、を備えている。眼科装置110は、眼底画像を取得する。サーバ140は、眼科装置110によって複数の患者の眼底が撮影されることにより得られた複数の眼底画像と、図示しない眼軸長測定装置により測定された眼軸長とを、患者IDに対応して記憶する。ビューワ150は、サーバ140により取得した眼底画像や解析結果を表示する。
 サーバ140は、本開示の技術の「画像処理装置」の一例である。
 眼科装置110、サーバ140、ビューワ150は、ネットワーク130を介して、相互に接続されている。ネットワーク130は、LAN、WAN、インターネットや広域イーサ網等の任意のネットワークである。例えば、眼科システム100が1つの病院に構築される場合には、ネットワーク130にLANを採用することができる。
 ビューワ150は、クライアントサーバシステムにおけるクライアントであり、ネットワークを介して複数台が接続される。また、サーバ140も、システムの冗長性を担保するために、ネットワークを介して複数台が接続されていてもよい。又は、眼科装置110が画像処理機能及びビューワ150の画像閲覧機能を備えるのであれば、眼科装置110がスタンドアロン状態で、眼底画像の取得、画像処理及び画像閲覧が可能となる。また、サーバ140がビューワ150の画像閲覧機能を備えるのであれば、眼科装置110とサーバ140との構成で、眼底画像の取得、画像処理及び画像閲覧が可能となる。
 なお、他の眼科機器(視野測定、眼圧測定などの検査機器)やAI(Artificial Intelligence)を用いた画像解析を行う診断支援装置がネットワーク130を介して、眼科装置110、サーバ140、及びビューワ150に接続されていてもよい。
 次に、図2を参照して、眼科装置110の構成を説明する。
 説明の便宜上、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)を「SLO」と称する。また、光干渉断層計(Optical Coherence Tomography)を「OCT」と称する。
 なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、被検眼12の前眼部の瞳孔の中心と眼球の中心とを結ぶ方向を「Z方向」とする。従って、X方向、Y方向、およびZ方向は互いに垂直である。
 眼科装置110は、撮影装置14および制御装置16を含む。撮影装置14は、SLOユニット18およびOCTユニット20を備えており、被検眼12の眼底の眼底画像を取得する。以下、SLOユニット18により取得された二次元眼底画像をSLO画像と称する。また、OCTユニット20により取得されたOCTデータに基づいて作成された網膜の断層画像や正面画像(en-face画像)などをOCT画像と称する。
 制御装置16は、CPU(Central Processing Unit(中央処理装置))16A、RAM(Random Access Memory)16B、ROM(Read-Only memory)16C、および入出力(I/O)ポート16Dを有するコンピュータを備えている。
 制御装置16は、I/Oポート16Dを介してCPU16Aに接続された入力/表示装置16Eを備えている。入力/表示装置16Eは、被検眼12の画像を表示したり、ユーザから各種指示を受け付けたりするグラフィックユーザインターフェースを有する。グラフィックユーザインターフェースとしては、タッチパネル・ディスプレイが挙げられる。
 また、制御装置16は、I/Oポート16Dに接続された画像処理器17を備えている。画像処理器17は、撮影装置14によって得られたデータに基づき被検眼12の画像を生成する。なお、制御装置16は、通信インターフェース16Fを介してネットワーク130に接続される。
 上記のように、図2では、眼科装置110の制御装置16が入力/表示装置16Eを備えているが、本開示の技術はこれに限定されない。例えば、眼科装置110の制御装置16は入力/表示装置16Eを備えず、眼科装置110とは物理的に独立した別個の入力/表示装置を備えるようにしてもよい。この場合、当該表示装置は、制御装置16のCPU16Aの表示制御部204の制御下で動作する画像処理プロセッサユニットを備える。画像処理プロセッサユニットが、表示制御部204が出力指示した画像信号に基づいて、SLO画像等を表示するようにしてもよい。
 撮影装置14は、制御装置16のCPU16Aの制御下で作動する。撮影装置14は、SLOユニット18、撮影光学系19、およびOCTユニット20を含む。撮影光学系19は、光学スキャナ22、および広角光学系30を含む。
 光学スキャナ22は、SLOユニット18から射出された光をX方向、およびY方向に2次元走査する。光学スキャナ22は、光束を偏向できる光学素子であればよく、例えば、ポリゴンミラーや、ガルバノミラー等を用いることができる。また、それらの組み合わせであってもよい。
 広角光学系30は、SLOユニット18からの光とOCTユニット20からの光とを合成する。
 なお、広角光学系30は、楕円鏡などの凹面ミラーを用いた反射光学系や、広角レンズなどを用いた屈折光学系、あるいは、凹面ミラーやレンズを組み合わせた反射屈折光学系でもよい。楕円鏡や広角レンズなどを用いた広角光学系を用いることにより、眼底中心部だけでなく眼底周辺部の網膜を撮影することが可能となる。
 楕円鏡を含むシステムを用いる場合には、国際公開WO2016/103484あるいは国際公開WO2016/103489に記載された楕円鏡を用いたシステムを用いる構成でもよい。国際公開WO2016/103484の開示および国際公開WO2016/103489の開示の各々は、その全体が参照により本明細書に取り込まれる。
 広角光学系30によって、眼底において広い視野(FOV:Field of View)12Aでの観察が実現される。FOV12Aは、撮影装置14によって撮影可能な範囲を示している。FOV12Aは、視野角として表現され得る。視野角は、本実施形態において、内部照射角と外部照射角とで規定され得る。外部照射角とは、眼科装置110から被検眼12へ照射される光束の照射角を、瞳孔27を基準として規定した照射角である。また、内部照射角とは、眼底Fへ照射される光束の照射角を、眼球中心Oを基準として規定した照射角である。外部照射角と内部照射角とは、対応関係にある。例えば、外部照射角が120度の場合、内部照射角は約160度に相当する。本実施形態では、内部照射角は200度としている。
 ここで、内部照射角で160度以上の撮影画角で撮影されて得られたSLO眼底画像をUWF-SLO眼底画像と称する。なお、UWFとは、UltraWide Field(超広角)の略称を指す。眼底の視野角(FOV)を超広角な角度とした広角光学系30により、被検眼12の眼底の後極部から赤道部を超える領域を撮影することができ、渦静脈などの眼底周辺部に存在する構造物を撮影できる。
 眼科装置110は、被検眼12の眼球中心Oを基準位置として内部照射角が200°の領域12Aを撮影することができる。なお、200°の内部照射角は、被検眼12の眼球の瞳孔を基準とした外部照射角では110°である。つまり、広角光学系30は外部照射角110°の画角で瞳からレーザ光を照射させ、内部照射角で200°の眼底領域を撮影する。
 SLOシステムは、図2に示す制御装置16、SLOユニット18、および撮影光学系19によって実現される。SLOシステムは、広角光学系30を備えるため、広いFOV12Aでの眼底撮影を可能とする。
 SLOユニット18は、B光(青色光)の光源40、G光(緑色光)の光源42、R光(赤色光)の光源44、およびIR光(赤外線(例えば、近赤外光))の光源46と、光源40、42、44、46からの光を、反射又は透過して1つの光路に導く光学系48、50、52、54、56とを備えている。光学系48、56は、ミラーであり、光学系50、52、54は、ビームスプリッタ―である。B光は、光学系48で反射し、光学系50を透過し、光学系54で反射し、G光は、光学系50、54で反射し、R光は、光学系52、54を透過し、IR光は、光学系52、56で反射して、それぞれ1つの光路に導かれる。
 SLOユニット18は、R光およびG光を発するモードと、赤外線を発するモードなど、波長の異なるレーザ光を発する光源あるいは発光させる光源の組合せを切り替え可能に構成されている。図2に示す例では、B光の光源40、G光の光源42、R光の光源44、およびIR光の光源46の4つの光源を備えるが、本開示の技術は、これに限定されない。例えば、SLOユニット18は、更に、白色光の光源を更に備え、G光、R光、およびB光を発するモードや、白色光のみを発するモード等の種々のモードで光を発するようにしてもよい。
 SLOユニット18から撮影光学系19に入射された光は、光学スキャナ22によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、眼底に照射される。眼底により反射された反射光は、広角光学系30および光学スキャナ22を経由してSLOユニット18へ入射される。
 SLOユニット18は、被検眼12の後眼部(眼底)からの光の内、B光を反射し且つB光以外を透過するビームスプリッタ64、ビームスプリッタ64を透過した光の内、G光を反射し且つG光以外を透過するビームスプリッタ58を備えている。SLOユニット18は、ビームスプリッタ58を透過した光の内、R光を反射し且つR光以外を透過するビームスプリッタ60を備えている。SLOユニット18は、ビームスプリッタ60を透過した光の内、IR光を反射するビームスプリッタ62を備えている。SLOユニット18は、ビームスプリッタ64により反射したB光を検出するB光検出素子70、ビームスプリッタ58により反射したG光を検出するG光検出素子72、ビームスプリッタ60により反射したR光を検出するR光検出素子74、およびビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。
 広角光学系30および光学スキャナ22を経由してSLOユニット18へ入射された光(眼底により反射された反射光)は、B光の場合、ビームスプリッタ64で反射してB光検出素子70により受光され、G光の場合、ビームスプリッタ58で反射してG光検出素子72により受光される。上記入射された光は、R光の場合、ビームスプリッタ58を透過し、ビームスプリッタ60で反射してR光検出素子74により受光される。上記入射された光は、IR光の場合、ビームスプリッタ58、60を透過し、ビームスプリッタ62で反射してIR光検出素子76により受光される。CPU16Aの制御下で動作する画像処理器17は、B光検出素子70、G光検出素子72、R光検出素子74、およびIR光検出素子76で検出された信号を用いてUWF-SLO画像を生成する。
 B光検出素子70で検出された信号を用いて生成されたUWF-SLO画像をB-UWF-SLO画像(B色眼底画像)という。G光検出素子72で検出された信号を用いて生成されたUWF-SLO画像をG-UWF-SLO画像(G色眼底画像)という。R光検出素子74で検出された信号を用いて生成されたUWF-SLO画像をR-UWF-SLO画像(R色眼底画像)という。IR光検出素子76で検出された信号を用いて生成されたUWF-SLO画像をIR-UWF-SLO画像(IR眼底画像)という。UWF-SLO画像には、これらのR色眼底画像、G色眼底画像、B色眼底画像からIR眼底画像までが含まれる。また、蛍光を撮影した蛍光のUWF-SLO画像も含まれる。
 また、制御装置16が、同時に発光するように光源40、42、44を制御する。B光、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像、R色眼底画像、およびB色眼底画像が得られる。G色眼底画像、R色眼底画像、およびB色眼底画像からRGBカラー眼底画像が得られる。制御装置16が、同時に発光するように光源42、44を制御し、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像およびR色眼底画像が得られる。G色眼底画像およびR色眼底画像からRGカラー眼底画像が得られる。また、G色眼底画像、R色眼底画像及びB色眼底画像を用いてフルカラー眼底画像を生成するようにしてもよい。
 広角光学系30により、眼底の視野角(FOV:Field of View)を超広角な角度とし、被検眼12の眼底の後極部から赤道部を超える領域を撮影することができる。
 OCTシステムは、図2に示す制御装置16、OCTユニット20、および撮影光学系19によって実現される。OCTシステムは、広角光学系30を備えるため、上述したSLO眼底画像の撮影と同様に、眼底周辺部のOCT撮影を可能とする。つまり、眼底の視野角(FOV)を超広角な角度とした広角光学系30により、被検眼12の眼底の後極部から赤道部178を超える領域のOCT撮影を行うことができる。渦静脈などの眼底周辺部に存在する構造物のOCTデータを取得でき、渦静脈の断層像や、OCTデータを画像処理することにより渦静脈の3D構造を得ることができる。
 OCTユニット20は、光源20A、センサ(検出素子)20B、第一の光カプラ20C、参照光学系20D、コリメートレンズ20E、および第2の光カプラ20Fを含む。
 光源20Aから射出された光は、第一の光カプラ20Cで分岐される。分岐された一方の光は、測定光として、コリメートレンズ20Eで平行光にされた後、撮影光学系19に入射される。測定光は広角光学系30および瞳孔27を経由して、眼底に照射される。眼底により反射された測定光は、および広角光学系30を経由してOCTユニット20へ入射され、コリメートレンズ20Eおよび第一の光カプラ20Cを介して、第2の光カプラ20Fに入射する。
 光源20Aから射出され、第一の光カプラ20Cで分岐された他方の光は、参照光として、参照光学系20Dへ入射され、参照光学系20Dを経由して、第2の光カプラ20Fに入射する。
 第2の光カプラ20Fに入射されたこれらの光、即ち、眼底で反射された測定光と、参照光とは、第2の光カプラ20Fで干渉されて干渉光を生成する。干渉光はセンサ20Bで受光される。画像処理部206の制御下で動作する画像処理器17は、センサ20Bで検出されたOCTデータを生成する。当該OCTデータに基づいて断層画像やen-face画像などのOCT画像を画像処理器17で生成することも可能である。
 ここで、OCTユニット20は、所定範囲(例えば6mm×6mmの矩形範囲)を一回のOCT撮影で走査することができる。当該所定範囲は6mm×6mmに限らず、12mm×12mmや23mm×23mmの正方形の範囲でもよいし、14mm×9mm、6mm×3.5mmなど長方形の範囲でもよく、任意の矩形範囲とすることができる。また、直径6mm、12mm、23mmなどの円径の範囲であってもよい。
 広角光学系30を用いることにより、眼科装置110は、内部照射角が200°の領域12Aが走査対象とすることができる。つまり、光学スキャナ22を制御することにより、渦静脈を含む所定範囲のOCT撮影を行う。眼科装置110は、当該OCT撮影によってOCTデータを生成することが可能となる。
 よって、眼科装置110は、OCT画像である、渦静脈を含む眼底の断層画像(B-スキャン画像)、渦静脈を含むOCTボリュームデータや、当該OCTボリュームデータの断面であるen-face画像(OCTボリュームデータに基づいて生成された正面画像)を生成することができる。なお、OCT画像には、眼底中心部(黄斑や視神経乳頭などが存在する眼球の後極部)のOCT画像を含まれることは言うまでもない。
 OCTデータ(あるいはOCT画像の画像データ)は、通信インターフェース16Fを介して眼科装置110からサーバ140へ送付され、記憶装置254に記憶される。
 なお、本実施形態では、光源20Aが波長掃引タイプのSS-OCT(Swept-Source OCT)を例示するが、SD-OCT(Spectral-Domain OCT)、TD-OCT(Time-Domain OCT)など、様々な方式のOCTシステムであってもよい。
 次に、図3を参照して、サーバ140の電気系の構成を説明する。図3に示すように、サーバ140は、コンピュータ本体252を備えている。コンピュータ本体252は、CPU262、RAM266、ROM264、入出力(I/O)ポート268を有する。入出力(I/O)ポート268には、記憶装置254、ディスプレイ256、マウス255M、キーボード255K、および通信インターフェース(I/F)258が接続されている。記憶装置254は、例えば、不揮発メモリで構成される。入出力(I/O)ポート268は、通信インターフェース(I/F)258を介して、ネットワーク130に接続されている。従って、サーバ140は、眼科装置110、およびビューワ150と通信することができる。
 ROM264又は記憶装置254には、図6に示す画像処理プログラムが記憶されている。
 ROM264又は記憶装置254は、本開示の技術の「メモリ」の一例である。CPU262は、本開示の技術の「プロセッサ」の一例である。画像処理プログラムは、本開示の技術の「プログラム」の一例である。
 サーバ140は、眼科装置110から受信した各データを、記憶装置254に記憶する。
 サーバ140のCPU262が画像処理プログラムを実行することで実現される各種機能について説明する。図4に示すように、画像処理プログラムは、表示制御機能、画像処理機能、および処理機能を備えている。CPU262がこの各機能を有する画像処理プログラムを実行することで、CPU262は、表示制御部204、画像処理部206、および処理部208として機能する。
 次に、図5を用いて、サーバ140による画像処理のメインフローチャートを説明する。サーバ140のCPU262が画像処理プログラムを実行することで、図5のフローチャートに示された画像処理(画像処理方法)が実現される。
 まず、ステップ6000で、画像処理部206は、記憶装置254から脈絡膜を含むOCTボリュームデータを取得する。
 次のステップ6100で、画像処理部206は、前記OCTボリュームデータに基づいて脈絡膜血管を抽出し、渦静脈血管の立体画像(3D画像)を生成する立体画像生成処理(後述)を実行する。
 そして、ステップ6200で、処理部208は、生成された渦静脈血管の立体画像(3D画像)を出力、具体的には、RAM266あるいは記憶装置254に保存し、画像処理を終了する。
 ユーザの指示に基づき、渦静脈の立体画像を含むディスプレイ・スクリーン(後述する図10~図15に、ディスプレイ・スクリーンの例を示す)が表示制御部204により生成される。生成されたディスプレイ・スクリーンが画像信号として、処理部208により、ビューワ150に出力される。ビューワ150のディスプレイにディスプレイ・スクリーンが表示される。
 次に、ステップ6100の渦静脈の立体画像生成処理を、図6を用いて詳細に説明する。
 図6のステップ620で、画像処理部206は、ステップ6000で取得したOCTボリュームデータ400(図8を参照)から脈絡膜に相当する領域を抽出し、抽出された領域に基づいて、脈絡膜部分のOCTボリュームデータを抽出(取得)する。本実施の形態では、OCTボリュームデータ400Dとして、渦静脈と当該渦静脈の周辺の脈絡膜血管を含んだOCTボリュームデータ400を例に説明をする。この場合、脈絡膜血管は、渦静脈と当該渦静脈の周辺の脈絡膜血管を指す。
 具体的には、画像処理部206は、渦静脈と当該渦静脈の周辺の脈絡膜血管とを含むようにスキャンされたOCTボリュームデータから、脈絡膜血管が存在する領域のOCTボリュームデータ400において、網膜色素上皮細胞層400R(Retinal Pigment Epithelium、以下、RPE層と称する)から下の領域のOCTボリュームデータ400Dを抽出する。
 具体的には、まず、画像処理部206は、OCTボリュームデータ400に対し、各層の境界面を特定する画像処理を行うことによりRPE層400Rが特定される。また、OCTボリュームデータの中で最も高輝層をRPE層400Rとして、特定するようにしてもよい。
 そして、画像処理部206は、RPE層400Rより深い所定範囲の領域(眼球の中心から見てRPE層より遠い所定範囲の領域)の脈絡膜の領域の画素データを、OCTボリュームデータ400Dとして抽出する。深い領域のOCTボリュームデータは均一ではない場合もあるので、画像処理部206は、図8に示すようにRPE層400Rから、境界面を特定する上記画像処理で得られる底面400Eまでの間の領域を、OCTボリュームデータ400Dとして抽出してもよい。
 RPE層400Rより深い所定範囲の領域の脈絡膜の領域は、本開示の技術の「脈絡膜部分」の一例である。
 以上の処理により、脈絡膜血管の立体画像を生成するためのOCTボリュームデータ400Dが抽出される。
 ステップ630で、画像処理部206は、OCTボリュームデータ400Dに、第1の血管抽出処理(線状血管抽出)を行うための第一の前処理としてノイズ除去処理、とくにスペックルノイズ処理を施す。これは、スペックルノイズの影響を排除し、正しく血管形状を反映した線状血管抽出を行うための処理である。スペックルノイズ処理としては、ガウシアンぼかし処理などがあげられる。
 次のステップ640で、画像処理部206は、第一の前処理が施されたOCTボリュームデータ400Dに対して、第1の血管抽出処理(線状血管抽出)を施すことにより、OCTボリュームデータ400Dから線状部である第1の脈絡膜血管を抽出する。これにより、第1の立体画像が生成される。第1の血管抽出処理を説明する。
 画像処理部206は、例えば、固有値フィルター、ガボールフィルターなどを用いた画像処理を行い、OCTボリュームデータ400Dから、線状血管の領域を抽出する。OCTボリュームデータ400Dでは血管領域は低輝度の画素(黒っぽい画素)であり、低輝度の画素が連続している領域が血管部分として残ることになる。
 また、画像処理部206は、抽出された線状血管の領域に対して、周囲の血管とつながっていない孤立している領域を削除する処理や、メディアンフィルター、オープニング処理、収縮処理などの画像処理を行い、ノイズ領域を削除する。
 さらに、画像処理部206は、ノイズ処理の後の線状血管の領域の画素データに二値化処理を行う。
 以上説明した第1の血管抽出処理を行うことにより、OCTボリュームデータ400Dから線状血管の領域のみが残ることになり、図9に示す線状血管の立体画像680Lが生成される。線状血管の立体画像680Lの画像データは処理部208によりRAM266に保存される。
 図9に示す線状血管は、本開示の技術の「第1の脈絡膜血管」の一例であり、線状血管の立体画像680Lは、本開示の技術の「第1の立体画像」の一例である。
 ステップ650で、画像処理部206は、OCTボリュームデータ400Dに、第2の血管抽出処理(膨大部抽出)を行うための第二の前処理として、OCTボリュームデータ400D対して二値化処理を施す。二値化の閾値を、血管膨大部を残すような所定の閾値に設定することにより、OCTボリュームデータDは、血管膨大部が黒画素、それ以外の部分が白画素となる。
 そして、ステップ660で、画像処理部206は、二値化されたOCTボリュームデータ400Dにおいてノイズ領域を削除することにより、OCTボリュームデータから膨大部である第2の脈絡膜血管を抽出する。これにより、第2の立体画像が生成される。ノイズ領域は、黒画素の領域が孤立した領域であったり、細い血管に相当する領域であったりする。このようなノイズ領域を削除するために、画像処理部206は、メディアンフィルター、opening処理、又は、収縮処理などを二値化されたOCTボリュームデータ400Dに施し、ノイズ領域を削除する。
 ステップ660では、さらに、画像処理部206は、抽出した膨大部の表面平滑化のため、上記ノイズ領域が削除されたOCTボリュームデータに、セグメンテーション処理(動的輪郭、グラフカット、又はU-netなどの画像処理)を施してもよい。ここで言う『セグメンテーション』とは、解析を行う画像に対して背景と前景を分離する二価化処理を行う画像処理のことを指す。
 このような第2の血管抽出処理を行うことにより、OCTボリュームデータ400Dから膨大部の領域のみが残ることになり、図9に示す膨大部の血管の立体画像680Bが生成される。膨大部の血管の立体画像680Bの画像データは処理部208によりRAM266に保存される。 
 図9に示す膨大部の血管は、本開示の技術の「第2の脈絡膜血管」の一例であり、膨大部の血管の立体画像680Bは、本開示の技術の「第2の立体画像」の一例である。
 ステップ630、640の処理と、ステップ650、660の処理とは、何れか一方の処理を先に実行しても、同時に進めてもよい。
 ステップ630、640の処理と、ステップ650、660の処理とが完了すると、ステップ670で、画像処理部206は、線状血管の立体画像680Lと膨大部の立体画像680BとをRAM266から読み出す。そして、両方の立体画像の位置合わせを行い、両方の画像の論理和を演算することに、線状血管の立体画像680Lと膨大部の立体画像680Bとが合成される。これにより、渦静脈を含む脈絡膜血管の立体画像680M(図9も参照)が生成される。立体画像680Mの画像データは、処理部208によりRAM266や記憶装置254に保存される。
 渦静脈を含む脈絡膜血管の立体画像680Mは、本開示の技術の「脈絡膜血管の立体画像」の一例である。
 以下、生成された渦静脈を含む脈絡膜血管の立体画像(3D画像)を表示するためのディスプレイ・スクリーンについて説明する。当該ディスプレイ・スクリーンは、ユーザの指示に基づきサーバ140の表示制御部204により生成され、処理部208により、ビューワ150に画像信号として出力される。ビューワ150は、当該画像信号に基づき、ディスプレイ・スクリーンをディスプレイに表示する。
 図10には、第1のディスプレイ・スクリーン500Aが示されている。図10に示すように、第1のディスプレイ・スクリーン500Aは、インフォメーションエリア502と、イメージディスプレイエリア504Aとを有する。
 インフォメーションエリア502には、患者IDディスプレイフィールド512、患者名ディスプレイフィールド514、年齢ディスプレイフィールド516、視力ディスプレイフィールド518、右眼/左眼ディスプレイフィールド520、及び眼軸長ディスプレイフィールド522を有する。患者IDディスプレイフィールド512から眼軸長ディスプレイフィールド522の各表示領域には、ビューワ150が、サーバ140から受信した情報に基づいて、各々の情報を表示する。
 イメージディスプレイエリア504Aは、被検眼像等を表示する領域である。イメージディスプレイエリア504Aには、以下の各表示フィールドが設けられている、具体的には、UWF眼底画像表示フィールド542、OCTボリュームデータ概念図表示フィールド544、断層画像表示フィールド546、及び脈絡膜血管の立体画像表示フィールド548がある。
 イメージディスプレイエリア504Aに、コメントフィールドを設けてもよい。コメントフィールドは、ユーザである眼科医が観察した結果、又は診断結果を任意に入力できる備考欄である。
 UWF眼底画像表示フィールド542には、被検眼の眼底を眼科装置110で撮影したUWF-SLO眼底画像542Bが表示されている。UWF-SLO眼底画像542Bには、OCTボリュームデータを取得した位置を示す範囲542Aが重畳表示されている。当該UWF-SLO画像に関連付けられたOCTボリュームデータが複数存在する場合は、複数の範囲が重畳表示するようにし、ユーザは、複数の範囲から、1つの位置を選択するようにしてもよい。図10では、UWF-SLO画像の右上の渦静脈を含む範囲をスキャンしたことを示している。
 OCTボリュームデータ概念図表示フィールド544には、OCTボリュームデータ概念図(立体形状)544Bが表示される。ユーザは、OCTボリュームデータ概念図(立体形状)において、例えば、深さ方向の断面画像を表示するため、表示したい断面544Aを、マウス等より指定する。断面544Aが指定されると、OCTボリュームデータに対して指定された断面544Aに対応するenface画像を生成し、断層画像546Bとして、断層画像表示フィールド546に表示する。
 脈絡膜血管の立体画像表示フィールド548には、OCTボリュームデータを画像処理して得られた脈絡膜血管の立体画像(3D画像)548Bが表示される。当該立体画像548Bは、ユーザの操作により立体画像を3軸で回転できる。また、脈絡膜血管の立体画像548Bには、表示されている断層画像546Bの断面544Aに対応する位置に、断面548Aが重畳して表示される。
 第1のディスプレイ・スクリーン500Aのイメージディスプレイエリア504Aによれば、脈絡膜血管の立体画像を認識することができる。渦静脈を含む範囲をスキャンすれば、渦静脈とその周辺の脈絡膜血管を立体画像で表示することができ、ユーザは診断のためのより多くの情報を得ることが可能となる。
 また、イメージディスプレイエリア504Aによれば、UWF-SLO画像上のOCTボリュームデータの位置を把握することがきる。
 更に、イメージディスプレイエリア504Aによれば、立体画像の断面を任意に選択することができ、断層画像を表示させることにより、脈絡膜血管の詳細な情報をユーザは得ることができる。
 また、本実施形態による脈絡膜血管の立体表示では、OCT-A(OCT-アンジオグラフィー)を用いることなく、脈絡膜血管の立体表示を行うことができる。OCTボリュームデータの差分をとりモーションコントラストを得るような複雑な計算量の多い処理を行うことなく、脈絡膜血管の立体画像を生成することが可能となる。OCT-Aでは差分をとるために異なる時間で複数回のOCTボリュームデータを必要とするが、本実施の形態では、モーションコントラストの抽出処理を行うことなく、1つのOCTボリュームデータに基づいて脈絡膜血管の立体画像を生成することができる。
 図11には、第2のディスプレイ・スクリーン500Bが示されている。第2のディスプレイ・スクリーン500Bは、第1のディスプレイ・スクリーン500Aのフィールドと同じフィールドを有するので、同一のフィールドには同一の符号を付してその説明を省略し、異なる部分を説明する。
 ディスプレイ・スクリーン500Bは、インフォメーションエリア502と、イメージディスプレイエリア504Bとを有する。イメージディスプレイエリア504Bは、イメージディスプレイエリア504Aと同じフィールドを有するので、同一のフィールドには同一の符号を付してその説明を省略し、異なる部分を説明する。具体的には、イメージディスプレイエリア504Bは、イメージディスプレイエリア504Aの断層画像表示フィールド546に代えて、en-face画像表示フィールド550を有する点で異なる。
ユーザは、OCTボリュームデータ概念図544Bにおいて、例えば、深さ方向に垂直な断面画像(enface画像)を表示するため、表示したい断面544nを指定する。断面544nが指定されると、OCTボリュームデータに基づいて断面544nに対応するen-face画像550Bが生成される。
 en-face画像表示フィールド550には、断面544nに対応するen-face画像550Bが表示される。en-face画像表示フィールド550に表示されるen-face画像550Bには、図6のステップ640、660で抽出された第1の血管及び第2の血管の輪郭550Aをカラー(例えば、赤色)で表示するなどの強調表示を行ってもよい。また、断面544nの位置を数値で(図11では『n層目』という表記)表示するようにしてもよい。
 脈絡膜血管の立体画像表示フィールド548には、断面544nに対応する断面548nが立体画像548Bに重畳して表示される。
 第2のディスプレイ・スクリーン500Bのディスプレイ・スクリーン500Bによれば、選択された渦静脈の位置の渦静脈の立体(3D)画像を認識することができる。更に、ディスプレイ・スクリーン500Bによれば、脈絡膜血管の立体画像を認識することができる。渦静脈を含む範囲をスキャンすれば、渦静脈とその周辺の脈絡膜血管を立体画像で表示することができ、ユーザは診断のためのより多くの情報を得ることが可能となる。
 また、イメージディスプレイエリア504Bによれば、UWF-SLO画像上のOCTボリュームデータ位置を把握することがきる。
 更に、イメージディスプレイエリア504Bによれば、立体画像のenface面を任意に選択することができ、enface画像を表示させることにより、脈絡膜血管の深さ方向に関する詳細な情報をユーザは得ることができる。
 図12には、第3のディスプレイ・スクリーン500Cが示されている。第3のディスプレイ・スクリーン500Cは、第1のディスプレイ・スクリーン500Aのフィールドと同じフィールドを有するので、同一のフィールドには同一の符号を付してその説明を省略し、異なる部分を説明する。
 第3のディスプレイ・スクリーン500Cは、インフォメーションエリア502と、イメージディスプレイエリア504Cとを有する。イメージディスプレイエリア504Cは、イメージディスプレイエリア504Aと同じフィールドを有するので、同一のフィールドには同一の符号を付してその説明を省略し、異なる部分を説明する。
 具体的には、イメージディスプレイエリア504Cは、イメージディスプレイエリア504Aの断層画像表示フィールド546を有しない点でディスプレイ・スクリーン500Aや500Bとは異なる。
 また、イメージディスプレイエリア504Cは、OCTボリュームデータ概念図表示フィールド544に代えて、2つの異なる角度(第1の角度と第2の角度)からOCTボリュームデータを認識するための、2個のOCTボリュームデータ概念図表示フィールド544P,544Qを有する点で異なる。OCTボリュームデータ概念図表示フィールド544Pには、OCTボリュームデータを45度の角度傾けて描画したことを示す概念図544PBが表示される。OCTボリュームデータ概念図表示フィールド544Qには、OCTボリュームデータを真上から見た状態で描画したことを示す概念図544QBが表示される。OCTボリュームデータ概念図表示フィールド544P,544Qはユーザの操作により任意の角度に指定することができる。
 更に、イメージディスプレイエリア504Cの脈絡膜血管の立体画像表示フィールド548は、OCTボリュームデータ概念図表示フィールド544P,544Qで指定された2つの異なる角度から見た脈絡膜血管の立体画像548D1B、548D2Bを表示するための脈絡膜血管の立体画像セクション548D1、548D2を有する。
 2つの異なる角度(第1の角度と第2の角度)は、予め設定された方向でもよいし、AIで決めてもよい。なお、2つに限定されず、3つ以上でもよい。
脈絡膜血管の立体画像548D1B、548D2Bは、個別に又は連動して、ユーザが選択した任意な方向に動かしたり、クリックして別のウィンドウで拡大表示したり、してもよい。
 第3のディスプレイ・スクリーン500Cのイメージディスプレイエリア504Cによれば、複数の異なる角度から、脈絡膜血管の立体画像をユーザが確認することができる。特に、渦静脈を含む脈絡脈血管の立体画像では、渦静脈を強膜側から眺めるような角度で確認することができる。
 図13には、第4のディスプレイ・スクリーン500Dが示されている。第4のディスプレイ・スクリーン500Dは、第3のディスプレイ・スクリーン500Cのフィールドと同じフィールドを有するので、同一のフィールドには同一の符号を付してその説明を省略し、異なる部分を説明する。
 第4のディスプレイ・スクリーン500Dは、インフォメーションエリア502と、イメージディスプレイエリア504Dとを有する。イメージディスプレイエリア504Dは、イメージディスプレイエリア504Cと同じフィールドを有するので、同一のフィールドには同一の符号を付してその説明を省略し、異なる部分を説明する。
 より広い範囲の脈絡膜血管を可視化するため、複数のOCTボリュームデータを合成し、合成したOCTボリュームデータを用いて脈絡膜血管を可視化した例を図13に示す。UWF-SLO画像表示フィールド542には、一部が重なる、隣接した二つのOCTボリュームデータの取得した範囲が、範囲542K,542Lとして、UWF-SLO画像542B上に重畳して表示される。
 イメージディスプレイエリア504Dの脈絡膜血管の立体画像表示フィールド548には、隣接したOCTボリュームデータに基づいて得られた立体画像548KL1B、548KL2Bを表示するための立体画像表示セクション548KL1、548KL2を有する。脈絡膜血管の二つの立体画像548K1B、548L1Bは、図12と同様に、OCTボリュームデータ概念図表示フィールド544P,544Qで指定された2つの異なる角度から見た立体画像である。
 第4のディスプレイ・スクリーン500Dのイメージディスプレイエリア504Dによれば、隣接した複数のOCTボリュームデータに基づいて脈絡膜血管の立体画像を作成し、表示する。よって、1つのOCTボリュームデータに基づいて作成された脈絡膜血管の立体画像に比べて広範囲の脈絡膜血管の立体画像を確認することができる。また、複数の異なる角度から、広範囲の脈絡膜血管の立体画像をユーザが確認することができる。特に、渦静脈を含む脈絡脈血管の立体画像では、渦静脈を強膜側から眺めるような角度で確認することができる。
 図14には、第5のディスプレイ・スクリーン500Eが示されている。第5のディスプレイ・スクリーン500Eは、第1のディスプレイ・スクリーン500Aのフィールドと同じフィールドを有するので、同一のフィールドには同一の符号を付してその説明を省略し、異なる部分を説明する。
 第5のディスプレイ・スクリーン500Eは、インフォメーションエリア502と、イメージディスプレイエリア504Eとを有する。イメージディスプレイエリア504Eは、イメージディスプレイエリア504Aと同じフィールドを有するので、同一のフィールドには同一の符号を付してその説明を省略し、異なる部分を説明する。
 具体的には、イメージディスプレイエリア504Eは、イメージディスプレイエリア504Aの断層画像表示フィールド544及び断層画像表示フィールド546を有しない点で異なる。また、イメージディスプレイエリア504Eは、イメージディスプレイエリア504Aの渦静脈の立体画像表示フィールド548に代えて、以下に説明する経過観察に好適な脈絡膜血管の立体画像表示フィールド548Eを有する点で異なる。
 脈絡膜血管の立体画像表示フィールド548Eは、同一被検者の眼底を異なるタイミングで撮影して得られたOCTボリュームによる、複数の脈絡膜血管の立体画像を時系列に表示するフィールドである。
 図14に示す例では、具体的には、脈絡膜血管の立体画像表示フィールド548Eは、左から、眼底の撮影日が古い順に、3個の立体画像表示セクション548E1、548E2、548E3を有する。立体画像表示セクション548E1、548E2、548E3は、眼底の撮影日を表示する撮影日表示ポーション548D1、548D2、548D3を有する。具体的には、立体画像表示セクション548E1には、2021年3月12に眼底が撮影されて得られた立体画像548E1Bが表示されている。立体画像表示セクション548E2には、2021年6月15に眼底が撮影されて得られた立体画像548E2Bが表示されている。立体画像表示セクション548E3には、2021年9月12に眼底が撮影されて得られた立体画像548E3Bが表示されている。立体画像表示フィールド548Eには3個に限らず、2個、あるいは3個以上の立体画像を表示するようにしてもよい。
 脈絡膜血管の立体画像表示フィールド548Eは、現在表示されている渦静脈の立体画像よりも撮影日がより古い立体画像を表示させる指示を与える戻りボタン548Rと、現在表示されている立体画像よりも撮影日がより新しい立体画像を表示させる指示を与える進みボタン548Fとを有する。戻りボタン548Rが押された場合、現在表示されている立体画像よりも撮影日がより古い立体画像が表示される。進みボタン548Fが押されると、現在表示されている立体画像よりも撮影日がより新しい立体画像が表示される。
 第5のディスプレイ・スクリーン500Eによれば、被検者の複数の脈絡膜血管の立体画像を時系列順に表示することができる。よって、ユーザは、例えば渦静脈の太さの時間的な変化を確認でき、現時点で必要な適切な治療方法を確認することができる。
 図15には、第6のディスプレイ・スクリーン500Fが示されている。図15に示すように、第1のディスプレイ・スクリーン500Fは、インフォメーションエリア502Fと、イメージディスプレイエリア504Fとを有する。
 インフォメーションエリア502Fは、複数、例えば、3人の患者の情報を表示する患者情報表示フィールド502P、502Q、502Rを有する。患者情報表示フィールド502P、502Q、502Rのそれぞれは、それぞれの患者の患者番号ディスプレイフィールド、性別ディスプレイフィールド、年齢ディスプレイフィールド、右眼/左眼ディスプレイフィールド、視力ディスプレイフィールド、及び病名ディスプレイフィールドを有する。表示させたい患者は、図示せぬ患者特定画面でユーザが患者IDを特定することで、指定することができる。例えば、同一の疾患を有する患者を指定したり、性別や年利が同じ患者を指定したり、することができる。そして、指定された患者IDに対応する立体画像やUWF-SLO画像をサーバ140の表示制御部204が読み出し、ディスプレイ・スクリーン500Fを生成する。
 イメージディスプレイエリア504Fは、インフォメーションエリア502Fの各患者に対応して、画像表示フィールド548P、548Q、548Rを備える。画像表示フィールド548Pには、患者番号542PA、UWF-SLO画像542PB、及び脈絡膜血管の立体画像548PBが表示される。図15では紙面の下から、患者番号542PA、UWF-SLO画像542PB、及び脈絡膜血管の立体画像548PBの順番で表示される例を示したが、これに限らず、ユーザの設定により、各画像の表示位置を変更できるようにしてもうよい。また、画像表示フィールド548Pには、患者番号542PA、UWF-SLO画像542PB、及び脈絡膜血管の立体画像548PBのほかに、ユーザが比較したい患者の属性情報や同一部位の眼底画像(例えば視神経乳頭周辺、黄斑周辺など)を合わせ表示するようにしてもよい。
 同様に、画像表示フィールド548Qには、患者番号542QA、UWF-SLO画像542QB、及び脈絡膜血管の立体画像548QBが表示される。画像表示フィールド548Rには、患者番号542RA、UWF-SLO画像542RB、及び脈絡膜血管の立体画像548RBが表示される。
 なお、インフォメーションエリア502Fには3人の患者の被検眼の画像に限らず、2人や3人以上の被検眼の画像を表示することができる。
 第6のディスプレイ・スクリーン500Fによれば、複数の患者の各々の脈絡膜血管の立体画像を含むので、ユーザは画面を切り替えることがなく、複数の患者の脈絡膜血管の立体画像を比較することができる。
 第1のディスプレイ・スクリーン500Aから第6のディスプレイ・スクリーン500Fを、個別に選択的に表示してもよく、また、順に表示してもよい。
 以上説明したように本実施の形態では、脈絡膜を含むOCTボリュームデータに基づいて脈絡膜血管を抽出し、脈絡膜血管の立体画像を生成するので、脈絡膜を立体的に可視化することが可能となる。
 また、本実施の形態では、OCTボリュームデータに基づいて、OCT-A(OCT-アンジオグラフィー)を用いることなく、脈絡膜血管の立体画像を生成する。よって、本実施の形態では、OCTボリュームデータの差分をとりモーションコントラストを抽出する複雑な計算量の多い処理を行うことなく、脈絡膜血管の立体画像を生成することができ、計算量を減少させることができる。
 上記実施の形態では、画像処理(図5)は、サーバ140が実行しているが、本開示の技術はこれに限定されず、眼科装置110、ビューワ150、又は、ネットワーク130に更に設けた追加画像処理装置が実行してもよい。
 本開示において、各構成要素(装置等)は、矛盾が生じない限りは、1つのみ存在しても2つ以上存在してもよい。
 以上説明した各例では、コンピュータを利用したソフトウェア構成により画像処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA(Field-Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)等のハードウェア構成のみによって、画像処理が実行されるようにしてもよい。画像処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。
 このように本開示の技術は、コンピュータを利用したソフトウェア構成により画像処理が実現される場合とされない場合とを含むので、以下の技術を含む。
(第1の技術)
 脈絡膜を含むOCTボリュームデータを取得する取得部と、
 前記OCTボリュームデータに基づいて脈絡膜血管を抽出し、前記脈絡膜血管の立体画像を生成する生成部と、
 を備える画像処理装置。
(第2の技術)
 取得部が、脈絡膜を含むOCTボリュームデータを取得するステップと、
 生成部が、前記OCTボリュームデータに基づいて脈絡膜血管を抽出し、前記脈絡膜血管の立体画像を生成するステップと、
 を含む画像処理方法。
 画像処理部206は、本開示の技術の「取得部」及び「生成部」の一例である。
 以上の開示内容から以下の技術が提案される。
(第3の技術)
 画像処理するためのコンピュータープログラム製品であって、
 前記コンピュータープログラム製品は、それ自体が一時的な信号ではないコンピュータ可読記憶媒体を備え、
 前記コンピュータ可読記憶媒体には、プログラムが格納されており、
 前記プログラムは、
 コンピュータに、
 脈絡膜を含むOCTボリュームデータを取得するステップと、
 前記OCTボリュームデータに基づいて脈絡膜血管を抽出し、前記脈絡膜血管の立体画像を生成するステップと、
 を実行させる、
 コンピュータープログラム製品。
 サーバ140は、本開示の技術の「コンピュータープログラム製品」の一例である。
 以上説明した各画像処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的にかつ個々に記載された場合と同様に、本明細書中に参照により取り込まれる。
 また、2021年2月22日に出願された日本国特許出願2021-026196号の開示は、その全体が参照により本明細書に取り込まれる。

Claims (6)

  1.  プロセッサが行う画像処理方法であって、
     脈絡膜を含むOCTボリュームデータを取得するステップと、
     前記OCTボリュームデータに基づいて脈絡膜血管を抽出し、前記脈絡膜血管の立体画像を生成するステップと、
     を含む、画像処理方法。
  2.  前記OCTボリュームデータは、眼底の少なくとも渦静脈を含む領域をスキャンして得られることを特徴とする、請求項1に記載の画像処理方法。
  3.  前記脈絡膜血管の立体画像を生成するステップは、
     前記OCTボリュームデータから線状部である第1の脈絡膜血管を抽出することにより、第1の立体画像を生成するステップと、
     前記OCTボリュームデータから膨大部である第2の脈絡膜血管を抽出することにより、第2の立体画像を生成するステップと、
     前記第1の立体画像と前記第2の立体画像を合成することにより、前記脈絡膜血管の立体画像を生成するステップと、
     含む、請求項1または請求項2に記載の画像処理方法。
  4.  前記OCTボリュームデータから前記脈絡膜部分の脈絡膜OCTボリュームデータを抽出するステップをさらに有し、
     前記立体画像を生成するステップは、前記脈絡膜OCTボリュームデータに基づいて前記立体画像を生成する、ことを特徴とする請求項1ないし3に記載の画像処理方法。
  5.  メモリと、前記メモリに接続するプロセッサとを備え、
     前記プロセッサは、
     脈絡膜を含むOCTボリュームデータを取得するステップと、
     前記OCTボリュームデータに基づいて脈絡膜血管を抽出し、前記脈絡膜血管の立体画像を生成するステップと、
     を実行する、画像処理装置。
  6.  コンピュータに、
     脈絡膜を含むOCTボリュームデータを取得するステップと、
     前記OCTボリュームデータに基づいて脈絡膜血管を抽出し、前記脈絡膜血管の立体画像を生成するステップと、
     を実行させるプログラム。
PCT/JP2022/007393 2021-02-22 2022-02-22 画像処理方法、画像処理装置、及びプログラム WO2022177028A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/278,128 US20240153203A1 (en) 2021-02-22 2022-02-22 Image processing method, image processing device, and program
JP2023500975A JPWO2022177028A1 (ja) 2021-02-22 2022-02-22

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-026196 2021-02-22
JP2021026196 2021-02-22

Publications (1)

Publication Number Publication Date
WO2022177028A1 true WO2022177028A1 (ja) 2022-08-25

Family

ID=82932269

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/007393 WO2022177028A1 (ja) 2021-02-22 2022-02-22 画像処理方法、画像処理装置、及びプログラム

Country Status (3)

Country Link
US (1) US20240153203A1 (ja)
JP (1) JPWO2022177028A1 (ja)
WO (1) WO2022177028A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012071043A (ja) * 2010-09-29 2012-04-12 Canon Inc 情報処理装置、その表示処理方法及びプログラム
JP2015000131A (ja) * 2013-06-13 2015-01-05 国立大学法人 筑波大学 脈絡膜の血管網を選択的に可視化し解析する光干渉断層計装置及びその画像処理プログラム
CN108416793A (zh) * 2018-01-16 2018-08-17 武汉诺影云科技有限公司 基于三维相干断层成像图像的脉络膜血管分割方法及系统
WO2019203309A1 (ja) * 2018-04-18 2019-10-24 株式会社ニコン 画像処理方法、プログラム、画像処理装置、及び眼科システム
JP2020058627A (ja) * 2018-10-10 2020-04-16 株式会社ニコン 画像処理方法、画像処理装置、画像処理プログラム、及び血管径算出装置
JP2020058647A (ja) * 2018-10-11 2020-04-16 株式会社ニコン 画像処理方法、画像処理装置、及び画像処理プログラム
JP2021167802A (ja) * 2020-04-10 2021-10-21 株式会社トプコン 光コヒーレンストモグラフィ画像を用いた3次元解析
JP2021168759A (ja) * 2020-04-14 2021-10-28 株式会社ニコン 画像処理方法、画像処理装置、及び画像処理プログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012071043A (ja) * 2010-09-29 2012-04-12 Canon Inc 情報処理装置、その表示処理方法及びプログラム
JP2015000131A (ja) * 2013-06-13 2015-01-05 国立大学法人 筑波大学 脈絡膜の血管網を選択的に可視化し解析する光干渉断層計装置及びその画像処理プログラム
CN108416793A (zh) * 2018-01-16 2018-08-17 武汉诺影云科技有限公司 基于三维相干断层成像图像的脉络膜血管分割方法及系统
WO2019203309A1 (ja) * 2018-04-18 2019-10-24 株式会社ニコン 画像処理方法、プログラム、画像処理装置、及び眼科システム
JP2020058627A (ja) * 2018-10-10 2020-04-16 株式会社ニコン 画像処理方法、画像処理装置、画像処理プログラム、及び血管径算出装置
JP2020058647A (ja) * 2018-10-11 2020-04-16 株式会社ニコン 画像処理方法、画像処理装置、及び画像処理プログラム
JP2021167802A (ja) * 2020-04-10 2021-10-21 株式会社トプコン 光コヒーレンストモグラフィ画像を用いた3次元解析
JP2021168759A (ja) * 2020-04-14 2021-10-28 株式会社ニコン 画像処理方法、画像処理装置、及び画像処理プログラム

Also Published As

Publication number Publication date
JPWO2022177028A1 (ja) 2022-08-25
US20240153203A1 (en) 2024-05-09

Similar Documents

Publication Publication Date Title
US10561311B2 (en) Ophthalmic imaging apparatus and ophthalmic information processing apparatus
JP2023009530A (ja) 画像処理方法、画像処理装置、及びプログラム
JP7441783B2 (ja) 画像処理方法、プログラム、眼科装置、及び脈絡膜血管画像生成方法
JP2022040372A (ja) 眼科装置
JP7134324B2 (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP2022109721A (ja) 画像処理方法、画像処理装置、及びプログラム
JP2024105697A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2021074960A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP6736734B2 (ja) 眼科撮影装置及び眼科情報処理装置
JP2023030184A (ja) 画像処理方法、プログラム、画像処理装置、及び眼科システム
WO2022177028A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP7419946B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7286283B2 (ja) 眼科装置
JP2022089086A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2023199847A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2022181729A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7306482B2 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2023282339A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び眼科装置
WO2023199848A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP7272453B2 (ja) 画像処理方法、画像処理装置、およびプログラム
WO2022113409A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2021210295A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP7416083B2 (ja) 画像処理方法、画像処理装置、およびプログラム
WO2021210281A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2023066198A (ja) 情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22756345

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18278128

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2023500975

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22756345

Country of ref document: EP

Kind code of ref document: A1