WO2021210295A1 - 画像処理方法、画像処理装置、及びプログラム - Google Patents

画像処理方法、画像処理装置、及びプログラム Download PDF

Info

Publication number
WO2021210295A1
WO2021210295A1 PCT/JP2021/009001 JP2021009001W WO2021210295A1 WO 2021210295 A1 WO2021210295 A1 WO 2021210295A1 JP 2021009001 W JP2021009001 W JP 2021009001W WO 2021210295 A1 WO2021210295 A1 WO 2021210295A1
Authority
WO
WIPO (PCT)
Prior art keywords
blood vessel
image
image processing
choroidal
choroidal blood
Prior art date
Application number
PCT/JP2021/009001
Other languages
English (en)
French (fr)
Inventor
真梨子 廣川
泰士 田邉
吉田 隆彦
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2022515242A priority Critical patent/JPWO2021210295A1/ja
Priority to US17/919,037 priority patent/US20230237684A1/en
Publication of WO2021210295A1 publication Critical patent/WO2021210295A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0033Operational features thereof characterised by user input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • the technology of the present disclosure relates to an image processing method, an image processing device, and a program.
  • a first aspect of the technique of the present disclosure is image processing performed by a processor, which relates to a step of acquiring a choroidal blood vessel image, a step of detecting a choroidal vein position from the choroidal blood vessel image, and the vortex vein position. It includes a step of identifying a choroidal blood vessel and a step of determining the size of the choroidal blood vessel.
  • the image processing apparatus of the second aspect of the technique of the present disclosure includes a memory and a processor connected to the memory, and the processor obtains a step of acquiring a choroidal blood vessel image and a vortex vein position from the choroidal blood vessel image.
  • the detection step, the step of identifying the choroidal blood vessel related to the vortex vein position, and the step of determining the size of the choroidal blood vessel are executed.
  • the program of the third aspect of the technique of the present disclosure allows a computer to obtain a choroidal blood vessel image, detect a choroidal blood vessel position from the choroidal blood vessel image, and identify a choroidal blood vessel related to the choroidal blood vessel position. And the step of determining the size of the choroidal blood vessel are executed.
  • FIG. 1 shows a schematic configuration of an ophthalmic system 100.
  • the ophthalmology system 100 includes an ophthalmology device 110, a server device (hereinafter referred to as “server”) 140, and a display device (hereinafter referred to as “viewer”) 150.
  • the ophthalmic apparatus 110 acquires a fundus image.
  • the server 140 corresponds to a patient ID with a plurality of fundus images obtained by photographing the fundus of a plurality of patients by the ophthalmic apparatus 110 and an axial length measured by an axial length measuring device (not shown). And remember.
  • the viewer 150 displays the fundus image and the analysis result acquired by the server 140.
  • the server 140 is an example of the "image processing device" of the technology of the present disclosure.
  • the ophthalmic apparatus 110, the server 140, and the viewer 150 are connected to each other via the network 130.
  • the viewer 150 is a client in a client-server system, and a plurality of viewers 150 are connected via a network. Further, a plurality of servers 140 may be connected via a network in order to ensure system redundancy.
  • the ophthalmic apparatus 110 has an image processing function and an image viewing function of the viewer 150, the ophthalmologic apparatus 110 can acquire a fundus image, perform image processing, and view an image in a stand-alone state.
  • the server 140 is provided with the image viewing function of the viewer 150, the ophthalmic apparatus 110 and the server 140 can be configured to acquire a fundus image, process an image, and view an image.
  • a diagnostic support device that performs image analysis using other ophthalmic devices (inspection devices such as visual field measurement and intraocular pressure measurement) and AI (Artificial Intelligence) is connected to the ophthalmic device 110, the server 140, and the viewer via the network 130. It may be connected to 150.
  • ophthalmic devices inspection devices such as visual field measurement and intraocular pressure measurement
  • AI Artificial Intelligence
  • SLO scanning laser ophthalmoscope
  • OCT optical coherence tomography
  • the horizontal direction is the "X direction” and the direction perpendicular to the horizontal plane is the "Y direction", connecting the center of the pupil of the anterior segment of the eye 12 to be connected to the center of the eyeball.
  • the direction is "Z direction”. Therefore, the X, Y, and Z directions are perpendicular to each other.
  • the ophthalmic device 110 includes a photographing device 14 and a control device 16.
  • the imaging device 14 includes an SLO unit 18 and an OCT unit 20 to acquire a fundus image of the fundus of the eye to be inspected 12.
  • the two-dimensional fundus image acquired by the SLO unit 18 is referred to as an SLO image.
  • a tomographic image of the retina, an frontal image (en-face image), or the like created based on the OCT data acquired by the OCT unit 20 is referred to as an OCT image.
  • the control device 16 includes a computer having a CPU (Central Processing Unit) 16A, a RAM (Random Access Memory) 16B, a ROM (Read-Only memory) 16C, and an input / output (I / O) port 16D. ing.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read-Only memory
  • I / O input / output
  • the control device 16 includes an input / display device 16E connected to the CPU 16A via the I / O port 16D.
  • the input / display device 16E has a graphic user interface for displaying an image of the eye 12 to be inspected and receiving various instructions from the user.
  • the graphic user interface includes a touch panel display.
  • control device 16 includes an image processing device 17 connected to the I / O port 16D.
  • the image processing device 17 generates an image of the eye to be inspected 12 based on the data obtained by the photographing device 14.
  • the control device 16 is connected to the network 130 via the communication interface 16F.
  • the control device 16 of the ophthalmic device 110 includes the input / display device 16E, but the technique of the present disclosure is not limited to this.
  • the control device 16 of the ophthalmic apparatus 110 may not include the input / display device 16E, but may include an input / display device that is physically independent of the ophthalmic apparatus 110.
  • the display device includes an image processing processor unit that operates under the control of the display control unit 204 of the CPU 16A of the control device 16.
  • the image processing processor unit may display an SLO image or the like based on the image signal output instructed by the display control unit 204.
  • the photographing device 14 operates under the control of the CPU 16A of the control device 16.
  • the photographing apparatus 14 includes an SLO unit 18, a photographing optical system 19, and an OCT unit 20.
  • the photographing optical system 19 includes an optical scanner 22 and a wide-angle optical system 30.
  • the optical scanner 22 two-dimensionally scans the light emitted from the SLO unit 18 in the X direction and the Y direction.
  • the optical scanner 22 may be any optical element capable of deflecting the luminous flux, and for example, a polygon mirror, a galvano mirror, or the like can be used. Moreover, it may be a combination thereof.
  • the wide-angle optical system 30 synthesizes the light from the SLO unit 18 and the light from the OCT unit 20.
  • the wide-angle optical system 30 may be a catadioptric system using a concave mirror such as an elliptical mirror, a catadioptric system using a wide-angle lens or the like, or a catadioptric system combining a concave mirror and a lens.
  • a wide-angle optical system using an elliptical mirror or a wide-angle lens it is possible to photograph the retina not only in the central part of the fundus but also in the peripheral part of the fundus.
  • the wide-angle optical system 30 enables observation in the fundus with a wide field of view (FOV: Field of View) 12A.
  • the FOV 12A indicates a range that can be photographed by the photographing device 14.
  • FOV12A can be expressed as a viewing angle.
  • the viewing angle can be defined by an internal irradiation angle and an external irradiation angle in the present embodiment.
  • the external irradiation angle is an irradiation angle in which the irradiation angle of the light flux emitted from the ophthalmic apparatus 110 to the eye 12 to be inspected is defined with reference to the pupil 27.
  • the internal irradiation angle is an irradiation angle in which the irradiation angle of the light flux irradiated to the fundus F is defined with reference to the center O of the eyeball.
  • the external irradiation angle and the internal irradiation angle have a corresponding relationship. For example, when the external irradiation angle is 120 degrees, the internal irradiation angle corresponds to about 160 degrees. In this embodiment, the internal irradiation angle is 200 degrees.
  • UWF-SLO fundus image obtained by taking a picture with an internal irradiation angle of 160 degrees or more
  • UWF is an abbreviation for Ultra Wide Field (ultra-wide-angle).
  • FOV viewing angle
  • the SLO system is realized by the control device 16, the SLO unit 18, and the photographing optical system 19 shown in FIG. Since the SLO system includes a wide-angle optical system 30, it enables fundus photography with a wide FOV12A.
  • the SLO unit 18 includes a B light (blue light) light source 40, a G light (green light) light source 42, an R light (red light) light source 44, and an IR light (infrared light (for example, near infrared light)). It includes a light source 46 and optical systems 48, 50, 52, 54, 56 that reflect or transmit light from light sources 40, 42, 44, 46 and guide them into one optical path.
  • the optical systems 48 and 56 are mirrors, and the optical systems 50, 52 and 54 are beam splitters.
  • B light is reflected by the optical system 48, is transmitted through the optical system 50, is reflected by the optical system 54, G light is reflected by the optical systems 50 and 54, and R light is transmitted through the optical systems 52 and 54.
  • IR light is reflected by the optical systems 52 and 56 and guided to one optical path, respectively.
  • the SLO unit 18 is configured to be able to switch a combination of a light source that emits laser light having a different wavelength or a light source that emits light, such as a mode that emits R light and G light and a mode that emits infrared light.
  • a light source that emits laser light having a different wavelength or a light source that emits light such as a mode that emits R light and G light and a mode that emits infrared light.
  • the example shown in FIG. 2 includes four light sources: a B light source 40, a G light source 42, an R light source 44, and an IR light source 46, but the technique of the present disclosure is not limited thereto.
  • the SLO unit 18 is further provided with a light source of white light, and may emit light in various modes such as a mode of emitting G light, R light, and B light, and a mode of emitting only white light. good.
  • the light incident on the photographing optical system 19 from the SLO unit 18 is scanned in the X direction and the Y direction by the optical scanner 22.
  • the scanning light is applied to the fundus through the wide-angle optical system 30 and the pupil 27.
  • the reflected light reflected by the fundus is incident on the SLO unit 18 via the wide-angle optical system 30 and the optical scanner 22.
  • the SLO unit 18 transmits G light among the light from the rear eye portion (fundus) of the eye 12 to be examined, the beam splitter 64 that reflects the B light and transmits other than the B light, and the light that has passed through the beam splitter 64.
  • a beam splitter 58 that reflects and transmits other than G light is provided.
  • the SLO unit 18 includes a beam splitter 60 that reflects R light and transmits other than R light among the light transmitted through the beam splitter 58.
  • the SLO unit 18 includes a beam splitter 62 that reflects IR light among the light transmitted through the beam splitter 60.
  • the SLO unit 18 detects the B light detection element 70 that detects the B light reflected by the beam splitter 64, the G light detection element 72 that detects the G light reflected by the beam splitter 58, and the R light reflected by the beam splitter 60.
  • the R light detection element 74 and the IR light detection element 76 that detects the IR light reflected by the beam splitter 62 are provided.
  • the light incident on the SLO unit 18 via the wide-angle optical system 30 and the optical scanner 22 (reflected light reflected by the fundus of the eye) is reflected by the beam splitter 64 and received by the B light detection element 70.
  • the beam splitter 58 In the case of G light, it is reflected by the beam splitter 58 and received by the G light detection element 72.
  • the incident light passes through the beam splitter 58, is reflected by the beam splitter 60, and is received by the R photodetection element 74.
  • the incident light passes through the beam splitters 58 and 60, is reflected by the beam splitter 62, and is received by the IR photodetection element 76.
  • the image processing device 17 operating under the control of the CPU 16A uses the signals detected by the B photodetection element 70, the G photodetection element 72, the R photodetection element 74, and the IR photodetection element 76 to produce a UWF-SLO image. Generate.
  • control device 16 controls the light sources 40, 42, and 44 so as to emit light at the same time.
  • a G color fundus image, an R color fundus image, and a B color fundus image in which the positions correspond to each other can be obtained.
  • An RGB color fundus image can be obtained from the G color fundus image, the R color fundus image, and the B color fundus image.
  • the control device 16 controls the light sources 42 and 44 so as to emit light at the same time, and the fundus of the eye to be inspected 12 is simultaneously photographed by the G light and the R light.
  • a fundus image can be obtained.
  • An RG color fundus image can be obtained from the G color fundus image and the R color fundus image.
  • the viewing angle (FOV: Field of View) of the fundus can be set to an ultra-wide angle, and a region beyond the equator from the posterior pole of the fundus of the eye 12 to be inspected can be photographed.
  • the equator portion 178 will be described with reference to FIG. 5A.
  • the eyeball (eye 12 to be inspected) is a spherical structure having an eyeball center 170 having a diameter of about 24 mm.
  • the straight line connecting the front pole 175 and the rear pole 176 is called the eyeball axis 172, and the line where the plane orthogonal to the eyeball axis 172 intersects the eyeball surface is called the latitude line, and the largest one is the equator 174.
  • the portion of the retina or choroid corresponding to the position of the equator 174 is referred to as the equator 178.
  • the ophthalmic apparatus 110 can image a region having an internal irradiation angle of 200 ° with the eyeball center 170 of the eye 12 to be inspected as a reference position.
  • the internal irradiation angle of 200 ° is 110 ° at the external irradiation angle based on the pupil of the eyeball of the eye 12 to be inspected. That is, the wide-angle optical system 30 irradiates the laser beam from the pupil with an angle of view of 110 ° as an external irradiation angle, and photographs the fundus region of 200 ° with an internal irradiation angle.
  • FIG. 5B shows a UWF-SLO image 179 obtained by being photographed by an ophthalmic apparatus 110 capable of scanning at an internal irradiation angle of 200 °.
  • the equator portion 178 corresponds to an internal irradiation angle of 180 °
  • the portion indicated by the dotted line 178a corresponds to the equator portion 178.
  • the ophthalmologic apparatus 110 can image the fundus region beyond the equator portion 178 from the posterior pole portion.
  • FIG. 5C is a diagram showing the positional relationship between the choroid 12M and the vortex veins 12V1 and V2 in the eyeball.
  • the reticulated pattern shows the choroidal blood vessels of the choroid 12M. Choroidal blood vessels circulate blood throughout the choroid. Then, blood flows out of the eyeball from a plurality of (usually 4 to 6) vortex veins existing in the eye 12 to be inspected.
  • the upper vortex vein V1 and the lower vortex vein V2 existing on one side of the eyeball are shown. The vortex vein is often located near the equator 178.
  • the above-mentioned ophthalmic apparatus 110 capable of scanning at an internal irradiation angle of 200 ° is used.
  • the OCT system is realized by the control device 16, the OCT unit 20, and the photographing optical system 19 shown in FIG. Since the OCT system includes the wide-angle optical system 30, it enables OCT imaging of the peripheral portion of the fundus in the same manner as the acquisition of the SLO fundus image described above. That is, the wide-angle optical system 30 in which the viewing angle (FOV) of the fundus is an ultra-wide angle enables OCT imaging of a region beyond the equator 178 from the posterior pole of the fundus of the eye 12 to be inspected. OCT data of structures existing around the fundus such as vortex veins can be acquired, and tomographic images of vortex veins and 3D structures of vortex veins can be obtained by image processing of OCT data.
  • FOV viewing angle
  • the OCT unit 20 includes a light source 20A, a sensor (detection element) 20B, a first optical coupler 20C, a reference optical system 20D, a collimating lens 20E, and a second optical coupler 20F.
  • the light emitted from the light source 20A is branched by the first optical coupler 20C.
  • One of the branched lights is made into parallel light by the collimated lens 20E as measurement light, and then is incident on the photographing optical system 19.
  • the measurement light is applied to the fundus of the eye via the wide-angle optical system 30 and the pupil 27.
  • the measurement light reflected by the fundus is incident on the OCT unit 20 via the wide-angle optical system 30 and incident on the second optical coupler 20F via the collimating lens 20E and the first optical coupler 20C.
  • the other light emitted from the light source 20A and branched by the first optical coupler 20C is incident on the reference optical system 20D as reference light, and is incident on the second optical coupler 20F via the reference optical system 20D. do.
  • the image processing device 17 that operates under the control of the image processing unit 206 generates an OCT image such as a tomographic image or an en-face image based on the OCT data detected by the sensor 20B.
  • an OCT image obtained by photographing with an internal irradiation angle of 160 degrees or more, or an OCT image obtained by scanning the peripheral part of the fundus of the eye is referred to as a UWF-OCT image.
  • the OCT image includes a tomographic image of the fundus of the eye by B-scan, a stereoscopic image (three-dimensional image) based on the OCT volume data, and an interface image (two-dimensional image) which is a cross section of the OCT volume data.
  • the image data of the UWF-OCT image is sent from the ophthalmologic device 110 to the server 140 via the communication interface 16F, and is stored in the storage device 254.
  • the light source 20A exemplifies a wavelength sweep type SS-OCT (Swept-Source OCT), but there are various types such as SD-OCT (Spectral-Domain OCT) and TD-OCT (Time-Domain OCT). OCT system of various types may be used.
  • the server 140 includes a computer main body 252.
  • the computer body 252 has a CPU 262, a RAM 266, a ROM 264, and an input / output (I / O) port 268.
  • a storage device 254, a display 256, a mouse 255M, a keyboard 255K, and a communication interface (I / F) 258 are connected to the input / output (I / O) port 268.
  • the storage device 254 is composed of, for example, a non-volatile memory.
  • the input / output (I / O) port 268 is connected to the network 130 via the communication interface (I / F) 258.
  • the server 140 can communicate with the ophthalmic apparatus 110 and the viewer 150.
  • the image processing program shown in FIG. 6 is stored in the ROM 264 or the storage device 254.
  • the ROM 264 or storage device 254 is an example of a "memory" of the technology of the present disclosure.
  • the CPU 262 is an example of a "processor” of the technology of the present disclosure.
  • the image processing program is an example of a "program" of the technology of the present disclosure.
  • the server 140 stores each data received from the ophthalmic device 110 in the storage device 254.
  • the image processing program includes a display control function, an image processing function, and a processing function.
  • the CPU 262 executes an image processing program having each of these functions, the CPU 262 functions as a display control unit 204, an image processing unit 206, and a processing unit 208.
  • step 600 the image processing unit 206 acquires the UWF-SLO image 179 as shown in FIG. 5B as a UWF fundus image from the storage device 254.
  • step 602 the image processing unit 206 creates (acquires) a choroidal blood vessel image which is a binarized image from the acquired UWF-SLO image as follows, and extracts the choroidal blood vessel from the created choroidal blood vessel image.
  • a method for creating (acquiring) a choroidal blood vessel image will be described.
  • the pixels corresponding to the choroidal blood vessels and the vortex veins are white, and the pixels in the other regions are black and binarized.
  • the structure of the eye is such that the vitreous body is covered with multiple layers having different structures.
  • the layers include the retina, choroid, and sclera from the innermost to the outermost side of the vitreous.
  • R light passes through the retina and reaches the choroid. Therefore, the first fundus image (R-color fundus image) includes information on blood vessels existing in the retina (retinal blood vessels) and information on blood vessels existing in the choroid (choroidal blood vessels).
  • G light reaches only the retina. Therefore, the second fundus image (G-color fundus image) contains only information on blood vessels (retinal blood vessels) existing in the retina.
  • the image processing unit 206 of the CPU 262 extracts the retinal blood vessels from the second fundus image (G color fundus image) by applying the black hat filter process to the second fundus image (G color fundus image).
  • the image processing unit 206 removes the retinal blood vessels by inpainting processing using the retinal blood vessels extracted from the first fundus image (R color fundus image) and the second fundus image (G color fundus image). .. That is, the retinal blood vessel structure of the first fundus image (R color fundus image) is filled with the same value as the surrounding pixels by using the position information of the retinal blood vessels extracted from the second fundus image (G color fundus image). ..
  • the image processing unit 206 applies adaptive histogram equalization processing (CLAHE, Contrast Limited Adaptive Histogram Equalization) to the image data of the first fundus image (R color fundus image) from which the retinal blood vessels have been removed.
  • CLAHE Contrast Limited Adaptive Histogram Equalization
  • the choroidal blood vessels are emphasized.
  • a choroidal blood vessel image in which the background is black pixels and the choroidal blood vessels are represented by white pixels is acquired.
  • the generated choroidal blood vessel image is stored in the storage device 254.
  • the choroidal vascular image is generated from the first fundus image (R color fundus image) and the second fundus image (G color fundus image), but the image processing unit 206 generates the choroidal blood vessel image, and the image processing unit 206 generates the first fundus image (R color fundus image).
  • an IR fundus image taken with IR light may be used to generate a choroidal vascular image.
  • choroidal blood vessels As described above, in the choroidal blood vessel image, the pixels corresponding to the choroidal blood vessels and vortex veins are white, and the pixels in the other regions are black, so that the image processing unit 206 can be used from the choroidal blood vessel image. , Choroidal blood vessels including vortex veins are extracted by extracting the white part of the pixel.
  • the choroidal blood vessel information is stored in the storage device 254.
  • the vortex vein (V (Vortex Vein)) is an outflow path of blood flow that has flowed into the choroid.
  • the position (X, Y) of the vortex vein (VV) is detected as follows.
  • the image processing unit 206 sets the moving direction (blood vessel traveling direction) of each choroidal blood vessel in the choroidal blood vessel image. Specifically, first, the image processing unit 206 executes the following processing for each pixel of the choroidal blood vessel image. That is, the image processing unit 206 sets a region (cell) centered on the pixel for the pixel, and creates a histogram in the gradient direction of the brightness of each pixel in the cell. Next, the image processing unit 206 sets the gradient direction with the smallest count in the histogram in each cell as the moving direction in the pixels in each cell. This gradient direction corresponds to the blood vessel traveling direction.
  • the gradient direction with the lowest count is the blood vessel traveling direction for the following reasons.
  • the brightness gradient is small in the blood vessel traveling direction, while the brightness gradient is large in the other directions (for example, the difference in brightness between the blood vessel and the non-blood vessel is large). Therefore, if a histogram of the brightness gradient of each pixel is created, the count with respect to the blood vessel traveling direction becomes small.
  • the blood vessel traveling direction in each pixel of the choroidal blood vessel image is set.
  • the image processing unit 206 estimates (detects) the position of the vortex vein. Specifically, the image processing unit 206 performs the following processing for each of the L positions. That is, the image processing unit 206 acquires the blood vessel traveling direction at the initial position (any of L), moves the particles by a predetermined distance along the acquired blood vessel traveling direction, and again at the moved position. The blood vessel traveling direction is acquired, and the particles are moved along the acquired blood vessel traveling direction by a predetermined distance. The movement of a predetermined distance along the blood vessel traveling direction is repeated as many times as a preset number of movements. The above processing is executed at all L positions. The point where a certain number or more of particles are gathered at that time is defined as the vortex vein position.
  • a method for detecting another vortex vein image processing for recognizing a position on the choroidal blood vessel image in which the feature amount of the radial pattern is equal to or more than a predetermined value as a vortex vein, or detecting the vortex vein ampulla portion from the choroidal blood vessel image. This may allow the position of the vortex vein to be detected.
  • WO2019 / 203309 for methods of detecting vortex veins is incorporated herein by reference in its entirety.
  • the vortex vein position information (number of vortex veins, coordinates on the choroidal blood vessel image, etc.) is stored in the storage device 254.
  • step 606 the image processing unit 206 executes the blood vessel area calculation process.
  • FIG. 7 shows a flowchart showing the details of the blood vessel area calculation process in step 606.
  • the image processing unit 206 reads each data of the choroidal blood vessel image (binary image) and the vortex vein position information from the storage device 254.
  • step 704 the image processing unit 206 classifies each pixel on the choroidal blood vessel by determining which VV among the detected plurality of vortex veins (hereinafter referred to as “VV”) is associated with. ..
  • VV the detected plurality of vortex veins
  • a method of classifying after determining a boundary line for defining a region related to VV in a choroidal blood vessel image is a method of determining the boundary point on the choroidal blood vessel and then classifying it.
  • the choroidal blood vessel image is displayed on the display 256 of the server 140, and the operator may set a boundary line or a boundary point or make the pixels on the choroidal blood vessel correspond to VV by using a mouse 255M or the like.
  • the image processing unit 206 automatically classifies each of the above pixels by performing image processing.
  • the first classification method for classifying after determining the boundary line as described above will be described.
  • the first classification method includes a method of uniquely determining the boundary of the region related to each VV in the choroidal blood vessel image (so that there is no overlap), and a method of uniquely determining the boundary of the region related to each VV so that the region related to each VV has an overlapping region. There is a method to be set.
  • the image processing unit 206 determines the region corresponding to each of the plurality of VVs in the choroidal blood vessel image so as to be adjacent to the adjacent region, that is, no overlapping region occurs.
  • 8A and 8B show choroidal blood vessel images of the portion where adjacent VV1 and VV2 are present. As shown in FIG. 8A, the image processing unit 206 determines one boundary line B11 for defining the region corresponding to VV1 and the region corresponding to VV2.
  • the image processing unit 206 calculates the linear distance from each VV for each pixel of the choroidal vascular image, determines the VV corresponding to the shortest linear distance from each calculated linear distance, and determines the VV corresponding to the shortest linear distance. The determined VV is associated with the pixel. The image processing unit 206 sets each pixel associated with the same VV in the same group. The image processing unit 206 determines one boundary line B12 that divides each group from the positions between pixels in which adjacent pixels belong to another group.
  • step 704 the image processing unit 206 determines which of the plurality of VVs (only one) each pixel on the choroidal vessel is associated with, based on the boundary line B11 or B12.
  • 9A and 9B show choroidal blood vessel images of the portion where adjacent VV1 and VV2 are present.
  • the image processing unit 206 determines two boundary lines B21 and B22 by combining with dynamic contour processing (Snakes method or Level set processing).
  • the image processing unit 206 classifies each pixel on the choroidal blood vessel located on the VV2 side from the boundary line B21 close to VV1 as a pixel related to VV2 in the boundary lines B21 and B22.
  • the image processing unit 206 classifies each pixel on the choroidal blood vessel located on the VV1 side from the boundary line B22 close to VV2 as a pixel related to VV1 in the boundary lines B21 and B22.
  • the image processing unit 206 classifies each pixel on the choroidal blood vessel located in the region sandwiched between the boundary line B21 and the boundary line B22 as pixels related to VV1 and VV2.
  • the two boundary lines B21 and B22 can also be determined by a method of combining the graph cut processing and the dynamic contour processing.
  • the following method is also available as a method for setting the overlapping area in the area related to each VV.
  • the image processing unit 206 sets circles C1 and C2 having a radius of a predetermined length around the VV for each VV, and sets the circumferences of the circles C1 and C2 as boundary lines. ..
  • the image processing unit 206 displays each pixel on the choroidal blood vessel that does not belong to the circle C1 or the circle C2, and when the circle C1 and the circle C2 overlap, each pixel on the choroidal blood vessel in the overlapping region. It is classified as a pixel located in an overlapping region related to both VV1 and VV2.
  • the image processing unit 206 classifies each pixel on the choroidal blood vessel in the circle C1 as a pixel related to VV1 except for the overlapping region.
  • the image processing unit 206 classifies each pixel on the choroidal blood vessel in the circle C2 as a pixel related to VV2 except for the overlapping region.
  • FIG. 10 shows a choroidal blood vessel image of a portion where adjacent VV1 and VV2 exist.
  • the image processing unit 206 thins the choroidal blood vessels.
  • the image processing unit 206 counts the number of pixels up to each VV along the thinned choroidal blood vessel for each pixel on the thinned choroidal blood vessel.
  • the image processing unit 206 determines the VV corresponding to the number of pixels having the smallest number of pixels, and associates the determined VV with the pixel.
  • the image processing unit 206 sets each pixel associated with the same VV in the same group.
  • the image processing unit 206 determines the positions between pixels in which adjacent pixels on the thinned choroidal blood vessel belong to another group as boundary points P1 and P2.
  • the image processing unit 206 classifies each pixel on the choroidal blood vessel by determining which VV (only one) among the plurality of VVs is related to based on the boundary points P1 and P2.
  • FIG. 11 shows a choroidal blood vessel image of a portion where adjacent VV1 and VV2 exist.
  • the image processing unit 206 thins the choroidal blood vessels.
  • the image processing unit 206 counts the number of pixels up to each VV1 and VV2 along the thinned choroidal blood vessel for each pixel on the thinned choroidal blood vessel.
  • the image processing unit 206 classifies each pixel having a predetermined number or more of pixels counted along the choroidal blood vessels drawn from any VV1 and VV2 as pixels overlapping the VV1 and VV2.
  • the image processing unit 206 classifies each pixel having a coefficient of less than a predetermined number of pixels along the thinned choroidal blood vessel as a pixel corresponding to VV traced by the less than a predetermined number of pixels.
  • the blood vessel area calculation process proceeds to step 706.
  • step 706 the image processing unit 206 initializes the variable n that identifies each of the plurality of detected VVs to 0, and in step 708, the image processing unit 206 increments the variable n by 1.
  • the image processing unit 206 communicates (connects) to VVn identified by the variable n, that is, extracts the connected choroidal blood vessel as a VVn connecting blood vessel.
  • the image processing unit 206 uses choroidal blood vessels (only the pixels classified above) connected to a certain range (circle C3 with a radius of a certain length) from the position of VV3 as VVn connecting blood vessels. , May be extracted.
  • the image processing unit 206 extracts (identifies) only the choroidal blood vessels around the VVn from the VVn connecting blood vessels as the blood vessels around the VVn.
  • the image processing unit 206 extracts the remaining blood vessel portion as a blood vessel around VVn by erasing the blood vessel portion exceeding a certain range (circle C4 with a radius of a certain length) from VVn in the VVn connecting blood vessel.
  • the choroidal vessel around VVn (peri-VVn vessel) is an example of the "choroidal vessel associated with vortex vein position" in the technique of the present disclosure.
  • the choroidal blood vessel around VVn (the blood vessel around VVn) is connected to VVn and is an example of the "choroidal blood vessel connected to the vortex vein" of the technique of the present disclosure.
  • the image processing unit 206 calculates the area of the blood vessels around VVn. For example, The image processing unit 206 reads out the area of the fundus corresponding to each pixel of the blood vessel around VVn, and adds the read area to each pixel of the blood vessel around VVn to calculate the area of the blood vessel around VVn. The following values are used for the area of the fundus corresponding to the pixels.
  • a patient's eye model is created in advance by correcting the standard eye model based on the patient's axial length.
  • the storage device 254 stores the area on the patient's eye model corresponding to each pixel of the choroidal blood vessel image.
  • the image processing unit 206 reads out and uses the area corresponding to the pixel stored in the storage device 254.
  • step 716 the image processing unit 206 determines whether or not the variable n is equal to the total number N of the detected VVs. If it is not determined that the variable n is equal to the total number N, there is a VV for which the area of the surrounding blood vessels has not been calculated. Therefore, the blood vessel area calculation process returns to step 708 and repeats the above processes (steps 708 to 716). ..
  • n is equal to the total number N
  • the area of the surrounding blood vessels is calculated for all VVs, so that the blood vessel area calculation process (step 606 in FIG. 6) is completed, and the image processing proceeds to step 608. ..
  • step 608 the image processing unit 206 executes the analysis process.
  • the analysis process will be described below.
  • the image processing unit 206 calculates the statistical value of the blood vessel area calculated for all VVs.
  • Statistical values include, for example, the mean and standard deviation of the vessel area calculated for all VVs, and the maximum and minimum of the vessel areas calculated for all VVs.
  • Statistical values include the average value, standard deviation, maximum value, and minimum value of the blood vessel area calculated for each quadrant.
  • the image processing unit 206 detects the watershed of the choroidal vascular network and determines the quadrant based on the detected watershed.
  • the diversion ridge is a region in which the density of choroidal blood vessels is lower than other regions in the choroidal blood vessel image (for example, curves LX, LY (see also the choroidal blood vessel image display field 544 in FIG. 14)).
  • Statistical values include a comparison of the mean, standard deviation, maximum, and minimum values of vessel area between quadrants.
  • the compared values are the difference, standard deviation, maximum value, and minimum value of the above values (mean value, standard deviation, maximum value, and minimum value) between each quadrant.
  • Statistical values include the following VV center distance and VV center angle. Specifically, these values are obtained as follows. A graph representing each position of the choroidal vascular image in polar coordinates (distance and angle from the center of the choroidal vascular image) was created, and at least one of the center position of VV (V1 to VV4) and the weighted center of gravity was obtained as the center position. , The distance from the center to the center position (VV center distance) and the angle of the center position (VV center angle) of the above graph are obtained.
  • the image processing unit 206 calculates the difference between the calculated statistical value and the corresponding statistical value stored in the normal eye database stored in the storage device 254 in advance.
  • the image processing unit 206 detects the positions of the optic nerve head and the macula from the UWF fundus image.
  • the image processing unit 206 sets the distance between the optic disc and each VV, the distance between the macula and each VV, the angle between the line connecting the optic disc and the macula and the line connecting the optic disc and each VV, and the line connecting the optic disc and the macula. And the angle between the optic disc and the line connecting each VV are calculated.
  • the image processing unit 206 calculates the position of the center of gravity and the position of the center of gravity weighted by the blood vessel area for each VV as the center positions for all VVs.
  • FIG. 14 shows a first display screen 500A.
  • the first display screen 500A has an information area 502 and an image display area 504A.
  • the information area 502 includes a patient ID display field 512, a patient name display field 514, an age display field 516, a visual acuity display field 518, a right eye / left eye display field 520, and an axial length display field 522.
  • the viewer 150 displays each information based on the information received from the server 140.
  • the image display area 504A is an area for displaying a fundus image or the like.
  • the image display area 504A is provided with the following display fields, specifically, a comment field 530, a UWF fundus image display field 542, a choroidal blood vessel image display field 544, and a first blood vessel area display field 526. And there is a second blood vessel area display field 528.
  • the comment field 530 is a remarks column in which the result observed by the ophthalmologist who is the user or the diagnosis result can be arbitrarily input.
  • a circle ( ⁇ ) centered on the position of each VV (VV1 to VV4) and at least one of the center of gravity position and the weighted center of gravity position as the center position are shown in FIG.
  • a circle area ( ⁇ ) centered on the weighted center of gravity position is displayed.
  • a bar graph showing the blood vessel area corresponding to each VV, an average value of the blood vessel area: XX [ ⁇ m], and a standard deviation: ⁇ [ ⁇ m] are displayed.
  • a specific value of the average value of the blood vessel area is displayed.
  • the specific value of the standard deviation is displayed in " ⁇ ".
  • each position of the choroidal blood vessel image is shown in a graph represented by polar coordinates (distance and angle from the center of the choroidal blood vessel image) with the position of each VV as the center, and the area corresponds to the blood vessel area.
  • the center position at least one of the center of gravity position and the weighted center of gravity position is displayed.
  • a circular region ( ⁇ ) is displayed centered on the weighted center of gravity position.
  • the distance (VV center distance) of the center position (for example, the weighted center of gravity position) from the center of the graph is: ⁇ [ ⁇ m], and the angle of the center position (VV center angle). : ⁇ [deg] is displayed.
  • a specific value of the VV center distance is displayed in ⁇ [ ⁇ m]. In ⁇ [deg], a specific value of the VV center angle is displayed.
  • step 608 of FIG. 6 When the creation of the display screen data is completed as described above, the process of step 608 of FIG. 6 is completed, and in step 610, the image processing unit 206 sets each value calculated in step 608 and the display screen data. Is output (stored) to the storage device 254 in response to the patient ID.
  • the viewer 150 When the ophthalmologist diagnoses the patient, the viewer 150 specifies the patient ID according to the operation of the ophthalmologist and transmits each data stored in the storage device 254 corresponding to the patient ID. Instruct the server 140. The server 140 transmits each data stored in the storage device 254 corresponding to the patient ID to the viewer 150. The viewer 150 displays the first display screen 500A shown in FIG. 14 on the display based on each received data.
  • the blood vessel area is calculated. Diseases in the choroidal vessels increase the calculated vascular area for the VV corresponding to the choroidal vessels. Therefore, an ophthalmologist or the like can determine whether or not there is a disease in the choroidal blood vessel of VV from the blood vessel area of VV. For example, in the example shown in FIG. 14, the blood vessel area of VV3 is larger than the blood vessel area of other VVs. Therefore, an ophthalmologist or the like can determine whether or not there is a disease in the choroidal blood vessels of VV3.
  • the position of the center of gravity that is not weighted is calculated, and the position of the center of gravity that is weighted is calculated as the center position.
  • the position of the center of gravity that is weighted is calculated as the center position. For example, when a disease occurs in which the blood flow is biased to one place, the corresponding VV expands and the blood vessel area increases, and when the VV center point is calculated with the blood vessel area as a weight, the weighted center of gravity position is not weighted. It shifts to the VV side where the blood vessel area has increased. Therefore, an ophthalmologist or the like can determine whether or not a disease in which the blood flow is biased to one place occurs from the weighted center of gravity position and the unweighted center of gravity position.
  • the position of the vortex vein (VV) and the position (X, Y) on the choroidal blood vessel image are detected.
  • the standard eye model obtains an eye model corrected by the stored axial length corresponding to the patient ID, a choroidal blood vessel image is mapped to the obtained eye model, and the position of the vortex vein (VV) is determined by the choroidal blood vessel. It may be detected as a position (X, Y, Z) on the eyeball model on which the image is mapped.
  • each value is calculated using an eyeball model on which a choroidal blood vessel image is mapped.
  • R is the radius of the eyeball model corrected by the axial length of the eye to be inspected.
  • xcenter is calculated by the formula shown by Equation 1.
  • xcenter is a normalized version of xc, and xc is calculated by the weighted average of x.
  • Wn is a weight related to the blood vessel area.
  • the weighted average value is not limited to the calculation as described above, and the m-th power average or the like may be used.
  • yc and zc are also calculated in the same way as xc.
  • the ycenter and zcenter are calculated in the same manner as the xcenter.
  • the vector from the center of the eyeball model to the VV center point is calculated by weighting each vector from the center of the eyeball model to the VV and synthesizing each of the weighted vectors.
  • FIG. 15 shows a second display screen 500B when each value is calculated using the eyeball model in step 608 of FIG.
  • the second display screen 500B is substantially the same as the first display screen 500A, so different parts will be described.
  • the second display screen 500B is provided with an eye model display field 532 in place of at least one of the first blood vessel area display field 526 and the second blood vessel area display field 528 in the first display screen 500A. ing.
  • an eyeball model display field 532 is provided in place of the second blood vessel area display field 528.
  • a vector for each VV VV1 to VV4
  • a vector for at least one of the center of gravity position and the weighted center of gravity position are displayed.
  • the vector to the weighted center of gravity position is displayed.
  • the blood vessel area is calculated using the choroidal blood vessel image obtained from the UWF fundus image.
  • the techniques of the present disclosure are not limited to this.
  • the blood vessel volume may be calculated using a stereoscopic image (three-dimensional image) based on OCT volume data.
  • the blood vessel volume is used instead of the blood vessel area.
  • the weighting uses the blood vessel volume.
  • image processing is realized by a software configuration using a computer
  • the technology of the present disclosure is not limited to this.
  • the image processing may be executed only by a hardware configuration such as FPGA (Field-Programmable Gate Array) or ASIC (Application Specific Integrated Circuit). Some of the image processing may be performed by the software configuration and the rest may be performed by the hardware configuration.
  • the technology of the present disclosure includes the following technology because it includes a case where image processing is realized and a case where image processing is not realized by a software configuration using a computer.
  • the step that the acquisition part acquires the choroidal blood vessel image A step in which the detection unit detects the position of the vortex vein from the choroidal blood vessel image, The step in which the specific part identifies the choroidal blood vessel associated with the vortex vein position, The step that the calculation unit calculates the size of the choroidal blood vessel, Image processing method.
  • the image processing unit 206 is an example of the "acquisition unit”, “detection unit”, “specific unit”, and “calculation unit” of the technology of the present disclosure.
  • a computer program product for image processing comprises a computer-readable storage medium that is not itself a temporary signal.
  • a program is stored in the computer-readable storage medium.
  • the program On the computer Steps to acquire choroidal blood vessel images and The step of detecting the vortex vein position from the choroidal blood vessel image and The step of identifying the choroidal vessel associated with the vortex vein position and The step of determining the size of the choroidal blood vessel and To execute, Computer program product.
  • the server 140 is an example of a "computer program product" of the technology of the present disclosure.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Vascular Medicine (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

プロセッサが行う画像処理は、脈絡膜血管画像を取得するステップと、前記脈絡膜血管画像から渦静脈位置を検出するステップと、前記渦静脈位置に関連する脈絡膜血管を特定するステップと、前記脈絡膜血管の大きさを求めるステップと、を含む。

Description

画像処理方法、画像処理装置、及びプログラム
 本開示の技術は、画像処理方法、画像処理装置、及びプログラムに関する。
 従来、脈絡膜の血管を解析する技術が提案されている(米国特許第10136812号明細書)。
 渦静脈周辺の脈絡膜血管を解析することが望まれている。
 本開示の技術の第1の態様は、プロセッサが行う画像処理であって、脈絡膜血管画像を取得するステップと、前記脈絡膜血管画像から渦静脈位置を検出するステップと、前記渦静脈位置に関連する脈絡膜血管を特定するステップと、前記脈絡膜血管の大きさを求めるステップと、を含む。
 本開示の技術の第2の態様の画像処理装置は、メモリと、前記メモリに接続するプロセッサとを備え、前記プロセッサは、脈絡膜血管画像を取得するステップと、前記脈絡膜血管画像から渦静脈位置を検出するステップと、前記渦静脈位置に関連する脈絡膜血管を特定するステップと、前記脈絡膜血管の大きさを求めるステップと、を実行する。
 本開示の技術の第3の態様のプログラムは、コンピュータに、脈絡膜血管画像を取得するステップと、前記脈絡膜血管画像から渦静脈位置を検出するステップと、前記渦静脈位置に関連する脈絡膜血管を特定するステップと、前記脈絡膜血管の大きさを求めるステップと、を実行させる。
本実施形態の眼科システムの概略構成図である。 本実施形態の眼科装置の概略構成図である。 サーバの概略構成図である。 サーバのCPUにおいて、画像処理プログラムによって実現される機能の説明図である。 眼球の赤道部の説明図である。 眼底を広範囲に撮影したUWF-SLO画像を示す概略図である。 眼球における脈絡膜と渦静脈との位置関係を示す概略図である。 サーバによる画像処理を示したフローチャートである。 図6のステップ606の血管面積算出処理を示したフローチャートである。 隣り合うVV1とVV2とが存在する部分の脈絡膜血管画像を示す図である。 隣り合うVV1とVV2とが存在する部分の脈絡膜血管画像を示す図である。 隣り合うVV1とVV2とが存在する部分の脈絡膜血管画像を示す図である。 隣り合うVV1とVV2とが存在する部分の脈絡膜血管画像を示す図である。 隣り合うVV1とVV2とが存在する部分の脈絡膜血管画像を示す図である。 隣り合うVV1とVV2とが存在する部分の脈絡膜血管画像を示す図である。 VV3が存在する部分の脈絡膜血管画像を示す図である。 VV3が存在する部分の脈絡膜血管画像を示す図である。 VV4が存在する部分の脈絡膜血管画像を示す図である。 ビューワのディスプレイに表示される第1のディスプレイ・スクリーンを示した概略図である。 ビューワのディスプレイに表示される第2のディスプレイ・スクリーンを示した概略図である。
 以下、本発明の実施形態に係る眼科システム100について図面を参照して説明する。図1には、眼科システム100の概略構成が示されている。図1に示すように、眼科システム100は、眼科装置110と、サーバ装置(以下、「サーバ」という)140と、表示装置(以下、「ビューワ」という)150と、を備えている。眼科装置110は、眼底画像を取得する。サーバ140は、眼科装置110によって複数の患者の眼底が撮影されることにより得られた複数の眼底画像と、図示しない眼軸長測定装置により測定された眼軸長とを、患者IDに対応して記憶する。ビューワ150は、サーバ140により取得した眼底画像や解析結果を表示する。
 サーバ140は、本開示の技術の「画像処理装置」の一例である。
 眼科装置110、サーバ140、及びビューワ150は、ネットワーク130を介して、相互に接続されている。ビューワ150は、クライアントサーバシステムにおけるクライアントであり、ネットワークを介して複数台が接続される。また、サーバ140も、システムの冗長性を担保するために、ネットワークを介して複数台が接続されていてもよい。又は、眼科装置110が画像処理機能及びビューワ150の画像閲覧機能を備えるのであれば、眼科装置110がスタンドアロン状態で、眼底画像の取得、画像処理及び画像閲覧が可能となる。また、サーバ140がビューワ150の画像閲覧機能を備えるのであれば、眼科装置110とサーバ140との構成で、眼底画像の取得、画像処理及び画像閲覧が可能となる。
 なお、他の眼科機器(視野測定、眼圧測定などの検査機器)やAI(Artificial Intelligence)を用いた画像解析を行う診断支援装置がネットワーク130を介して、眼科装置110、サーバ140、及びビューワ150に接続されていてもよい。
 次に、図2を参照して、眼科装置110の構成を説明する。
 説明の便宜上、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)を「SLO」と称する。また、光干渉断層計(Optical Coherence Tomography)を「OCT」と称する。
 なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、被検眼12の前眼部の瞳孔の中心と眼球の中心とを結ぶ方向を「Z方向」とする。従って、X方向、Y方向、及びZ方向は互いに垂直である。
 眼科装置110は、撮影装置14及び制御装置16を含む。撮影装置14は、SLOユニット18及びOCTユニット20を備えており、被検眼12の眼底の眼底画像を取得する。以下、SLOユニット18により取得された二次元眼底画像をSLO画像と称する。また、OCTユニット20により取得されたOCTデータに基づいて作成された網膜の断層画像や正面画像(en-face画像)などをOCT画像と称する。
 制御装置16は、CPU(Central Processing Unit(中央処理装置))16A、RAM(Random Access Memory)16B、ROM(Read-Only memory)16C、及び入出力(I/O)ポート16Dを有するコンピュータを備えている。
 制御装置16は、I/Oポート16Dを介してCPU16Aに接続された入力/表示装置16Eを備えている。入力/表示装置16Eは、被検眼12の画像を表示したり、ユーザから各種指示を受け付けたりするグラフィックユーザインターフェースを有する。グラフィックユーザインターフェースとしては、タッチパネル・ディスプレイが挙げられる。
 また、制御装置16は、I/Oポート16Dに接続された画像処理装置17を備えている。画像処理装置17は、撮影装置14によって得られたデータに基づき被検眼12の画像を生成する。なお、制御装置16は、通信インターフェース16Fを介してネットワーク130に接続される。
 上記のように、図2では、眼科装置110の制御装置16が入力/表示装置16Eを備えているが、本開示の技術はこれに限定されない。例えば、眼科装置110の制御装置16は入力/表示装置16Eを備えず、眼科装置110とは物理的に独立した別個の入力/表示装置を備えるようにしてもよい。この場合、当該表示装置は、制御装置16のCPU16Aの表示制御部204の制御下で動作する画像処理プロセッサユニットを備える。画像処理プロセッサユニットが、表示制御部204が出力指示した画像信号に基づいて、SLO画像等を表示するようにしてもよい。
 撮影装置14は、制御装置16のCPU16Aの制御下で作動する。撮影装置14は、SLOユニット18、撮影光学系19、及びOCTユニット20を含む。撮影光学系19は、光学スキャナ22、及び広角光学系30を含む。
 光学スキャナ22は、SLOユニット18から射出された光をX方向、及びY方向に2次元走査する。光学スキャナ22は、光束を偏向できる光学素子であればよく、例えば、ポリゴンミラーや、ガルバノミラー等を用いることができる。また、それらの組み合わせであってもよい。
 広角光学系30は、SLOユニット18からの光とOCTユニット20からの光とを合成する。
 なお、広角光学系30は、楕円鏡などの凹面ミラーを用いた反射光学系や、広角レンズなどを用いた屈折光学系、あるいは、凹面ミラーやレンズを組み合わせた反射屈折光学系でもよい。楕円鏡や広角レンズなどを用いた広角光学系を用いることにより、眼底中心部だけでなく眼底周辺部の網膜を撮影することが可能となる。
 楕円鏡を含むシステムを用いる場合には、国際公開WO2016/103484あるいは国際公開WO2016/103489に記載された楕円鏡を用いたシステムを用いる構成でもよい。国際公開WO2016/103484の開示及び国際公開WO2016/103489の開示の各々は、その全体が参照により本明細書に取り込まれる。
 広角光学系30によって、眼底において広い視野(FOV:Field of View)12Aでの観察が実現される。FOV12Aは、撮影装置14によって撮影可能な範囲を示している。FOV12Aは、視野角として表現され得る。視野角は、本実施形態において、内部照射角と外部照射角とで規定され得る。外部照射角とは、眼科装置110から被検眼12へ照射される光束の照射角を、瞳孔27を基準として規定した照射角である。また、内部照射角とは、眼底Fへ照射される光束の照射角を、眼球中心Oを基準として規定した照射角である。外部照射角と内部照射角とは、対応関係にある。例えば、外部照射角が120度の場合、内部照射角は約160度に相当する。本実施形態では、内部照射角は200度としている。
 ここで、内部照射角で160度以上の撮影画角で撮影されて得られたSLO眼底画像をUWF-SLO眼底画像と称する。なお、UWFとは、UltraWide Field(超広角)の略称を指す。眼底の視野角(FOV)を超広角な角度とした広角光学系30により、被検眼12の眼底の後極部から赤道部を超える領域を撮影することができ、渦静脈などの眼底周辺部に存在する構造物を撮影できる。
 SLOシステムは、図2に示す制御装置16、SLOユニット18、及び撮影光学系19によって実現される。SLOシステムは、広角光学系30を備えるため、広いFOV12Aでの眼底撮影を可能とする。
 SLOユニット18は、B光(青色光)の光源40、G光(緑色光)の光源42、R光(赤色光)の光源44、及びIR光(赤外線(例えば、近赤外光))の光源46と、光源40、42、44、46からの光を、反射又は透過して1つの光路に導く光学系48、50、52、54、56とを備えている。光学系48、56は、ミラーであり、光学系50、52、54は、ビームスプリッタ―である。B光は、光学系48で反射し、光学系50を透過し、光学系54で反射し、G光は、光学系50、54で反射し、R光は、光学系52、54を透過し、IR光は、光学系52、56で反射して、それぞれ1つの光路に導かれる。
 SLOユニット18は、R光及びG光を発するモードと、赤外線を発するモードなど、波長の異なるレーザ光を発する光源あるいは発光させる光源の組合せを切り替え可能に構成されている。図2に示す例では、B光の光源40、G光の光源42、R光の光源44、及びIR光の光源46の4つの光源を備えるが、本開示の技術は、これに限定されない。例えば、SLOユニット18は、更に、白色光の光源を更に備え、G光、R光、及びB光を発するモードや、白色光のみを発するモード等の種々のモードで光を発するようにしてもよい。
 SLOユニット18から撮影光学系19に入射された光は、光学スキャナ22によってX方向及びY方向に走査される。走査光は広角光学系30及び瞳孔27を経由して、眼底に照射される。眼底により反射された反射光は、広角光学系30及び光学スキャナ22を経由してSLOユニット18へ入射される。
 SLOユニット18は、被検眼12の後眼部(眼底)からの光の内、B光を反射し且つB光以外を透過するビームスプリッタ64、ビームスプリッタ64を透過した光の内、G光を反射し且つG光以外を透過するビームスプリッタ58を備えている。SLOユニット18は、ビームスプリッタ58を透過した光の内、R光を反射し且つR光以外を透過するビームスプリッタ60を備えている。SLOユニット18は、ビームスプリッタ60を透過した光の内、IR光を反射するビームスプリッタ62を備えている。SLOユニット18は、ビームスプリッタ64により反射したB光を検出するB光検出素子70、ビームスプリッタ58により反射したG光を検出するG光検出素子72、ビームスプリッタ60により反射したR光を検出するR光検出素子74、及びビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。
 広角光学系30及び光学スキャナ22を経由してSLOユニット18へ入射された光(眼底により反射された反射光)は、B光の場合、ビームスプリッタ64で反射してB光検出素子70により受光され、G光の場合、ビームスプリッタ58で反射してG光検出素子72により受光される。上記入射された光は、R光の場合、ビームスプリッタ58を透過し、ビームスプリッタ60で反射してR光検出素子74により受光される。上記入射された光は、IR光の場合、ビームスプリッタ58、60を透過し、ビームスプリッタ62で反射してIR光検出素子76により受光される。CPU16Aの制御下で動作する画像処理装置17は、B光検出素子70、G光検出素子72、R光検出素子74、及びIR光検出素子76で検出された信号を用いてUWF-SLO画像を生成する。
 また、制御装置16が、同時に発光するように光源40、42、44を制御する。B光、G光及びR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像、R色眼底画像、及びB色眼底画像が得られる。G色眼底画像、R色眼底画像、及びB色眼底画像からRGBカラー眼底画像が得られる。制御装置16が、同時に発光するように光源42、44を制御し、G光及びR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像及びR色眼底画像が得られる。G色眼底画像及びR色眼底画像からRGカラー眼底画像が得られる。
 広角光学系30により、眼底の視野角(FOV:Field of View)を超広角な角度とし、被検眼12の眼底の後極部から赤道部を超える領域を撮影することができる。
 図5Aを用いて赤道部178の説明をする。眼球(被検眼12)は、直径約 24mm の眼球中心170とした球状の構造物である。その前極175と後極176を連ねる直線を眼球軸172と言い、眼球軸172に直交する平面が眼球表面と交わる線を緯線といい、その最大のものが赤道174である。赤道174の位置に相当する網膜や脈絡膜の部分を赤道部178とする。
 眼科装置110は、被検眼12の眼球中心170を基準位置として内部照射角が200°の領域を撮影することができる。なお、200°の内部照射角は、被検眼12の眼球の瞳孔を基準とした外部照射角では110°である。つまり、広角光学系30は外部照射角110°の画角で瞳からレーザ光を照射させ、内部照射角で200°の眼底領域を撮影する。
 図5Bには、内部照射角が200°で走査できる眼科装置110で撮影されて得られたUWF-SLO画像179が示されている。図5Bに示すように、赤道部178は内部照射角で180°に相当し、UWF-SLO画像179においては点線178aで示された個所が赤道部178に相当する。このように、眼科装置110は、後極部から赤道部178を超えた眼底領域を撮影することができる。
 図5Cは、眼球における脈絡膜12Mと渦静脈12V1、V2との位置関係を示す図である。図5Cにおいて、網目状の模様は脈絡膜12Mの脈絡膜血管を示している。脈絡膜血管は脈絡膜全体に血液をめぐらせる。そして、被検眼12に複数(通常4つから6つ)存在する渦静脈から眼球の外へ血液が流れる。図5Cでは眼球の片側に存在する上側渦静脈V1と下側渦静脈V2が示されている。渦静脈は、赤道部178の近傍に存在する場合が多い。そのため、被検眼12に存在する渦静脈及び渦静脈周辺の脈絡膜血管を撮影するには、上述した内部照射角が200°で走査できる眼科装置110を用いて行われる。
 OCTシステムは、図2に示す制御装置16、OCTユニット20、及び撮影光学系19によって実現される。OCTシステムは、広角光学系30を備えるため、上述したSLO眼底画像の撮影と同様に、眼底周辺部のOCT撮影を可能とする。つまり、眼底の視野角(FOV)を超広角な角度とした広角光学系30により、被検眼12の眼底の後極部から赤道部178を超える領域のOCT撮影を行うことができる。渦静脈などの眼底周辺部に存在する構造物のOCTデータを取得でき、渦静脈の断層像や、OCTデータを画像処理することにより渦静脈の3D構造を得ることができる。
 OCTユニット20は、光源20A、センサ(検出素子)20B、第一の光カプラ20C、参照光学系20D、コリメートレンズ20E、及び第2の光カプラ20Fを含む。
 光源20Aから射出された光は、第一の光カプラ20Cで分岐される。分岐された一方の光は、測定光として、コリメートレンズ20Eで平行光にされた後、撮影光学系19に入射される。測定光は広角光学系30及び瞳孔27を経由して、眼底に照射される。眼底により反射された測定光は、及び広角光学系30を経由してOCTユニット20へ入射され、コリメートレンズ20E及び第一の光カプラ20Cを介して、第2の光カプラ20Fに入射する。
 光源20Aから射出され、第一の光カプラ20Cで分岐された他方の光は、参照光として、参照光学系20Dへ入射され、参照光学系20Dを経由して、第2の光カプラ20Fに入射する。
 第2の光カプラ20Fに入射されたこれらの光、即ち、眼底で反射された測定光と、参照光とは、第2の光カプラ20Fで干渉されて干渉光を生成する。干渉光はセンサ20Bで受光される。画像処理部206の制御下で動作する画像処理装置17は、センサ20Bで検出されたOCTデータに基づいて断層画像やen-face画像などのOCT画像を生成する。
 ここで、内部照射角で160度以上の撮影画角で撮影されて得られたOCT画像、あるいは、眼底周辺部を走査して得られたOCT画像をUWF-OCT画像と称する。OCT画像はB-scanによる眼底の断層画像や、OCTボリュームデータに基づく立体画像(三次元画像)や、当該OCTボリュームデータの断面であるenface画像(2次元画像)を含む。
 UWF-OCT画像の画像データは、通信インターフェース16Fを介して眼科装置110からサーバ140へ送付され、記憶装置254に記憶される。
 なお、本実施形態では、光源20Aが波長掃引タイプのSS-OCT(Swept-Source OCT)を例示するが、SD-OCT(Spectral-Domain OCT)、TD-OCT(Time-Domain OCT)など、様々な方式のOCTシステムであってもよい。
 次に、図3を参照して、サーバ140の電気系の構成を説明する。図3に示すように、サーバ140は、コンピュータ本体252を備えている。コンピュータ本体252は、CPU262、RAM266、ROM264、入出力(I/O)ポート268を有する。入出力(I/O)ポート268には、記憶装置254、ディスプレイ256、マウス255M、キーボード255K、及び通信インターフェース(I/F)258が接続されている。記憶装置254は、例えば、不揮発メモリで構成される。入出力(I/O)ポート268は、通信インターフェース(I/F)258を介して、ネットワーク130に接続されている。従って、サーバ140は、眼科装置110、及びビューワ150と通信することができる。
 ROM264又は記憶装置254には、図6に示す画像処理プログラムが記憶されている。
 ROM264又は記憶装置254は、本開示の技術の「メモリ」の一例である。CPU262は、本開示の技術の「プロセッサ」の一例である。画像処理プログラムは、本開示の技術の「プログラム」の一例である。
 サーバ140は、眼科装置110から受信した各データを、記憶装置254に記憶する。
 サーバ140のCPU262が画像処理プログラムを実行することで実現される各種機能について説明する。図4に示すように、画像処理プログラムは、表示制御機能、画像処理機能、及び処理機能を備えている。CPU262がこの各機能を有する画像処理プログラムを実行することで、CPU262は、表示制御部204、画像処理部206、及び処理部208として機能する。
 次に、図6を用いて、サーバ140による画像処理を詳細に説明する。サーバ140のCPU262が画像処理プログラムを実行することで、図6のフローチャートに示された画像処理(画像処理方法)が実現される。
 ステップ600で、画像処理部206は、図5Bに示したようなUWF-SLO画像179をUWF眼底画像として記憶装置254から取得する。ステップ602で、画像処理部206は、取得したUWF-SLO画像から、次のように二値化画像である脈絡膜血管画像を作成(取得)し、作成した脈絡膜血管画像から脈絡膜血管を抽出する。
 まず、脈絡膜血管画像を作成(取得)する方法を説明する。なお、当該脈絡膜血管画像は、脈絡膜血管や渦静脈に相当する画素が白で、他の領域の画素は黒で二値化された画像である。
 当該脈絡膜血管画像は、R色眼底画像とG色眼底画像とから生成する場合を説明される。まず、R色眼底画像とG色眼底画像とに含まれる情報を説明する。
 眼の構造は、硝子体を、構造が異なる複数の層が覆うようになっている。複数の層には、硝子体側の最も内側から外側に、網膜、脈絡膜、強膜が含まれる。R光は、網膜を通過して脈絡膜まで到達する。よって、第1眼底画像(R色眼底画像)には、網膜に存在する血管(網膜血管)の情報と脈絡膜に存在する血管(脈絡膜血管)の情報とが含まれる。これに対し、G光は、網膜までしか到達しない。よって、第2眼底画像(G色眼底画像)には、網膜に存在する血管(網膜血管)の情報のみが含まれる。
 CPU262の画像処理部206は、ブラックハットフィルタ処理を第2眼底画像(G色眼底画像)に施すことにより、第2眼底画像(G色眼底画像)から網膜血管を抽出する。次に、画像処理部206は、第1眼底画像(R色眼底画像)から、第2眼底画像(G色眼底画像)から抽出した網膜血管を用いてインペインティング処理により、網膜血管を除去する。つまり、第2眼底画像(G色眼底画像)から抽出された網膜血管の位置情報を用いて第1眼底画像(R色眼底画像)の網膜血管構造を周囲の画素と同じ値に塗りつぶす処理を行う。そして、画像処理部206は、網膜血管が除去された第1眼底画像(R色眼底画像)の画像データに対し、適応ヒストグラム均等化処理(CLAHE、Contrast Limited Adaptive Histogram Equalization)を施すことにより、第1眼底画像(R色眼底画像)において、脈絡膜血管を強調する。これにより、背景が黒い画素で脈絡膜血管が白い画素で表現された脈絡膜血管画像が取得される。生成された脈絡膜血管画像は記憶装置254に記憶される。
 また、第1眼底画像(R色眼底画像)と第2眼底画像(G色眼底画像)から脈絡膜血管画像を生成しているが、画像処理部206は、第1眼底画像(R色眼底画像)あるはIR光で撮影されたIR眼底画像を用いて脈絡膜血管画像を生成してもよい。
 脈絡膜血管画像を生成する方法について、国際公開WO2019/181981の開示は、その全体が参照により、本明細書に取り込まれる。
 次に、脈絡膜血管画像から脈絡膜血管を抽出する方法を説明する。
 上記のように脈絡膜血管画像は、脈絡膜血管や渦静脈に相当する画素が白で、他の領域の画素は黒で二値化された画像であるので、画像処理部206は、脈絡膜血管画像から、画素が白の部分を抽出することにより、渦静脈を含めて脈絡膜血管を抽出する。脈絡膜血管の情報は、記憶装置254に記憶される。なお、渦静脈(VV(Vortex Vein))とは、脈絡膜に流れ込んだ血流の流出路のことである。
 ステップ604では、渦静脈(VV)の位置(X,Y)を、次のように検出する。画像処理部206は、脈絡膜血管画像における各脈絡膜血管の移動方向(血管走行方向)を設定する。具体的には、第一に、画像処理部206は、脈絡膜血管画像の各画素について、下記の処理を実行する。即ち、画像処理部206は、画素に対して、当該画素を中心とした領域(セル)を設定し、セル内の各画素における輝度の勾配方向のヒストグラムを作成する。次に、画像処理部206は、各セルにおけるヒストグラムにおいて、最もカウントが少なかった勾配方向を各セルの内の画素における移動方向とする。この勾配方向が、血管走行方向に対応する。なお、最もカウントが少なかった勾配方向が血管走行方向であるとなるのは、次の理由からである。血管走行方向には輝度勾配が小さく、一方、それ以外の方向には輝度勾配が大きい(例えば、血管と血管以外のものでは輝度の差が大きい)。したがって、各画素の輝度勾配のヒストグラムを作成すると、血管走行方向に対するカウントは少なくなる。以上の処理により、脈絡膜血管画像の各画素における血管走行方向が設定される。
 画像処理部206は、M(自然数)×N(自然数)(=L)個の粒子の初期位置を設定する。具体的には、画像処理部206は、脈絡膜血管画像上に等間隔に、縦方向にM個、横方向にN個、合計L個の初期位置を設定する。
 画像処理部206は、渦静脈位置を推定(検出)する。具体的には、画像処理部206は、L個の各々の位置について以下の処理を行う。即ち、画像処理部206は、最初の位置(L個の何れか)の血管走行方向を取得し、取得した血管走行方向に沿って所定距離だけ、粒子を移動させ、移動した位置において、再度、血管走行方向を取得し、取得した血管走行方向に沿って所定距離だけ、粒子を移動させる。このように血管走行方向に沿って所定距離移動させることを予め設定した移動回数だけ、繰り返す。以上の処理を、L個の全ての位置において実行する。その時点で粒子が一定個数以上集まっている点を渦静脈位置とする。また、別の渦静脈を検出する方法として、放射状のパターンの特徴量が所定値以上の脈絡膜血管画像上の位置を渦静脈として認識する画像処理や、脈絡膜血管画像から渦静脈膨大部を検出することにより渦静脈位置を検出するようにしてもよい。渦静脈を検出する方法について、国際公開WO2019/203309の開示は、その全体が参照により、本明細書に取り込まれる。
 渦静脈位置情報(渦静脈の個数や、脈絡膜血管画像上での座標など)は、記憶装置254に記憶される。
 ステップ606で、画像処理部206は、血管面積算出処理を実行する。図7には、ステップ606の血管面積算出処理の詳細を示したフローチャートが示されている。図7のステップ702で、画像処理部206は、脈絡膜血管画像(二値画像)及び渦静脈位置情報の各データを記憶装置254から読み込む。
 ステップ704で、画像処理部206は、脈絡膜血管上の各画素を、検出された複数の渦静脈(以下、「VV」という)の中のどのVVに関連するのかを決定することにより、分類する。以下、脈絡膜血管上の各画素の分類方法を説明する。
 分類方法には、第1に、脈絡膜血管画像においてVVに関連する領域を定めるための境界線を決定してから、分類する方法がある。第2に、脈絡膜血管上で境界点を決定してから、分類する方法がある。第3に、境界線及び境界点を決定せずに分類する方法がある。なお、サーバ140のディスプレイ256に脈絡膜血管画像が表示され、オペレータがマウス255M等により、境界線又は境界点を設定したり脈絡膜血管上の画素をVVに対応させたりするようにしてもよい。しかし、本実施の形態では、画像処理部206が上記各画素を、画像処理を行うことにより自動的に分類する。
 まず、上記のように境界線を決定してから分類する第1の分類方法を説明する。第1の分類方法には、具体的には、脈絡膜血管画像において各VVに関連する領域の境界を一意に(重複が無いように)決定する方法と、各VVに関連する領域に重複領域が設定される方法とがある。
 第1の分類方法における境界を一意に決定する方法を説明する。画像処理部206は、脈絡膜血管画像において複数のVVの各々に対応する領域を、隣の領域と隣接する、即ち、重複領域が生じないように、決定する。図8A及び図8Bには、隣り合うVV1とVV2とが存在する部分の脈絡膜血管画像が示されている。画像処理部206は、図8Aに示すように、VV1に対応する領域とVV2に対応する領域とを定めるための境界線B11を1本決定する。
 境界線B12を1本決定する方法としては、例えば、グラフカット(Graph Cut)処理方法がある。また、次の処理方法もある。画像処理部206は、図8Bに示すように、脈絡膜血管画像の各画素について、各VVからの直線距離を算出し、算出した各直線距離から最も短い直線距離に対応するVVを決定し、当該画素に、決定されたVVを対応付ける。画像処理部206は、同じVVが対応付けられた各画素を同じグループに設定する。画像処理部206は、隣接する画素が別のグループに属する画素間の位置から、各グループを分ける1本の境界線B12を決定する。
 ステップ704では、画像処理部206は、境界線B11又はB12に基づいて、脈絡膜血管上の各画素を、複数のVVの中のどのVV(1つのみ)に関連するのかを決定する。
 第1の分類方法における各VVに関連する領域に重複領域が設定される方法を説明する。図9A及び図9Bには、隣り合うVV1とVV2とが存在する部分の脈絡膜血管画像が示されている。図9Aに示すように、画像処理部206は、動的輪郭処理(Snakes法やLevel set処理)とを組み合わせることにより、2本の境界線B21、B22を決定する。図9Aに示す例では、画像処理部206は、境界線B21、B22の中で、VV1に近い境界線B21からVV2側に位置する脈絡膜血管上の各画素をVV2に関連する画素として分類する。画像処理部206は、境界線B21、B22の中で、VV2に近い境界線B22からVV1側に位置する脈絡膜血管上の各画素をVV1に関連する画素として分類する。画像処理部206は、境界線B21と境界線B22とに挟まれた領域に位置する脈絡膜血管上の各画素を、VV1とVV2とに関連する画素として分類する。また、グラフカット処理と動的輪郭処理とを組み合わせる方法でも2本の境界線B21、B22を決定することができる。
 各VVに関連する領域に重複領域が設定される方法としては、上述の方法以外に次の方法もある。図9Bに示すように、画像処理部206は、各VVについて、VVを中心として所定長さの半径の円C1、C2を設定し、円C1、C2の各々の円周を境界線として設定する。画像処理部206は、円C1にも円C2にも属さない脈絡膜血管上の各画素と、円C1と円C2とが重なる場合には、当該重なる領域内の脈絡膜血管上の各画素とを、VV1とVV2との双方に関連する重複領域に位置する画素として分類する。画像処理部206は、重複領域を除いて円C1内の脈絡膜血管上の各画素を、VV1に関連する画素として分類する。画像処理部206は、重複領域を除いて円C2内の脈絡膜血管上の各画素を、VV2に関連する画素として分類する。
 次に、第2の分類方法における、脈絡膜血管上で境界点を決定してから、分類する方法を説明する。図10には、隣り合うVV1とVV2とが存在する部分の脈絡膜血管画像が示されている。画像処理部206は、脈絡膜血管を細線化する。画像処理部206は、細線化された脈絡膜血管上の各画素について、細線化された脈絡膜血管に沿って各VVまでの画素数を計数する。画像処理部206は、各画素数が最も少ない画素数に対応するVVを決定し、当該画素に、決定されたVVを対応付ける。画像処理部206は、同じVVが対応付けられた各画素を同じグループに設定する。画像処理部206は、細線化された脈絡膜血管上の隣接する画素が別のグループに属する画素間の位置を境界点P1、P2として決定する。画像処理部206は、境界点P1、P2に基づいて、脈絡膜血管上の各画素を、複数のVVの中のどのVV(1つのみ)に関連するのかを決定することにより、分類する。
 次に、第3の分類方法における、境界線及び境界点を決定せずに分類する方法を説明する。図11には、隣り合うVV1とVV2とが存在する部分の脈絡膜血管画像が示されている。画像処理部206は、脈絡膜血管を細線化する。画像処理部206は、細線化された脈絡膜血管上の各画素について、細線化された脈絡膜血管に沿って各VV1、VV2までの画素数を計数する。画像処理部206は、どのVV1、VV2からでも細線化された脈絡膜血管に沿って計数された画素数が所定個以上の各画素を、各VV1、VV2に重複する画素として分類する。画像処理部206は、細線化された脈絡膜血管に沿って係数された画素数が所定個未満の各画素を、当該所定個未満の画素で辿られるVVに対応する画素として分類する。
 以上の何れかの分類処理が終了すると、血管面積算出処理は、ステップ706に進む。
 ステップ706で、画像処理部206は、検出された複数のVVの各々を識別する変数nを0に初期化し、ステップ708で、画像処理部206は、変数nを1インクリメントする。
 ステップ710で、画像処理部206は、変数nで識別されるVVnに連絡(接続)する、即ち、つながっている脈絡膜血管を、VVn連絡血管として、抽出する。図12A及び図12Bには、VVn(例えば、VV3(n=3))が存在する部分の脈絡膜血管画像が示されている。画像処理部206は、VVn(=3)につながる脈絡膜血管の画素を全て抽出してもよいが、まず、図12Aに示すように、脈絡膜血管画像において、VVn(=3)につながる脈絡膜血管の画素の中から、VVn(=3)に対応する画素として分類されている画素の部分のみを抽出する。画像処理部206は、図12Aに示すように、VVn(=3)の位置からつながる脈絡膜血管(上記分類された画素のみ)を、VV連絡血管として、抽出する。
 又は、画像処理部206は、図12Bに示すように、VV3の位置から一定範囲(一定の長さの半径の円C3)につながる脈絡膜血管(上記分類された画素のみ)を、VVn連絡血管として、抽出してもよい。
 ステップ712で、画像処理部206は、VVn連絡血管の中で、VVnの周囲の脈絡膜血管のみを、VVn周囲血管として抽出(特定)する。図13には、VVn(例えば、VV4(n=4))が存在する部分の脈絡膜血管画像が示されている。画像処理部206は、VVn連絡血管において、VVnから一定範囲(一定の長さの半径の円C4)を超える血管部分を消去することにより、残った血管部分を、VVn周囲血管として抽出する。
 VVnの周囲の脈絡膜血管(VVn周囲血管)は、本開示の技術の「渦静脈位置に関連する脈絡血管」の一例である。VVnの周囲の脈絡膜血管(VVn周囲血管)は、VVnに接続しており、本開示の技術の「渦静脈に接続する脈絡血管」の一例である。
 ステップ714で、画像処理部206は、VVn周囲血管の面積を算出する。例えば、
画像処理部206は、VVn周囲血管の各画素について、当該画素に対応する眼底の面積を読み出し、読み出した面積をVVn周囲血管の各画素について加算することにより、VVn周囲血管の面積を算出する。なお、画素に対応する眼底の面積は次の値を用いる。標準眼球モデルを患者の眼軸長に基づいて補正することにより、患者の眼球モデルを予め作成しておく。記憶装置254に、脈絡膜血管画像の各画素に対応して、患者の眼球モデル上の面積を記憶しておく。ステップ714では、画像処理部206は、記憶装置254に記憶されている上記画素に対応する面積を読み出して、用いる。
 ステップ716で、画像処理部206は、変数nが、検出されたVVの総数Nに等しいか否かを判断する。変数nが総数Nに等しいと判断されなければ、周囲血管の面積が算出されていないVVがあるので、血管面積算出処理は、ステップ708に戻って、以上の処理(ステップ708から716)を繰り返す。
 変数nが総数Nに等しいと判断されれば、全てのVVについて周囲血管の面積が算出されたので、血管面積算出処理(図6のステップ606)が終了し、画像処理は、ステップ608に進む。
 ステップ608で、画像処理部206は、解析処理を実行する。以下、解析処理を説明する。
 画像処理部206は、全てのVVについて算出された血管面積の統計的な値を算出する。統計的な値には、例えば、全てのVVについて算出された血管面積の平均値及び標準偏差、全てのVVについて算出された血管面積の中の最大値及び最小がある。
 統計的な値には、象限ごとの算出された血管面積の平均値、標準偏差、最大値、及び最小値がある。なお、画像処理部206は、脈絡膜血管網の分水嶺を検出し、検出された分水嶺に基づいて、象限を定める。なお、分水嶺は、脈絡膜血管画像において、脈絡膜血管の密度が他の領域より低い領域(例えば、曲線LX、LY(図14の脈絡膜血管画像表示フィールド544も参照))である。
 統計的な値には、象限間での、血管面積の平均値、標準偏差、最大値、及び最小値を比較した値がある。比較した値とは、各象限間での上記値(平均値、標準偏差、最大値、及び最小値)の差、標準偏差、最大値、及び最小値である。
 統計的な値には、以下のVV中心距離及びVV中心角度がある。具体的には、これらの値は次のように求められる。脈絡膜血管画像の各位置を、極座標(脈絡膜血管画像の中心からの距離及び角度)で表すグラフを作成し、VV(VV1からVV4)の重心位置及び重み付けした重心位置の少なくとも一方を中心位置として求め、上記グラフの中心から中心位置までの距離(VV中心距離)及び中心位置の角度(VV中心角度)を、求める。
 画像処理部206は、上記計算された統計的な値と、予め記憶装置254に記憶されている正常眼データベースに記憶されている対応する統計的な値との差を計算する。
 画像処理部206は、UWF眼底画像から、視神経乳頭及び黄斑の各々の位置を検出する。画像処理部206は、視神経乳頭と各VVとの距離、黄斑と各VVとの距離、視神経乳頭及び黄斑を結ぶ線と黄斑及び各VVを結ぶ線との角度と、視神経乳頭及び黄斑を結ぶ線と視神経乳頭及び各VVを結ぶ線との角度と、を算出する。
 画像処理部206は、全てのVVに対する中心位置として、重心位置及び各VVについて血管面積で重み付けした重心位置を算出する。
 ステップ608では、画像処理部206は、上記算出した値を、表示するための、ディスプレイ・スクリーンのデータを作成する。図14には、第1のディスプレイ・スクリーン500Aが示されている。図14に示すように、第1のディスプレイ・スクリーン500Aは、インフォメーションエリア502と、イメージディスプレイエリア504Aとを有する。インフォメーションエリア502には、患者IDディスプレイフィールド512、患者名ディスプレイフィールド514、年齢ディスプレイフィールド516、視力ディスプレイフィールド518、右眼/左眼ディスプレイフィールド520、及び眼軸長ディスプレイフィールド522を有する。患者IDディスプレイフィールド512から眼軸長ディスプレイフィールド522の各表示領域には、ビューワ150が、サーバ140から受信した情報に基づいて、各々の情報を表示する。
 イメージディスプレイエリア504Aは、眼底画像等を表示する領域である。イメージディスプレイエリア504Aには、以下の各表示フィールドが設けられている、具体的には、コメントフィールド530、UWF眼底画像表示フィールド542、脈絡膜血管画像表示フィールド544、第1の血管面積表示フィールド526、及び第2の血管面積表示フィールド528がある。
 コメントフィールド530は、ユーザである眼科医が観察した結果、又は診断結果を任意に入力できる備考欄である。
 UWF眼底画像表示フィールド542では、UWF眼底画像に、各VV(VV1からVV4)の位置を中心とした円(〇)と、中心位置として、重心位置及び重み付けした重心位置の少なくとも一方、図14に示す例では、重み付けした重心位置を中心とした円の領域(●)とが表示される。
 脈絡膜血管画像表示フィールド544には、脈絡膜血管画像に、各分水嶺を示す曲線LX、LY、VV連絡血管、及びVVn周囲血管を設定するための円C4(C41からC44)が表示される。
 第1の血管面積表示フィールド526では、各VVに対応して血管面積を示す棒グラフ、血管面積の平均値:○○[μm]、及び標準偏差:●●[μm]が表示される。「○○」には、血管面積の平均値の具体的な値が表示される。「●●」には、標準偏差の具体的な値が表示される。
 第2の血管面積表示フィールド528では、脈絡膜血管画像の各位置を、極座標(脈絡膜血管画像の中心からの距離及び角度)で表すグラフに、各VVの位置を中心とし、面積が血管面積に対応する円と、中心位置として、重心位置及び重み付けした重心位置の少なくとも一方とが表示される。図14に示す例では、重み付けした重心位置を中心として円の領域(●)が表示される。
 第2の血管面積表示フィールド528では、中心位置(例えば、重み付けした重心位置)の上記グラフの中心からの距離(VV中心距離):△△[μm]、及び中心位置の角度(VV中心角度):▲▲[deg]が表示される。△△[μm]には、VV中心距離の具体的な値が表示される。▲▲[deg]には、VV中心角度の具体的な値が表示される。
 以上のようにディスプレイ・スクリーンのデータの作成が終了すると、図6のステップ608の処理が終了し、ステップ610で、画像処理部206は、ステップ608で計算された各値及びディスプレイ・スクリーンのデータを、患者IDに対応して、記憶装置254に出力(記憶)する。
 なお、眼科医が患者を診断する際に、眼科医の操作に従ってビューワ150は、患者IDを指定して、患者IDに対応して記憶装置254に記憶されている各データを送信するように、サーバ140に指示する。サーバ140は、患者IDに対応して記憶装置254に記憶されている各データをビューワ150に送信する。ビューワ150は、受信した各データに基づいて、ディスプレイに、図14に示す第1のディスプレイ・スクリーン500Aを表示する。
 以上説明したように本実施の形態では、血管面積を計算している。脈絡膜血管に疾患があると、脈絡膜血管に対応するVVについて計算される血管面積が大きくなる。よって、眼科医等は、VVの血管面積から、VVの脈絡膜血管に疾患があるか否かを判断することができる。例えば、図14に示す例では、VV3の血管面積が、他のVVの血管面積よりも大きい。よって、眼科医等は、VV3の脈絡膜血管に疾患があるか否かを判断することができる。
 また、本実施の形態では、重み付けしない重心位置を計算すると共に、重み付けした重心位置を中心位置として計算する。例えば、血流が1か所に偏る疾患が生ずると、対応するVVが膨張し、血管面積が増え、血管面積を重みとしてVV中心点を算出すると、重み付けした重心位置が重み付けしない重心位置から、血管面積が増えたVV側にずれる。よって、眼科医等は、重み付けした重心位置と重み付けしない重心位置とから、血流が1か所に偏る疾患が生じているか否かを判断することができる。
 以上説明した実施の形態では、渦静脈(VV)の位置を、脈絡膜血管画像上の位置(X、Y)を検出している。本開示の技術はこれに限定されない。例えば、標準眼球モデルが患者IDに対応した記憶されている眼軸長で補正された眼球モデルを求め、求めた眼球モデルに脈絡膜血管画像を写像し、渦静脈(VV)の位置を、脈絡膜血管画像が写像されたた眼球モデル上の位置(X、Y,Z)として検出するようにしてもよい。図6のステップ608では、脈絡膜血管画像が写像されたた眼球モデルを用いて各値を算出する。
 例えば、各VVの位置vn=(xn、yn,zn)を算出する。
 全てのVVに対する中心位置vcenterは、vcenter=Rx(xcenter,ycenter,zcenter)により示されたベクトルで表される。Rは被検眼の眼軸長で補正された眼球モデルの半径である。
 ここで、xcenterは、数1により示された式により算出される。
Figure JPOXMLDOC01-appb-M000001

 
xcenterはxcを正規化したものであり、xcはxの重み付き平均により算出される。
 wnは、血管面積に関連する重みである。このように加重平均値を求めることに限定されず、m乗平均等を用いてもよい。
yc及びzcもxcと同様に算出される。ycenter及びzcenterもxcenterと同様に算出される。
 眼球モデルの中心からVVへ向かう各ベクトルに、血管面積分の重みを付け、重み付けられた各ベクトルを合成することにより、眼球モデルの中心からVV中心点へ向かうベクトルが算出される。
 図15には、図6のステップ608で眼球モデルを用いて各値を算出する場合の、第2のディスプレイ・スクリーン500Bが示されている。図15に示すように、第2のディスプレイ・スクリーン500Bは、第1のディスプレイ・スクリーン500Aと略同様であるので、異なる部分を説明する。
 第2のディスプレイ・スクリーン500Bは、第1のディスプレイ・スクリーン500Aにおける第1の血管面積表示フィールド526及び第2の血管面積表示フィールド528の少なくとも1つに代えて、眼球モデル表示フィールド532が設けられている。なお、図15に示す例では、第2の血管面積表示フィールド528に代えて、眼球モデル表示フィールド532が設けられている。眼球モデル表示フィールド532では、各VV(VV1からVV4)へのベクトルと、重心位置及び重み付けした重心位置の少なくとも一方へのベクトルとが表示される。図15に示す例では、重み付けした重心位置へのベクトルが表示される。
 また、前述した実施の形態では、UWF眼底画像から得られた脈絡膜血管画像を用いて、血管面積を計算している。本開示の技術はこれに限定されない。例えば、OCTボリュームデータに基づく立体画像(三次元画像)を用いて、血管体積を計算するようにしてもよい。この場合、ステップ608では、血管面積に代えて、血管体積を用いる。例えば、上記重み付けは、当該血管体積を用いる。
 以上説明した各例では、コンピュータを利用したソフトウェア構成により画像処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA(Field-Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)等のハードウェア構成のみによって、画像処理が実行されるようにしてもよい。画像処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。
 このように本開示の技術は、コンピュータを利用したソフトウェア構成により画像処理が実現される場合とされない場合とを含むので、以下の技術を含む。
(第1の技術)
 脈絡膜血管画像を取得する取得部と、
 前記脈絡膜血管画像から渦静脈位置を検出する検出部と、
 前記渦静脈位置に関連する脈絡膜血管を特定する特定部と、
 前記脈絡膜血管の大きさを計算する計算部と、
 を備える画像処理装置。
(第2の技術)
 取得部が、脈絡膜血管画像を取得するステップと、
 検出部が、前記脈絡膜血管画像から渦静脈位置を検出するステップと、
 特定部が、前記渦静脈位置に関連する脈絡膜血管を特定するステップと、
 計算部が、前記脈絡膜血管の大きさを計算するステップと、
 画像処理方法。
 画像処理部206は、本開示の技術の「取得部」、「検出部」、「特定部」、及び「計算部」の一例である。
 以上の開示内容から以下の技術が提案される。
(第3の技術)
 画像処理するためのコンピュータープログラム製品であって、
 前記コンピュータープログラム製品は、それ自体が一時的な信号ではないコンピュータ可読記憶媒体を備え、
 前記コンピュータ可読記憶媒体には、プログラムが格納されており、
 前記プログラムは、
 コンピュータに、
 脈絡膜血管画像を取得するステップと、
 前記脈絡膜血管画像から渦静脈位置を検出するステップと、
 前記渦静脈位置に関連する脈絡膜血管を特定するステップと、
 前記脈絡膜血管の大きさを求めるステップと、
 を実行させる、
 コンピュータープログラム製品。
 サーバ140は、本開示の技術の「コンピュータープログラム製品」の一例である。
 以上説明した各画像処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 日本出願特願2020-073123号の開示はその全体が参照により本明細書に取り込まれる。
 本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的にかつ個々に記載された場合と同様に、本明細書中に参照により取り込まれる。

Claims (8)

  1.  プロセッサが行う画像処理であって、
     脈絡膜血管画像を取得するステップと、
     前記脈絡膜血管画像から渦静脈位置を検出するステップと、
     前記渦静脈位置に関連する脈絡膜血管を特定するステップと、
     前記脈絡膜血管の大きさを求めるステップと、
     を含む画像処理方法。 
  2.  前記渦静脈位置を検出するステップでは、複数の渦静脈位置を検出し、
     前記特定するステップでは、前記複数の渦静脈位置に関連する脈絡膜血管を特定し、
     前記大きさを求めるステップでは、前記複数の渦静脈の各々ついて脈絡膜血管の大きさを求め、
     前記複数の渦静脈の各々の渦静脈位置及び大きさに基づいて、前記複数の渦静脈の中心位置を計算するステップをさらに含む、
     請求項1記載の画像処理方法。
  3.  前記特定するステップでは、渦静脈に接続する脈絡膜血管を特定する、請求項1または請求項2に記載の画像処理方法。
  4.  前記特定するステップでは、前記渦静脈位置を含む所定範囲内に接続する脈絡膜血管を特定する、請求項1または請求項2に記載の画像処理方法。
  5.  前記大きさを求めるステップでは、前記渦静脈位置を含む一定範囲内に位置する脈絡膜血管の大きさを求める、請求項1から請求項4の何れか1項に記載の画像処理方法。
  6.  前記脈絡膜血管の大きさは、前記脈絡膜血管の面積及び体積の少なくとも一方である、請求項1から請求項5の何れか1項に記載の画像処理方法。
  7.  メモリと、前記メモリに接続するプロセッサとを備え、
     前記プロセッサは、
     脈絡膜血管画像を取得するステップと、
     前記脈絡膜血管画像から渦静脈位置を検出するステップと、
     前記渦静脈位置に関連する脈絡膜血管を特定するステップと、
     前記脈絡膜血管の大きさを求めるステップと、
     を実行する画像処理装置。
  8.  コンピュータに、
     脈絡膜血管画像を取得するステップと、
     前記脈絡膜血管画像から渦静脈位置を検出するステップと、
     前記渦静脈位置に関連する脈絡膜血管を特定するステップと、
     前記脈絡膜血管の大きさを求めるステップと、
     を実行させるプログラム。
PCT/JP2021/009001 2020-04-15 2021-03-08 画像処理方法、画像処理装置、及びプログラム WO2021210295A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022515242A JPWO2021210295A1 (ja) 2020-04-15 2021-03-08
US17/919,037 US20230237684A1 (en) 2020-04-15 2021-03-08 Image processing method, image processing device, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020073123 2020-04-15
JP2020-073123 2020-04-15

Publications (1)

Publication Number Publication Date
WO2021210295A1 true WO2021210295A1 (ja) 2021-10-21

Family

ID=78083844

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/009001 WO2021210295A1 (ja) 2020-04-15 2021-03-08 画像処理方法、画像処理装置、及びプログラム

Country Status (3)

Country Link
US (1) US20230237684A1 (ja)
JP (1) JPWO2021210295A1 (ja)
WO (1) WO2021210295A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019203309A1 (ja) * 2018-04-18 2019-10-24 株式会社ニコン 画像処理方法、プログラム、画像処理装置、及び眼科システム
WO2019203311A1 (ja) * 2018-04-18 2019-10-24 株式会社ニコン 画像処理方法、プログラム、及び画像処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019203309A1 (ja) * 2018-04-18 2019-10-24 株式会社ニコン 画像処理方法、プログラム、画像処理装置、及び眼科システム
WO2019203311A1 (ja) * 2018-04-18 2019-10-24 株式会社ニコン 画像処理方法、プログラム、及び画像処理装置

Also Published As

Publication number Publication date
US20230237684A1 (en) 2023-07-27
JPWO2021210295A1 (ja) 2021-10-21

Similar Documents

Publication Publication Date Title
JP2023009530A (ja) 画像処理方法、画像処理装置、及びプログラム
WO2019203309A1 (ja) 画像処理方法、プログラム、画像処理装置、及び眼科システム
JP7521629B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、及び血管径算出装置
WO2021075062A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP2024105697A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2023158161A (ja) 画像処理方法、プログラム、画像処理装置、及び眼科システム
CN111989030B (zh) 图像处理方法、程序及图像处理装置
WO2021074960A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7419946B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2020058647A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2021210295A1 (ja) 画像処理方法、画像処理装置、及びプログラム
US11419495B2 (en) Image processing method, image processing device, and storage medium
JP2022089086A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2021111840A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2021210281A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7416083B2 (ja) 画像処理方法、画像処理装置、およびプログラム
WO2022113409A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2022177028A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2023282339A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び眼科装置
WO2021074961A1 (ja) 画像処理方法、画像処理装置、およびプログラム
WO2022181729A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2023199847A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2023199848A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP2023066198A (ja) 情報出力装置、眼底画像撮影装置、情報出力方法、及び情報出力プログラム
WO2021074963A1 (ja) 画像処理方法、画像処理装置、プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21787779

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022515242

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21787779

Country of ref document: EP

Kind code of ref document: A1