WO2021048954A1 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
WO2021048954A1
WO2021048954A1 PCT/JP2019/035727 JP2019035727W WO2021048954A1 WO 2021048954 A1 WO2021048954 A1 WO 2021048954A1 JP 2019035727 W JP2019035727 W JP 2019035727W WO 2021048954 A1 WO2021048954 A1 WO 2021048954A1
Authority
WO
WIPO (PCT)
Prior art keywords
wavelength
image
fundus
image processing
light
Prior art date
Application number
PCT/JP2019/035727
Other languages
English (en)
French (fr)
Inventor
古谷 俊輔
朋春 藤原
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to PCT/JP2019/035727 priority Critical patent/WO2021048954A1/ja
Priority to JP2021545035A priority patent/JPWO2021048954A1/ja
Publication of WO2021048954A1 publication Critical patent/WO2021048954A1/ja
Priority to JP2023214958A priority patent/JP2024041773A/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes

Definitions

  • the present invention relates to an image processing apparatus, an image processing method, and an image processing program.
  • U.S. Pat. No. 10,136,812 discloses an optical interference tomography device that selectively visualizes the choroidal vascular network and an image processing program thereof, which obtains image data of the choroidal vascular network existing in the layer of the choroid. A suitable image processing method for selective extraction is desired.
  • the image processing apparatus is in a predetermined wavelength range showing a first fundus image captured by the first light of the first wavelength and a hue close to the hue indicated by the first wavelength.
  • the image processing method of the second aspect of the technique of the present disclosure is to set the first fundus image taken by the first light of the first wavelength and a predetermined wavelength range showing a hue close to the hue indicated by the first wavelength.
  • An image processing program is a predetermined image processing program in which a computer exhibits a first fundus image taken with the first light of the first wavelength and a hue close to the hue indicated by the first wavelength.
  • the ophthalmology system 100 includes an ophthalmology device 110, a server device (hereinafter referred to as “server”) 140, and a display device (hereinafter referred to as “viewer”) 150.
  • the ophthalmic apparatus 110 acquires a fundus image.
  • the server 140 stores a plurality of fundus images and axial lengths obtained by photographing the fundus of a plurality of patients by the ophthalmologic apparatus 110, corresponding to the IDs of the patients.
  • the viewer 150 displays the fundus image and the analysis result acquired by the server 140.
  • the ophthalmic apparatus 110, the server 140, and the viewer 150 are connected to each other via the network 130.
  • the viewer 150 is a client in a client-server system, and a plurality of viewers 150 are connected via a network. Further, a plurality of servers 140 may be connected via a network in order to ensure system redundancy.
  • the ophthalmic apparatus 110 has an image processing function and an image viewing function of the viewer 150, the ophthalmologic apparatus 110 can acquire a fundus image, perform image processing, and view an image in a stand-alone state.
  • the server 140 is provided with the image viewing function of the viewer 150, the ophthalmic apparatus 110 and the server 140 can be configured to acquire a fundus image, perform image processing, and view an image.
  • a diagnostic support device that performs image analysis using other ophthalmic devices (inspection devices such as visual field measurement and intraocular pressure measurement) and AI (Artificial Intelligence) is connected to the ophthalmic device 110, the server 140, and the viewer via the network 130. It may be connected to 150.
  • ophthalmic devices inspection devices such as visual field measurement and intraocular pressure measurement
  • AI Artificial Intelligence
  • the ophthalmic apparatus 110 includes a control unit 20, a display / operation unit 30, and an SLO unit 40A.
  • the posterior eye portion (fundus) of the eye to be inspected 12 is photographed.
  • an OCT unit (not shown) for acquiring OCT data of the fundus may be provided.
  • SLO scanning laser ophthalmoscope.
  • OCT optical coherence tomography.
  • the control unit 20 includes a computer having a CPU 22, a memory 24, a communication interface (I / F) 26, and the like.
  • the display / operation unit 30 is a graphic user interface for displaying an image obtained by being photographed and receiving various instructions including an instruction for photographing, and includes a display 32 and an input / instruction device 34.
  • the SLO controller unit 180 (including the SLO light source control unit 1804 and the scanner control unit 1806), the image processing unit 182, the display control unit 184, and the output.
  • the CPU 22 functions as a unit 186.
  • the image processing may be performed on the server 140 or the viewer 150.
  • the CPU of the server 140 or the viewer 150 does not have the SLO control unit 180 shown in FIG. 3, but includes an image processing unit 182, a display control unit 184, and an output unit 186.
  • the image processing unit 182 corresponds to the "image processing unit" of the technique of the present disclosure.
  • the memory 24 stores a photographing processing program and an image processing program for photographing the fundus of the eye to be examined 12, which will be described later.
  • the photographing processing program and the image processing program correspond to the "image processing program" of the technique of the present disclosure.
  • the SLO unit 40A includes a light source 42 for G light (green light: wavelength 532 nm), a light source 44A for first R light (red light: wavelength 575 nm to 800 nm), and second R light (red light: wavelength 575 nm) having a wavelength different from that of the first R light. It is provided with a light source 44B (from 800 nm) and a light source 46 of IR light (infrared (near infrared light): wavelength 802 nm or more).
  • the light sources 42, 44A, 44B, and 46 are commanded by the control unit 20 to emit each light.
  • an LED light source or a laser light source can be used as the light sources 42, 44A, 44B, and 46. An example using a laser light source will be described below.
  • the on / off of the light sources 42, 44A, 44B, and 46 is controlled by the SLO light source control unit 1804 of the SLO control unit 180 of the CPU 22.
  • the SLO unit 40A includes optical systems 50, 52A, 52B, 54, 56 that reflect or transmit light from light sources 42, 44A, 44B, 46 and guide them to one optical path.
  • the optical systems 50 and 56 are mirrors.
  • the optical systems 52A, 52B, and 54 are beam splitters, specifically, dichroic mirrors, half mirrors, and the like whose reflectance and transmittance are adjusted according to the wavelength of the light source.
  • the G light is reflected by the optical system 50 and then transmitted through the optical system 52A and further reflected by the optical system 54.
  • the first R light is reflected by the optical system 52A and then reflected by the optical system 54 and is reflected by the second R.
  • the light passes through the optical systems 52B and 54, and the IR light is reflected by the optical systems 52B and 56 and guided to one optical path, respectively.
  • the SLO unit 40A includes a wide-angle optical system 80 that scans the light from the light sources 42, 44A, 44B, and 46 over the posterior eye portion (fundus) of the eye 12 to be examined in a two-dimensional manner.
  • the SLO unit 40A includes a beam splitter 58 that reflects G light and transmits other than G light among the light from the rear eye portion (fundus) of the eye 12 to be inspected.
  • the SLO unit 40A includes a beam splitter 60A that reflects the first R light and transmits other than the first R light among the light transmitted through the beam splitter 58.
  • the SLO unit 40A includes a beam splitter 60B that reflects the second R light and transmits other than the second R light among the light transmitted through the beam splitter 60A.
  • the SLO unit 40A includes a beam splitter 62 that reflects IR light among the light transmitted through the beam splitter 60B.
  • a beam splitter 62 that reflects IR light among the light transmitted through the beam splitter 60B.
  • a dichroic mirror, a half mirror, or the like can be used as the beam splitters 58, 60A, 60B, 62.
  • the two-dimensional scanning by the wide-angle optical system 80 is controlled by the scanner control unit 1806 of the SLO control unit 180 of the CPU 22.
  • the SLO unit 40A receives the G light detection element 72 that detects the G light reflected by the beam splitter 58, the R1 light detection element 74A that detects the first R light reflected by the beam splitter 60A, and the second R light reflected by the beam splitter 60B. It includes an R2 light detection element 74B for detection and an IR light detection element 76 for detecting IR light reflected by the beam splitter 62.
  • Examples of the photodetector elements 72, 74A, 74B, 76 include PD (photodiode) and APD (avalanche photodiode).
  • the photodetector elements 72, 74A, 74B, 76 correspond to the "acquisition unit" of the technique of the present disclosure.
  • the light reflected (scattered) by the fundus of the eye, which is an object, and returned reaches the photodetector through the X-direction scanning device 82 and the Y-direction scanning device 84, which will be described later, so that the light is always at the same position, that is, It returns to the position where the photodetector elements 72, 74A, 74B, 76 exist. Therefore, it is not necessary to configure the photodetector in a planar shape (two-dimensional) like an area sensor, and a point-shaped (0-dimensional) detector such as PD or APD is optimal in this embodiment. However, not limited to PD or APD, it is also possible to use a line sensor (one-dimensional) or an area sensor (two-dimensional).
  • the wide-angle optical system 80 includes an X-direction scanning device 82 composed of polygon mirrors that scan light from light sources 42, 44A, 44B, and 46 in the X direction, and Y-direction scanning composed of a galvano mirror that scans in the Y direction.
  • the device 84 includes a concave mirror such as an elliptical mirror capable of irradiating scanned light at an ultra-wide angle (UWF: Ultra WideField), and an optical system 86 composed of a lens system composed of a plurality of lenses.
  • Each scanning device of the X-direction scanning device 82 and the Y-direction scanning device 84 may use a MEMS (Micro Electro Mechanical System) mirror.
  • MEMS Micro Electro Mechanical System
  • two-dimensional scanning may be performed by one MEMS mirror without providing a scanner in each of the X direction and the Y direction.
  • the horizontal direction is the "X direction”
  • the vertical direction with respect to the horizontal plane is the "Y direction", connecting the center of the pupil of the anterior segment of the eye 12 to the center of the eyeball.
  • the direction is "Z direction”. Therefore, the X, Y, and Z directions are perpendicular to each other.
  • the viewing angle (FOV: Field of View) of the fundus is set to an ultra-wide angle, and the range of the fundus with an internal irradiation angle of 200 degrees can be photographed starting from the center of the eyeball. That is, it is possible to photograph a region beyond the equator from the posterior pole of the fundus of the eye 12 to be inspected.
  • FIG. 4 is an explanatory diagram illustrating the depth of penetration of light for each wavelength of the fundus structure.
  • the blue wavelength ⁇ 1A having a wavelength of 488 nm is scattered or reflected in the upper part of the retina
  • the green wavelength ⁇ 2A having a wavelength of 532 nm is scattered or reflected in the lower part of the retina within 0.2 mm from the surface of the retina.
  • the red two-wavelength ⁇ 2B having a wavelength of 670 nm is scattered or reflected by the choroidal membrane existing in the range of 0.2 mm to 0.8 mm starting from the surface of the retinal.
  • the blood vessels of the choroid remarkably scatter / reflect red light due to hemoglobin contained in blood. Therefore, red light is suitable for observing choroidal blood vessels.
  • melanin which has a high first reflectance of red light, is present in the choroid. Since melanin is contained in the entire choroid including blood vessels, it may be difficult to distinguish the vascular portion of the choroid from the interstitial portion other than the blood vessels when observing the fundus with red light.
  • FIG. 5 is an explanatory diagram illustrating the relative reflection characteristic ratios of blood (hemoglobin) and melanin for each wavelength.
  • the relative reflection characteristic ratio of melanin increases monotonically as the wavelength becomes longer, but the relative reflection characteristic ratio of blood increases as the wavelength becomes longer as a general tendency, although the relative reflection characteristic ratio increases slightly.
  • the relative reflection characteristic ratio of blood increases sharply, but the relative reflection characteristic ratio of melanin does not increase as much as the relative reflection characteristic ratio of blood. Therefore, when the images of the fundus taken at each of the two different wavelengths included in the first wavelength region Z1A are compared, it can be determined from FIG. 5 that the brightness values of the blood-derived portion, that is, the pixels related to the blood vessels are different.
  • the part derived from melanin that is, the part of the choroid other than the blood vessel (interstitium) is a pixel showing the part derived from melanin when comparing the images of the fundus taken at each of the two different wavelengths included in the first wavelength region Z1A.
  • the brightness values of melanin are different, it can be judged from FIG. 5 that the change is not as remarkable as in the case of blood.
  • the first and second wavelengths can be selected from any of 589 nm, 633 nm, 638 nm, 650 nm, 658 nm, 670 nm, 685 nm, 690 nm, 705 nm, 730 nm, 780 nm and 785 nm.
  • the products having the above wavelengths may be selected as the light source.
  • a wideband wavelength light source capable of emitting a laser having a wavelength of 680 ⁇ 10 nm can also be selected.
  • the second wavelength image taken by the second R light and the second wavelength image are acquired respectively.
  • the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image is subtracted from the brightness value of each pixel of the first wavelength image to obtain the blood vessels of the choroid (hereinafter abbreviated as "corrosion blood vessels").
  • corrosion blood vessels hereinafter abbreviated as "corrosion blood vessels"
  • the first wavelength and the second wavelength may be selected from the second wavelength region Z2A having a wavelength of 650 nm to 800 nm.
  • the relative reflection characteristic ratio of melanin increases monotonically, but the relative reflection characteristic ratio of blood is almost flat. Therefore, when comparing the images of the fundus taken at each of the different first wavelengths and the second wavelengths included in the second wavelength region Z2A, the pixels related to the melanin-derived portion, that is, the choroidal membrane portion (interstitium) other than the blood vessels. It can be determined from FIG. 5 that the brightness values of the above are different.
  • the blood-derived part that is, the choroidal blood vessel part, almost changes to the brightness value of the pixel showing the choroidal blood vessel when comparing the images of the fundus taken at each of the first wavelength and the second wavelength included in the second wavelength region Z2A. It can be determined from FIG. 5 that there is no such thing.
  • FIG. 6 is a flowchart showing image processing in the ophthalmic apparatus 110 according to the present embodiment.
  • the processing shown in FIG. 6 is performed by the control unit of the ophthalmic apparatus 110, for example, based on the imaging processing program and the image processing program stored in the memory 24.
  • the sole of the eye is irradiated with the first R light indicating the first wavelength from the light source 44A and the second R light indicating the second wavelength from the light source 44B under the control of the SLO light source control unit 1804 and the scanner control unit 1806.
  • the first wavelength image and the second wavelength image are acquired. If the SLO unit 40A has the configuration shown in FIG.
  • the first R light is emitted from the light source 44A and the second R light is emitted from the light source 44B at the same time, and the first wavelength image is obtained by the R1 photodetector 74A.
  • a second wavelength image can be acquired by the R2 photodetector element 74B.
  • FIG. 7A shows a second wavelength image
  • FIG. 7B shows a first wavelength image
  • the first wavelength is approximately 575 nm, which is the lower limit of the first wavelength region Z1A
  • the second wavelength is approximately 650 nm, which is the upper limit of the first wavelength region Z1A
  • the pixel showing the bifurcation point VBU2 of the retinal blood vessel is darker than the other parts in the first wavelength image.
  • the pixels showing the vortex veins 12V1A, 12V2A, 12V3A, 12V4A and the bifurcation point VBU1 of the retinal blood vessels are brighter in the second wavelength image than the other parts as shown in FIG. 7A.
  • the optic nerve heads ONHU1 and ONHU2 are photographed with high brightness (white in the drawing), but the optic nerve heads ONHU1 and ONHU2 are relative in the first wavelength region Z1A. Since the reflection characteristic ratio is high, it is bright in both cases of FIGS. 7A and 7B.
  • the pixels showing the choroidal blood vessels are different from those in FIGS. 7A and 7B, and the first wavelength image and the second wavelength image There is almost no change in brightness.
  • the relative reflection characteristic ratio of blood hemoglobin
  • the relative reflection characteristic ratio of melanin increases monotonically, so that the first wavelength is approximately 650 nm, which is the lower limit of the second wavelength region Z2A, and the second wavelength is the second wavelength.
  • the upper limit of the two-wavelength region Z2A is approximately 800 nm, the pixels showing the stromal portion other than the choroidal blood vessel containing a large amount of melanin become dark in the first wavelength image and bright in the second wavelength image.
  • step 202 the image processing unit 182 aligns the first wavelength image with the second wavelength image.
  • the procedure of step 202 is not always necessary, but the first wavelength image and the second wavelength image are acquired at different timings. In that case, alignment is required.
  • the alignment of the first wavelength image and the second wavelength image is multiple from the bifurcation points of the choroidal blood vessels and retinal blood vessels shown in FIGS. 7A and 7B, the characteristic vascular structure, or the structure of the fundus of the eye such as the optic nerve head.
  • a plurality of characteristic patterns of the above are extracted as feature points, and the first wavelength image and the second wavelength image are aligned so that the pixels of the extracted feature points match.
  • step 204 the image processing unit 182 subtracts the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image from the brightness value of each pixel of the first wavelength image to create a difference image.
  • This difference image is also a choroidal blood vessel-enhanced image in which the choroidal blood vessel is emphasized.
  • FIG. 8 is an explanatory diagram showing the concept of creating a difference image between the first wavelength image and the second wavelength image. As shown in FIG. 8, a difference image is generated by subtracting the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image from the brightness value of each pixel of the first wavelength image.
  • the result of subtracting the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image from the brightness value of each pixel of the first wavelength image may be negative, but in such a case, it may be negative.
  • the absolute value of the result is taken as the brightness value of the difference image.
  • the first wavelength image and the second wavelength image are derived from blood. That is, the brightness values of the pixels related to the blood vessels (vortex veins 12V1A, 12V1B, 12V2A, 12V2B, 12V3A, 12V3B, 12V4A, 12V4B and the bifurcation points of the retinal blood vessels VBU1, VBU2) are different.
  • the difference in brightness of the pixels related to the blood vessels between the first wavelength image and the second wavelength image becomes large, and in the difference image, the pixels related to the vortex veins 12V1C, 12V2C, 12V3C, 12V4C and the bifurcation point VBU3 of the retinal blood vessels are bright. It is expressed (whitish).
  • the optic nerve papilla ONHU1 and ONHU2 are in the first wavelength image and the second wavelength image, respectively. It appears white, and the brightness values of the pixels related to the optic nerve papilla ONHU1 and ONHU2 in each of the first wavelength image and the second wavelength image are substantially the same, so that the brightness values of the pixels related to the optic nerve papilla ONHU3 in the difference image are approximately 0. .. Therefore, in the difference image, the pixels related to the optic disc ONHU3 are black as shown in FIG.
  • the blood-derived portion that is, the pixel related to the blood vessel.
  • the brightness value does not change much.
  • the difference in brightness between the pixels related to the blood vessels between the first wavelength image and the second wavelength image becomes small, and the pixels related to the blood vessels are expressed dark (blackish) in the difference image.
  • the first wavelength image and the second wavelength image show a part of the choroid other than the blood vessel containing a large amount of melanin (interstitium).
  • the brightness value of the pixel indicating) changes.
  • the difference in brightness between the first wavelength image and the second wavelength image of the pixels related to the choroidal part other than the blood vessels becomes large, and the pixels related to the choroidal part (interstitium) other than the blood vessels become brighter in the difference image (the difference image). It is expressed (whitish).
  • the image processing unit 182 generates a choroidal blood vessel image by binarizing the difference image.
  • the pixels showing the choroidal blood vessels have different luminance values from the pixels showing the portion (interstitium) other than the choroidal blood vessels. Therefore, a choroidal blood vessel image can be generated by binarizing the difference image with an appropriate threshold value.
  • the difference image since the choroidal blood vessel can be clearly distinguished from other parts in the difference image created in step 204, the difference image may be used as a choroidal blood vessel image.
  • step 208 the choroidal blood vessel image is output and the process is completed.
  • the display control unit 184 sets the choroidal blood vessel image and the patient attribute information (patient name, age, information from the right or left eye for each fundus image, axial length, visual acuity, and imaging date and time) corresponding to the patient ID. Etc.) is reflected in the display screen 500 described later. Then, the display screen 500 is displayed on the display 32 of the ophthalmic apparatus 110.
  • the output unit 186 outputs the display screen 500 to the 100 million device of the server 140.
  • the display screen 500 is stored in the billionaire device of the server 140.
  • the display screen 500 stored in the memory device of the server 140 is transmitted to the viewer 150 in response to an operation from the viewer 150, and is output to the display unit of the viewer 150 in a viewable state.
  • the process shown in FIG. 6 may be executed by the CPU included in the server 140.
  • the display image 500 is displayed on the display of the server 140, and the display image 500 is stored in the storage device of the server 140.
  • the process shown in FIG. 6 may be executed by the CPU included in the viewer 150.
  • the display image 500 is displayed on the display of the viewer 150, and the display image 500 is stored in the storage device of the viewer 150 and the storage device of the server 140, respectively.
  • FIG. 9 is a schematic view showing a display screen 500 displayed on the display 32 of the ophthalmic device 110.
  • the display screen 500 has an information display area 502 and an image display area 504.
  • the information display area 502 includes a patient ID display area 512, a patient name display area 514, an age display area 516, a right eye / left eye display area 518, an axial length display area 520, a visual acuity display area 522, and an imaging date / time display area. It has 524.
  • the viewer 150 displays each information from the patient ID display area 512 to each display area of the imaging date / time display area 524 based on the received information.
  • the information display area 502 is provided with an image selection icon 530 and a display switching icon 640.
  • the image display area 504 has a choroidal blood vessel image display area 550 and a related image display area 560.
  • a choroidal blood vessel image is displayed in the choroidal blood vessel image display area 550.
  • the choroidal blood vessel image display area 550 is provided with a slide bar 580 that changes the contrast of the image below the displayed choroidal blood vessel image. By operating the slide bar 580 left and right, the clarity of the pixels of the choroidal blood vessels can be arbitrarily adjusted.
  • the pull-down menu 570 is displayed.
  • the pull-down menu 570 displayed with the image selection icon 530 turned on has a menu for selecting a related image to be displayed in the related image display area 560.
  • the pseudo-color (RGB3 color) image, RG color image, blue monochromatic image, green monochromatic image, red (first R light) monochromatic image, and red (first R light) monochromatic image of the fundus of the eye 12 to be inspected have already been acquired.
  • Second R light A monochromatic image, a difference image which is a choroidal blood vessel image, and the like are displayed.
  • FIG. 9 shows how a pseudo-color image is displayed in the related image display area 560.
  • a difference image which is a choroidal blood vessel image
  • the choroidal blood vessel image is displayed in the choroidal blood vessel image display area 550 and the related image display area 560, respectively.
  • the left-right positional relationship between the choroidal blood vessel image display area 550 and the related image display area 560 is reversed.
  • the choroidal blood vessel image display area 550 is displayed on the left side of the image display area 504, and the related image display area 560 is displayed on the right side of the image display area 504.
  • the choroidal blood vessel image display area 550 is displayed on the right side of the area 504, and the related image display area 560 is displayed on the left side of the image display area 504.
  • the brightness value of each pixel of the first wavelength image captured by the first R light of the first wavelength is photographed by the second R light of the second wavelength different from the first wavelength. It is possible to obtain a difference image in which the choroidal blood vessels are emphasized by subtracting the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image. By further binarizing this difference image, a choroidal blood vessel image existing in the layer of the choroid can be generated. By processing the choroidal blood vessel image, it is possible to obtain data on the choroidal vascular network consisting of the thickness and length of the choroidal blood vessel, and to perform image processing such as identifying the position of the vortex vein existing in the choroid. become.
  • the choroid contains melanin, which has a relative reflex characteristic rate similar to that of hemoglobin derived from blood, images taken with light of a single wavelength contain noise due to melanin.
  • attention is paid to the difference in the relative reflection characteristic ratios of blood (hemoglobin) and melanin for two lights having different wavelengths in the wavelength range showing red, and the fundus image taken with the two lights.
  • choroidal blood vessel congestion thickening of the choroidal blood vessel when congested
  • asymmetry of the position of the vortex vein which are considered to be a sign of fundus disease
  • the image data of the macula is selectively extracted from the fundus structures.
  • FIG. 10 is a schematic view showing an ophthalmic apparatus 610 according to the present embodiment. Since the ophthalmic apparatus 610 according to the present embodiment is the same as the ophthalmic apparatus 110 according to the first embodiment except for the above-described configuration, the ophthalmic apparatus has the same configuration as the ophthalmic apparatus 110 according to the first embodiment. The same reference numerals as 110 are given, and detailed description thereof will be omitted.
  • the SLO unit 40B of the ophthalmic apparatus 610 has a light source 42A of the first G light (green light: wavelength 440 nm to 560 nm) and a second G light (green light: wavelength 440 nm to 560 nm) having a wavelength different from that of the first G light. 42B, a light source 44 for R light (red light: wavelength 650 nm), and a light source 46 for IR light (infrared light (near infrared light): wavelength 800 nm).
  • the on / off of the light sources 42A, 42B, 44, and 46 is controlled by the SLO light source control unit 1804 of the SLO control unit 180 of the CPU 22.
  • the SLO unit 40B of the ophthalmic apparatus 610 reflects or transmits light from the light sources 42A, 42B, 44, 46 and guides the light to one optical path 50A, 50B, 52, 54, It has 56.
  • the optical systems 50A and 56 are mirrors.
  • the optical systems 50B, 52, and 54 are beam splitters, specifically, dichroic mirrors, half mirrors, and the like whose reflectance and transmittance are adjusted according to the wavelength of the light source.
  • the first G light is reflected by the optical system 50A and then transmitted through the optical system 50B and further reflected by the optical system 54, and the second G light is reflected by the optical system 50B and then reflected by the optical system 54.
  • the light passes through the optical systems 52 and 54, and the IR light is reflected by the optical systems 52 and 56 and guided to one optical path, respectively.
  • the SLO unit 40B includes a beam splitter 58A that reflects the first G light and transmits other than the first G light among the light from the rear eye portion (fundus) of the eye 12 to be inspected.
  • the SLO unit 40B includes a beam splitter 58B that reflects the second G light and transmits other than the second G light among the light transmitted through the beam splitter 58A.
  • the SLO unit 40B includes a beam splitter 60 that reflects R light and transmits other than R light among the light transmitted through the beam splitter 58B.
  • the SLO unit 40B includes a beam splitter 62 that reflects IR light among the light transmitted through the beam splitter 60.
  • a dichroic mirror, a half mirror, or the like can be used as the beam splitters 58A, 58B, 60, 62.
  • the SLO unit 40B receives the G1 light detection element 72A that detects the first G light reflected by the beam splitter 58A, the G2 light detection element 72B that detects the second G light reflected by the beam splitter 58B, and the R light reflected by the beam splitter 60.
  • the R light detecting element 74 for detecting and the IR light detecting element 76 for detecting the IR light reflected by the beam splitter 62 are provided.
  • Examples of the photodetector elements 72A, 72B, 74, 76 include APD.
  • the photodetector elements 72A, 72B, 74, 76 correspond to the "acquisition unit" of the technique of the present disclosure.
  • FIG. 11 is an explanatory diagram illustrating the absorption spectra of chlorophyll a, chlorophyll b, ⁇ -carotene, and lutein for each wavelength. Since the macula, which is a fundus structure, mainly contains lutein, in the present embodiment, two wavelengths that cause a difference in the absorption spectrum of lutein are selected. As shown in FIG. 11, lutein shows a remarkable absorption spectrum in the first wavelength region Z1B having a wavelength of 440 nm to 520 nm, and a change in the absorption spectrum is particularly remarkable in a wavelength of 450 nm to 488 nm. The absorption spectrum of lutein is substantially 0 in the second wavelength region Z2B having a wavelength of 520 nm to 560 nm.
  • the first wavelength is selected from the first wavelength region Z1B corresponding to green visible light having a wavelength of 440 nm to 520 nm
  • the second wavelength corresponding to green visible light is selected from the second wavelength region Z2B corresponding to wavelength 520 nm to 560 nm.
  • the fundus structure contains blood-derived hemoglobin pigments, it is necessary to select a wavelength at which these pigments do not interfere with the detection of lutein.
  • the present embodiment also has a second wavelength different from the first wavelength based on the brightness value of each pixel of the first wavelength image captured by the first G light of the first wavelength.
  • hemoglobin becomes an inhibitory factor, so it is necessary to be able to cancel when the difference between the first wavelength image and the second wavelength image is generated. For example, if the brightness values of the pixels related to hemoglobin are the same in the first wavelength image and the second wavelength image, the difference image generated from the first wavelength image and the second wavelength image of the pixels related to hemoglobin. The brightness value is 0.
  • the first wavelength and the second wavelength may be selected from the wavelength range of 450 nm to 488 nm in which the change in the absorption spectrum of lutein with respect to the wavelength is remarkable.
  • FIG. 12 is a flowchart showing image processing in the ophthalmic apparatus 610 according to the present embodiment.
  • the processing shown in FIG. 12 is performed by the control unit of the ophthalmic apparatus 110 based on the photographing processing program and the image processing program stored in the memory 24.
  • step 300 the sole of the eye is irradiated with the first G light indicating the first wavelength from the light source 42A and the second G light indicating the second wavelength from the light source 42B under the control of the SLO light source control unit 1804 and the scanner control unit 1806.
  • the first wavelength image and the second wavelength image are acquired. If the SLO unit 40B has the configuration shown in FIG.
  • the first G light is emitted from the light source 42A and the second G light is emitted from the light source 42B at the same time, and the first wavelength image is obtained by the G1 photodetector 72A.
  • a second wavelength image can be acquired by the G2 photodetector 72B.
  • the image processing unit 182 aligns the first wavelength image with the second wavelength image.
  • the procedure of step 302 is not always necessary, but the first wavelength image and the second wavelength image are acquired at different timings. In some cases, alignment may be required.
  • the alignment of the first wavelength image and the second wavelength image is performed by extracting a plurality of feature points such as the bifurcation point VBU of the retinal blood vessel and the optic nerve head shown in each of FIG. 13, so that the extracted feature points match.
  • the first wavelength image and the second wavelength image are aligned with each other.
  • step 304 the image processing unit 182 subtracts the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image from the brightness value of each pixel of the first wavelength image to create a difference image.
  • FIG. 13 is an explanatory diagram showing the concept of creating a difference image between the first wavelength image and the second wavelength image. As shown in FIG. 13, a difference image is generated by subtracting the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image from the brightness value of each pixel of the first wavelength image.
  • the result of subtracting the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image from the brightness value of each pixel of the first wavelength image may be negative, but in such a case, it may be negative.
  • the absolute value of the result is taken as the brightness value of the difference image.
  • the relative reflection characteristic ratio of hemoglobin does not change so much with respect to the wavelength.
  • Both the first wavelength image and the second wavelength image are captured with the same brightness. Since the optic discs ONHU4 and ONHU5 reflect blue light and green light well, they are photographed with bright and high brightness in both the first wavelength image and the second wavelength image.
  • the absorption spectrum of the macula MAC1 changes in the wavelength range of 440 nm to 560 nm. Therefore, when the first wavelength image and the second wavelength image are compared, the brightness values of the pixels showing the macula MAC1 are different. .. Therefore, in the difference image between the first wavelength image and the second wavelength image, the brightness values of the pixels related to the bifurcation points VBU4, VBU5 of the retinal blood vessels, the optic disc ONHU4, ONHU5, etc. are smaller, but the brightness of the pixels related to the macula MAC1. The value becomes large, and the macula MAC2 is remarkably brightly depicted in the difference image.
  • the image processing unit 182 generates a macula image in which the macula is emphasized by binarizing the difference image. Further, in the difference image, the pixel showing the macula MAC2 has a different luminance value from the pixel showing the portion other than the macula MAC2. Therefore, the image data of the macula MAC2 (image data of a predetermined region including the macula MAC2) can be extracted by a process such as extracting the contour of the macula MAC2 based on the brightness difference.
  • the difference image may be extracted as a macula image-enhanced image.
  • the position data of the macula (coordinates on the image, etc.) may be detected from the difference image or the macula-enhanced image.
  • the macula portion may be extracted from the difference image, and an image superimposed on the macula position of the first wavelength image or the second wavelength image may be generated as the macula image.
  • step 308 the macula-enhanced image (or including the partial image of the macula region and the position data of the macula) is output to end the process.
  • the display control unit 184 generates a display screen 600, which will be described later, that reflects the patient attribute information corresponding to the patient ID together with the macula-enhanced image. Then, the display screen 600 is displayed on the display 32 of the ophthalmic apparatus 610.
  • the output unit 186 outputs the display screen 600 to the 100 million device of the server 140.
  • the display image 600 is stored in the storage device of the server.
  • the display screen 600 stored in the memory device of the server 140 is transmitted to the viewer 150 in response to an operation from the viewer 150, and is output to the display unit of the viewer 150 in a viewable state.
  • the process shown in FIG. 12 may be executed by the CPU included in the server 140.
  • the display image 600 is displayed on the display of the server 140, and the display image 600 is stored in the storage device of the server 140.
  • the process shown in FIG. 12 may be executed by the CPU included in the viewer 150.
  • the display image 600 is displayed on the display of the viewer 150, and the display image 600 is stored in the storage device of the viewer 150 and the storage device of the server 140, respectively.
  • FIG. 14 is a schematic view illustrating a display screen 600 displayed on the display unit of the viewer 150.
  • the display screen 600 has an information display area 602 and an image display area 604.
  • the information display area 602 includes a patient ID display area 612, a patient name display area 614, an age display area 616, a right eye / left eye display area 618, an axial length display area 620, a visual acuity display area 622, and an imaging date / time display area. It has 624.
  • the viewer 150 displays each information from the patient ID display area 612 to each display area of the imaging date / time display area 624 based on the received information.
  • the information display area 602 is provided with an image selection icon 630 and a display switching icon 640.
  • the image display area 604 has a macula image display area 650 and a related image display area 660.
  • a macula-enhanced image is displayed in the macula image display area 650.
  • the macula-enhanced image may be the above-mentioned difference image, but in the difference image, the fundus structure other than the macula is depicted in black and it is difficult to distinguish each of them.
  • An image superimposed on the macula position of the two-wave image may be displayed.
  • a pull-down menu or the like for selecting a related image to be displayed in the related image display area 660 is displayed.
  • the pseudo-color (RGB3 color) image, RG color image, blue monochromatic image, green (1st G light) monochromatic image, and green (2nd G light) of the fundus of the eye to be inspected 12 that have already been acquired are displayed.
  • OCTA optical interference tomographic angiography
  • macula-enhanced image or difference image, the macula part was extracted from the difference image and superimposed on the macula position of the first wavelength image or the second wavelength image.
  • FIG. 14 shows how the foveal avascular field (FAZ) by OCTA is displayed in the related image display area 660.
  • FAZ foveal avascular field
  • the display switching icon 640 When the display switching icon 640 is turned on, for example, the left-right positional relationship between the macula image display area 650 and the related image display area 660 is reversed. In the default display, the macula image display area 650 is displayed on the left side of the image display area 604, and the related image display area 660 is displayed on the right side of the image display area 604. When the display switching icon 640 is turned on, the image display area is displayed. The macula image display area 650 is displayed on the right side of the 604, and the related image display area 660 is displayed on the left side of the image display area 604.
  • the brightness value of each pixel of the first wavelength image captured by the first G light of the first wavelength is photographed by the second G light of the second wavelength different from the first wavelength.
  • the image data of the yellow spot MAC2 existing in the fundus is selectively extracted. can do.
  • the position data of the macula can be accurately detected from the macula-enhanced image.
  • hemoglobin which is an inhibitory factor in detecting macula MAC2
  • hemoglobin which is an inhibitory factor in detecting macula MAC2
  • the image data of the macula MAC2 is generated by generating a difference image in which the difference in the brightness value of each pixel of the fundus image taken with the two lights is used as the brightness value of each pixel. Is selectively extracted.
  • the ophthalmologist can estimate the fundus disease from the state of macular MAC2.
  • the ophthalmic apparatus according to the present embodiment is the same as the ophthalmic apparatus 110 according to the first embodiment, the first wavelength image captured by the first R light of the first wavelength and the second wavelength different from the first wavelength.
  • the second wavelength image taken by the second R light of the above and the second wavelength image are acquired. Therefore, since the ophthalmic apparatus according to the present embodiment has the same configuration as the ophthalmic apparatus according to the first embodiment, each configuration is designated by the same reference numeral as that of the first embodiment, and detailed description thereof will be given. Omit.
  • FIG. 15 is an explanatory diagram showing common logarithmic values of the absorption spectra of oxygenated hemoglobin (HbO 2) and deoxygenated hemoglobin (Hb) for each wavelength.
  • HbO 2 oxygenated hemoglobin
  • Hb deoxygenated hemoglobin
  • FIG. 15 in the wavelength range of 635 nm to 802 nm, the absorption spectrum of oxygenated hemoglobin changes remarkably (from about 2.5 on the scale of the vertical axis of the logarithm on the left side of the graph to about 2.0, which is the minimum value, and then. Has changed to about 2.5), but the absorption spectrum of deoxygenated hemoglobin has gradually decreased (changed from about 3.3 to about 2.5 on the scale on the vertical axis on the right side of the graph).
  • the second wavelength image taken by the second R light of two wavelengths and the second wavelength image are acquired respectively.
  • the first wavelength image and the second wavelength image are as in the first embodiment and the second embodiment. Since the difference image is generated, the difference between the first wavelength image and the second wavelength image due to the difference from the absorption spectrum of oxygenated hemoglobin cannot be visualized.
  • a quotient obtained by dividing the brightness value of each pixel of the first wavelength image by the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image is commonly used. A divided image is created in which the logarithmic value is the brightness value of each pixel.
  • FIG. 16 is a flowchart illustrating image processing in the ophthalmic apparatus 110 according to the present embodiment.
  • the processing shown in FIG. 16 is performed by the control unit of the ophthalmic apparatus 110, for example, based on the imaging processing program and the image processing program stored in the memory 24.
  • the sole of the eye is irradiated with the first R light indicating the first wavelength from the light source 44A and the second R light indicating the second wavelength from the light source 44B under the control of the SLO light source control unit 1804 and the scanner control unit 1806.
  • the first wavelength image and the second wavelength image are acquired.
  • the first wavelength and the second wavelength are different from each other and are selected from the wavelength range of 635 nm to 802 nm.
  • the SLO unit 40A has the configuration shown in FIG. 2, the first R light is emitted from the light source 44A and the second R light is emitted from the light source 44B at the same time, and the first wavelength image is obtained by the R1 photodetector 74A.
  • a second wavelength image can be acquired by the R2 photodetector element 74B.
  • the image processing unit 182 aligns the first wavelength image and the second wavelength image.
  • the procedure of step 402 is not always necessary, but the first wavelength image and the second wavelength image are acquired at different timings. In some cases, alignment may be required.
  • a plurality of branches of the choroidal blood vessels shown in each of FIG. 17 are extracted as feature points, and the first wavelength is aligned so that the extracted feature points match. Align the image with the second wavelength image.
  • step 404 the image processing unit 182 divides the brightness value of each pixel of the first wavelength image by the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image. Create a divided image with the numerical value as the brightness value of each pixel.
  • FIG. 17 is an explanatory diagram showing the concept of creating a division image of the first wavelength image and the second wavelength image. As shown in FIG. 17, the common logarithm of the quotient obtained by dividing the brightness value of each pixel of the first wavelength image by the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image is calculated. By doing so, a divided image is generated. In step 404, the calculated common logarithmic value may be negative, but in such a case, the absolute value of the result is used as the brightness value of the divided image.
  • the absorption spectrum of deoxygenated hemoglobin is relative to the absorption spectrum of oxygenated hemoglobin. It doesn't change much. Therefore, choroidal vascular veins with high concentrations of deoxidized hemoglobin, vortex veins 12V1D, 12V1E, 12V2D, 12V2E, 12V3D, 12V3E, 12V4D, 12V4E, and retinal vascular branching located at the confluence of multiple choroidal vascular veins.
  • the quotient of the pixels of the first wavelength image related to the veins of the points VBU7 and VBU8 and the pixels of the second wavelength image corresponding to the first wavelength image is a value close to 1. Since the common logarithmic value close to 1 is close to 0, in the divided image, the veins of choroidal vessels with high concentration of deoxidized hemoglobin, vortex veins 12V1F, 12V2F, 12V3F, 12V4F, and fundus structures of veins of retinal vessels.
  • the branch point VBU9 is depicted with a lower brightness value (blackish) than the background.
  • the absorption spectrum of oxygenated hemoglobin changes remarkably in the wavelength range of 635 nm to 802 nm. Therefore, the pixels of the first wavelength image relating to the arterial portion of the arteries 12A1D, 12A2D and the bifurcation point VBU7 of the retinal blood vessels having a high concentration of oxygenated hemoglobin, and the arteries 12A1E, 12A2E and the bifurcation of the retinal blood vessels corresponding to the first wavelength image.
  • the quotient with the pixel of the second wavelength image relating to the arterial portion of the point VBU8 and the like does not become a value close to 1.
  • fundus structures such as arteries 12A1F and 12A2F having a high concentration of oxygenated hemoglobin and the arterial portion of the bifurcation point VBU9 of the retinal blood vessel are depicted with high brightness values (whitish).
  • the background area does not change (because there is no hemoglobin)
  • the arteries change in the positive direction where the brightness value increases
  • the veins change in the minus direction where the brightness value decreases. Change in direction.
  • pixel values In the blood vessel image, when the background pixel value is neutral and the relative brightness value is 0, the relative value of the brightness of the arterial portion is positive and the relative value of the brightness of the vein portion is negative.
  • the image processing unit 182 generates an arterial blood vessel image or a venous blood vessel image as arterial / venous data.
  • the brightness values of the pixels related to the arteries 12A1F and 12A2F of the choroidal blood vessels and the arteries of the retinal blood vessels and the pixels related to the veins of the choroidal blood vessels, the vortex veins 12V1F, 12V2F, 12V3F, 12V4F, etc. different. Therefore, by applying the first threshold value (the pixel value larger than the background pixel value is set as the first threshold value) to the brightness value of the divided image, an arterial blood vessel image consisting of arteries 12A1F, 12A2F, etc.
  • a second threshold value (a key pixel value smaller than the background pixel value is set as the second threshold value)
  • choroidal vascular veins, vortex veins 12V1F, 12V2F, 12V3F, 12V4F It is possible to generate a venous vascular image consisting of veins of retinal blood vessels and the like. That is, veins and arteries can be separated from the fundus image.
  • the pixels related to the arteries 12A1F, 12A2F, etc. have higher brightness values than the pixels related to the veins, vortex veins 12V1F, 12V2F, 12V3F, 12V4F, etc. Is extracted, and an arterial image is created by filling an image area other than the extracted pixels with pixels having a lower brightness value than the extracted pixels.
  • the pixels related to veins, vortex veins 12V1F, 12V2F, 12V3F, 12V4F, etc. have lower brightness values than the pixels related to arteries 12A1F, 12A2F, etc., so that the brightness value is less than the second threshold value.
  • a vein image is created by extracting the pixels of the above and filling the image area other than the extracted pixels with pixels having a higher brightness value than the extracted pixels.
  • the first threshold value and the second threshold value may be the same value or different values from each other.
  • the threshold value for extracting the artery / vein data is determined based on the brightness values of the pixels related to the arteries 12A1F, 12A2F, etc. in the divided image and the brightness values of the pixels related to the vortex veins 12V1F, 12V2F, 12V3F, 12V4F, etc. You may. For example, the intermediate value between the brightness value of the pixel related to the artery 12A1F, 12A2F, etc. and the brightness value of the pixel related to the vortex vein 12V1F, 12V2F, 12V3F, 12V4F, etc. may be set as the threshold value.
  • the image processing unit 182 detects the positions of the vortex veins 12V1H, 12V2H, 12V3H, and 12V4H by image processing the venous blood vessel image.
  • the venous blood vessel image visualizes the venous blood vessels of the choroidal blood vessels.
  • the vortex vein is where multiple venous vessels in the choroid meet. Since the vortex vein is a blood vessel corresponding to the outlet where the blood perfused with the choroid flows out of the eyeball, it is also the part where the most oxygen-consumed blood is concentrated.
  • the concentration of deoxygenated hemoglobin (Hb) is higher than that of other venous blood vessels, and the pixel value of the vortex vein position in the venous blood vessel image is darker than the pixel value of other venous blood vessels. Therefore, the darkest pixel value or the darker pixel value than the average pixel value of the venous blood vessel can be estimated as the vortex vein position.
  • the position of the vortex vein may be detected in consideration of the fact that a plurality of venous blood vessels of the choroid are confluent. In this way, the positions of the vortex veins 12V1H, 12V2H, 12V3H, and 12V4H can be detected.
  • step 410 the choroidal blood vessel image including the division image, the arterial blood vessel image, and the venous blood vessel image and the vortex vein position data are output to end the process.
  • the display control unit 184 generates a display screen 700, which will be described later, which reflects the patient attribute information corresponding to the patient ID together with the choroidal blood vessel image and the like. Then, the display screen 700 is displayed on the display 32 of the ophthalmic apparatus 110.
  • the output unit 186 outputs the display screen 700 to the 100 million device of the server 140.
  • the display screen 700 is stored in the memory device of the server 140.
  • the display screen 700 stored in the memory device of the server 140 is transmitted to the viewer 150 in response to an operation from the viewer 150, and is output to the display unit of the viewer 150 in a viewable state.
  • the process shown in FIG. 16 may be executed by the CPU included in the server 140.
  • the display image 700 is displayed on the display of the server 140, and the display image 700 is stored in the storage device of the server 140.
  • the process shown in FIG. 16 may be executed by the CPU included in the viewer 150.
  • the display image 700 is displayed on the display of the viewer 150, and the display image 700 is stored in the storage device of the viewer 150 and the storage device of the server 140, respectively.
  • FIG. 18 is a schematic view illustrating a display screen 700 displayed on the display unit of the viewer 150.
  • the display screen 700 has an information display area 702 and an image display area 704.
  • the information display area 702 includes a patient ID display area 712, a patient name display area 714, an age display area 716, a right eye / left eye display area 718, an axial length display area 720, a visual acuity display area 722, and an imaging date / time display area. It has 724.
  • the viewer 150 displays each information from the patient ID display area 712 to each display area of the imaging date / time display area 724 based on the received information.
  • the information display area 702 is provided with an image selection icon 730 and a display switching icon 740.
  • the image display area 704 has a related image display area 750, an arterial image display area 760, and a vein image display area 770.
  • An arterial image is displayed in the arterial image display area 760.
  • a vein image is displayed in the vein image display area 770.
  • the arterial image shows the arterial portion of the arteries 12A1G, 12A2G and the branch point VBU10 of the retinal blood vessel
  • the vein image shows the vortex vein 12V1H, 12V2H, 12V3H, 12V4H, and the branch point VBU11 of the retinal blood vessel.
  • the vein part and the like of are displayed respectively.
  • the arterial image shows the optic disc ONHU10
  • the vein image shows the optic disc ONHU11.
  • a pull-down menu or the like for selecting a related image to be displayed in the related image display area 750 is displayed.
  • the pseudo-color (RGB3 color) image, RG color image, blue monochromatic image, green monochromatic image, red (first R light) monochromatic image, and red of the fundus of the eye to be inspected 12 that have already been acquired are displayed.
  • (2nd R light) A monochromatic image, a division image, etc. are displayed.
  • the red (first R light) monochromatic image and the red (second R light) monochromatic image are the original images used when generating the division image.
  • FIG. 18 shows how a red (first R light) monochromatic image, which is the original image, is displayed in the related image display area 750.
  • the display switching icon 640 When the display switching icon 640 is turned on, for example, the left-right positional relationship between the related image display area 750, the arterial image display area 760, and the vein image display area 770 changes.
  • the related image display area 750 is displayed on the left side of the image display area 704
  • the arterial image display area 760 is displayed in the center of the image display area 704
  • the vein image display area 770 is displayed on the right side of the image display area 704.
  • the display switching icon 740 When the display switching icon 740 is turned on, for example, the arterial image display area 760 is on the left side of the image display area 704, the vein image display area 770 is in the center of the image display area 704, and the related image is on the right side of the image display area 704.
  • Each display area 750 is displayed.
  • the brightness value of each pixel of the first wavelength image captured by the first R light of the first wavelength is photographed by the second R light of the second wavelength different from the first wavelength.
  • a divided image is created in which the common logarithmic value of the quotient obtained by dividing by the brightness value of each pixel corresponding to the first wavelength image of the second wavelength image is the brightness value of each pixel, and exists in the fundus of the eye.
  • the absorption spectrum of oxygenated hemoglobin changes remarkably, but the absorption spectrum of deoxidized hemoglobin does not change so much.
  • the arterial and vein can be clearly distinguished by the divided image in which the common logarithmic value of the quotient obtained by dividing by the brightness value of each pixel corresponding to the first wavelength image of is used as the brightness value of each pixel. ..
  • FIG. 19 is a block diagram of the SLO unit 40C of the ophthalmic apparatus of this modified example.
  • the SLO unit 40C has a light source unit 160 having a multi-wavelength light source 162, a first wavelength light detection element 164A that receives light of the first wavelength, and a second wavelength light that detects light of the second wavelength.
  • the ophthalmic apparatus 110 according to the first embodiment, the ophthalmic apparatus 610 according to the second embodiment, and the ophthalmic apparatus 110 according to the third embodiment are provided with a light receiving unit 164 having a light detection element 164B. It's different.
  • the multi-wavelength light source 162 is a light emitting device such as an SLD (Super Luminescent Diode) capable of emitting a laser having a wavelength of 440 nm to 802 nm.
  • SLD Super Luminescent Diode
  • the SLO unit 40C includes optical systems 170, 172, 174, 176, and 178 that reflect or transmit light from the multi-wavelength light source 162 and guide it to an optical path.
  • the optical systems 172 and 176 are scanners, specifically mirrors, dichroic mirrors, half mirrors and the like.
  • the optical system 170 is a beam splitter, specifically, a dichroic mirror, a half mirror, or the like.
  • the optical systems 174 and 178 are lenses.
  • the light from the multi-wavelength light source 162 passes through the optical system 170, is reflected by the optical system 172, is condensed by the optical system 174, is reflected by the optical system 176, and is reflected by the optical system 178. Guided to the fundus).
  • Each of the optical system 172 and the optical system 176 is movable by an actuator or the like so as to guide the light from the multi-wavelength light source 162 to the fundus of the eye 12 to be inspected.
  • the light reflected by the fundus of the eye 12 to be inspected passes through the optical system 178, is reflected by the optical system 176, is reflected by the optical system 172, is reflected by the optical system 170, and is guided to the light receiving unit 164.
  • the light guided to the light receiving unit 164 is separated into light of the first wavelength and light of the second wavelength by the beam splitter 164C, and the light of the first wavelength is received by the light detection element 164A for the first wavelength and is second. The light of the wavelength is received by the light detection element 164B for the second wavelength.
  • the optical system of the SLO unit 40C can be simplified and the ophthalmic apparatus can be made compact. ..
  • image processing by a software configuration using a computer is assumed, but the technique of the present disclosure is not limited to this.
  • the image processing may be executed only by a hardware configuration such as FPGA (Field-Programmable Gate Array) or ASIC (Application Specific Integrated Circuit). Some of the image processing may be performed by the software configuration and the rest may be performed by the hardware configuration.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

画像処理装置は、第1波長の第1光で撮影された第1眼底画像と、前記第1波長が示す色相と近似した色相を示す所定の波長域に含まれ、前記第1波長と異なる第2波長の第2光で撮影された第2眼底画像と、を取得する取得部と、前記第1眼底画像と前記第2眼底画像とを画像処理することにより眼底構造物を強調した強調眼底画像を生成する画像処理部と、を備える。

Description

画像処理装置、画像処理方法、及び画像処理プログラム
 本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
 米国特許第10136812号明細書には、脈絡膜の血管網を選択的に可視化する光干渉断層計装置及びその画像処理プログラムが開示されており、脈絡膜の層内に存在する脈絡膜血管網の画像データを選択的に抽出するために好適な画像処理方法が望まれている。
 本開示の技術の第1の態様の画像処理装置は、第1波長の第1光で撮影された第1眼底画像と、前記第1波長が示す色相と近似した色相を示す所定の波長域に含まれ、前記第1波長と異なる第2波長の第2光で撮影された第2眼底画像と、を取得する取得部と、前記第1眼底画像と前記第2眼底画像とを画像処理することにより眼底構造物を強調した強調眼底画像を生成する画像処理部と、を備える。
 本開示の技術の第2の態様の画像処理方法は、第1波長の第1光で撮影された第1眼底画像と、前記第1波長が示す色相と近似した色相を示す所定の波長域に含まれ、前記第1波長と異なる第2波長の第2光で撮影された第2眼底画像と、を取得することと、前記第1眼底画像と前記第2眼底画像とを画像処理することにより眼底構造物を強調した強調眼底画像を生成することと、を含む。
 本開示の技術の第3の態様の画像処理プログラムは、コンピュータを、第1波長の第1光で撮影された第1眼底画像と、前記第1波長が示す色相と近似した色相を示す所定の波長域に含まれ、前記第1波長と異なる第2波長の第2光で撮影された第2眼底画像と、を取得する取得部、及び前記第1眼底画像と前記第2眼底画像とを画像処理することにより眼底構造物を強調した強調眼底画像を生成する画像処理部として機能させる。
第1の実施の形態に係る眼科システム100のブロック図である。 第1の実施の形態に係る眼科装置110の全体構成を示す概略構成図である。 第1の実施の形態に係る眼科装置110のCPU22の機能のブロック図である。 眼底に対する光の波長毎の深達度を例示した説明図である。 各波長に対する血液(ヘモグロビン)及びメラニンの各々の相対反射特性率を例示した説明図である。 第1の実施の形態に係る眼科装置110における画像処理を例示したフローチャートである。 第1の実施の形態における第2波長画像を例示した概略図である。 第1の実施の形態における第1波長画像を例示した概略図である。 第1の実施の形態における第1波長画像と第2波長画像との差分画像の作成の概念を例示した説明図である。 第1の実施形態においてビューワ150の表示部に表示される表示画面500を例示した概略図である。 第2の実施の形態に係る眼科装置610を例示した概略図である。 各波長に対するクロロフィルa、クロロフィルb、βカロテン及びルテインの各々の吸収スペクトルを例示した説明図である。 第2の実施の形態に係る眼科装置610における画像処理を例示したフローチャートである。 第2の実施の形態における第1波長画像と第2波長画像との差分画像の作成の概念を例示した説明図である。 第2の実施の形態においてビューワ150の表示部に表示される表示画面600を例示した概略図である。 酸素化ヘモグロビン(HbO2)と脱酸素化ヘモグロビン(Hb)の各々の吸収スペクトルを例示した説明図である。 第3の実施の形態に係る眼科装置110における画像処理を例示したフローチャートである。 第3の実施の形態における第1波長画像と第2波長画像との除算画像の作成の概念を例示した説明図である。 第3の実施の形態においてビューワ150の表示部に表示される表示画面700を例示した概略図である。 眼科装置のSLOユニット40Cのブロック図である。
[第1の実施の形態]
 以下、図面を参照して本発明の第1の実施の形態を詳細に説明する。
 図1を参照して、眼科システム100の構成を説明する。図1に示すように、眼科システム100は、眼科装置110と、サーバ装置(以下、「サーバ」という)140と、表示装置(以下、「ビューワ」という)150と、を備えている。眼科装置110は、眼底画像を取得する。サーバ140は、眼科装置110によって複数の患者の眼底が撮影されることにより得られた複数の眼底画像及び眼軸長を、患者のIDに対応して記憶する。ビューワ150は、サーバ140により取得した眼底画像や解析結果を表示する。
 眼科装置110、サーバ140、ビューワ150は、ネットワーク130を介して、相互に接続されている。ビューワ150は、クライアントサーバシステムにおけるクライアントであり、ネットワークを介して複数台が接続される。また、サーバ140も、システムの冗長性を担保するために、ネットワークを介して複数台が接続されていてもよい。又は、眼科装置110が画像処理機能及びビューワ150の画像閲覧機能を備えるのであれば、眼科装置110がスタンドアロン状態で、眼底画像の取得、画像処理及び画像閲覧が可能となる。また、サーバ140がビューワ150の画像閲覧機能を備えるのであれば、眼科装置110とサーバ140との構成で、眼底画像の取得、画像処理及び画像閲覧が可能となる。
 なお、他の眼科機器(視野測定、眼圧測定などの検査機器)やAI(Artificial Intelligence)を用いた画像解析を行う診断支援装置がネットワーク130を介して、眼科装置110、サーバ140、及びビューワ150に接続されていてもよい。
 次に、図2を参照して、眼科装置110の構成を説明する。図2に示すように、眼科装置110は、制御ユニット20、表示/操作ユニット30、及びSLOユニット40Aを備える。被検眼12の後眼部(眼底)を撮影する。さらに、眼底のOCTデータを取得する図示せぬOCTユニットを備えていてもよい。ここで、「SLO」とは、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)である。「OCT」とは、光干渉断層計(Optical Coherence Tomography)である。
 制御ユニット20は、CPU22、メモリ24、及び通信インターフェース(I/F)26等を有するコンピュータを備えている。表示/操作ユニット30は、撮影されて得られた画像を表示したり、撮影の指示を含む各種指示を受け付けたりするグラフィックユーザインターフェースであり、ディスプレイ32及び入力/指示デバイス34を備えている。
 CPU22が撮影処理プログラムを実行することで、図3に示すように、SLO制御機部180(SLO光源制御部1804、スキャナ制御部1806を含む)、画像処理部182、表示制御部184、及び出力部186として、CPU22が機能する。なお、画像処理は、サーバ140又はビューワ150で行ってもよい。サーバ140又はビューワ150のCPUは、図3に示したSLO制御部180を有せず、画像処理部182、表示制御部184、及び出力部186を備える。画像処理部182は、本開示の技術の「画像処理部」に相当する。
 メモリ24には、後述する被検眼12の眼底の撮影処理の撮影処理プログラム及び画像処理プログラムが記憶されている。撮影処理プログラム及び画像処理プログラムは、本開示の技術の「画像処理プログラム」に相当する。
 SLOユニット40Aは、G光(緑色光:波長532nm)の光源42、第1R光(赤色光:波長575nmから800nm)の光源44A、第1R光と波長が異なる第2R光(赤色光:波長575nmから800nm)の光源44B、IR光(赤外線(近赤外光):波長802nm以上)の光源46を備えている。光源42、44A、44B、46は、制御ユニット20により命令されて、各光を発する。なお、光源42、44A、44B、46としては、LED光源や、レーザ光源を用いることができる。なお、以下には、レーザ光源を用いた例を説明する。光源42、44A、44B、46のオンオフは、CPU22のSLO制御部180のSLO光源制御部1804によって制御される。
 SLOユニット40Aは、光源42、44A、44B、46からの光を、反射又は透過して1つの光路に導く光学系50、52A、52B、54、56を備えている。光学系50、56は、ミラーである。光学系52A、52B、54は、ビームスプリッタであり、具体的には、光源の波長に合わせて反射率と透過率が調整されたダイクロイックミラー、ハーフミラー等である。
 G光は、光学系50で反射された後、光学系52Aを透過し、さらに光学系54で反射し、第1R光は、光学系52Aで反射した後、光学系54で反射し、第2R光は、光学系52B、54を透過し、IR光は、光学系52B、56で反射して、それぞれ1つの光路に導かれる。
 SLOユニット40Aは、光源42、44A、44B、46からの光を、被検眼12の後眼部(眼底)に渡って、2次元状に走査する広角光学系80を備えている。SLOユニット40Aは、被検眼12の後眼部(眼底)からの光の内、G光を反射し且つG光以外を透過するビームスプリッタ58を備えている。SLOユニット40Aは、ビームスプリッタ58を透過した光の内、第1R光を反射し且つ第1R光以外を透過するビームスプリッタ60Aを備えている。SLOユニット40Aは、ビームスプリッタ60Aを透過した光の内、第2R光を反射し且つ第2R光以外を透過するビームスプリッタ60Bを備えている。SLOユニット40Aは、ビームスプリッタ60Bを透過した光の内、IR光を反射するビームスプリッタ62を備えている。ビームスプリッタ58、60A、60B、62として、ダイクロイックミラー、ハーフミラー等を用いることができる。広角光学系80による2次元状の走査は、CPU22のSLO制御部180のスキャナ制御部1806によって制御される。
 SLOユニット40Aは、ビームスプリッタ58により反射したG光を検出するG光検出素子72、ビームスプリッタ60Aにより反射した第1R光を検出するR1光検出素子74A、ビームスプリッタ60Bにより反射した第2R光を検出するR2光検出素子74B、及びビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。光検出素子72、74A、74B、76として、例えば、PD(photodiode)及びAPD(avalanche photodiode:アバランシェ・フォトダイオード)が挙げられる。光検出素子72、74A、74B、76は、本開示の技術の「取得部」に相当する。SLOユニット40Aでは、対象物である眼底で反射(散乱)して戻ってきた光は後述するX方向走査装置82及びY方向走査装置84を通って光検出素子に届くので、常に同じ位置、すなわち光検出素子72、74A、74B、76が存在する位置に戻ってくる。従って、光検出素子をエリアセンサのように平面状(2次元)に構成する必要はなく、PD又はAPD等のような点状(0次元)の検出器が本実施の形態では最適である。しかしながら、PD又はAPD等に限らず、ラインセンサ(1次元)又はエリアセンサ(2次元)を用いることも可能である。
 広角光学系80は、光源42、44A、44B、46からの光を、X方向に走査するポリゴンミラーで構成されたX方向走査装置82、Y方向に走査するガルバノミラーで構成されたY方向走査装置84、走査された光を、超広角(UWF:Ultra WideField)で照射できる楕円鏡などの凹面鏡や複数のレンズからなるレンズ系で構成された光学系86を備えている。X方向走査装置82及びY方向走査装置84の各走査装置はMEMS(Micro Electro Mechanical System)ミラーを用いてもよい。また、X方向とY方向でそれぞれスキャナを設けることなく1つのMEMSミラーで2次元走査を行うようにしてもよい。なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、被検眼12の前眼部の瞳孔の中心と眼球の中心とを結ぶ方向を「Z方向」とする。従って、X方向、Y方向、およびZ方向は互いに垂直である。
 広角光学系80により、眼底の視野角(FOV:Field of View)を超広角な角度とし、眼球中心を起点として内部照射角200度の眼底の範囲を撮影することができる。つまり、被検眼12の眼底の後極部から赤道部を超える領域を撮影することができる。
 図4は、眼底構造物に対する光の波長毎の深達度を例示した説明図である。波長488nmの青波長λ1Aは、網膜上部で散乱又は反射され、波長532nmの緑波長λ2Aは、網膜表面を起点として0.2mm以内の網膜下部で散乱又は反射され、波長633nmの赤一波長λ1B及び波長670nmの赤二波長λ2Bは、網膜表面を起点として0.2mmから0.8mmの範囲に存在する脈絡膜で散乱又は反射される。また、脈絡膜の血管は、血液に含まれるヘモグロビンにより、赤色光を顕著に散乱/反射する。従って、脈絡膜の血管を観察するには、赤色光が適している。
 しかしながら、脈絡膜にはヘモグロビンと同様に赤色光の第1反射率が高いメラニンが存在する。メラニンは、血管を含む脈絡膜全域に含まれるので、赤色光で眼底を観察した際に、脈絡膜の血管部分と、血管以外の間質部分との識別が困難になるおそれがあった。
 図5は、各波長に対する血液(ヘモグロビン)及びメラニンの各々の相対反射特性率を例示した説明図である。メラニンは、波長が長くなるほど相対反射特性率が単調増加するが、血液は、多少の増減を繰り返しながらも、全体の傾向として、波長が長くなるほど相対反射特性率が大きくなっている。
 しかしながら、波長575nmから650nmの第1波長域Z1Aでは、血液の相対反射特性率が急激に増大するが、メラニンの相対反射特性率は血液の相対反射特性率ほどには増大しない。従って、第1波長域Z1Aに含まれる互いに異なる2つの波長の各々で眼底を撮影した画像を比較すると、血液由来の部分、すなわち血管に係る画素の輝度値が異なることが図5から判断できる。メラニン由来の部分、すなわち血管以外の脈絡膜の部分(間質)は、第1波長域Z1Aに含まれる互いに異なる2つの波長の各々で眼底を撮影した画像を比較すると、メラニン由来の部分を示す画素の輝度値が異なるが、血液の場合ほど顕著な変化は示さないことが図5から判断できる。
 赤色の可視光の波長帯域で発光する市販のレーザ光源には、例えば、589nm、633nm、638nm、650nm、658nm、670nm、685nm、690nm、705nm、730nm、780nm、785nmなどの波長を出射する製品が存在するので、第1波長及び第2波長は、589nm、633nm、638nm、650nm、658nm、670nm、685nm、690nm、705nm、730nm、780nm、785nmのいずれかから選択することができる。また、上記の波長の製品だけでなく波長575nmから800nmの範囲の製品を光源として選択してもよい。さらに、680±10nmの波長のレーザを出射可能な広帯域波長光源も選択できる。
 本実施の形態では、第1波長域Z1Aに含まれる第1波長の第1R光で撮影された第1波長画像と、同じく第1波長域Z1Aに含まれ、第1波長と異なる第2波長の第2R光で撮影された第2波長画像と、を各々取得する。そして、第1波長画像の各々の画素の輝度値から第2波長画像の第1波長画像に対応する各々の画素の輝度値を減算して脈絡膜の血管(以下、「脈絡膜血管」と略記)を強調した差分画像を得る。
 第1波長及び第2波長は、波長650nmから800nmの第2波長域Z2Aから選択してもよい。第2波長域Z2Aでは、メラニンの相対反射特性率が単調増加するが、血液の相対反射特性率は略横ばいになっている。従って、第2波長域Z2Aに含まれる互いに異なる第1波長及び第2波長の各々で眼底を撮影した画像を比較すると、メラニン由来の部分、すなわち血管以外の脈絡膜の部分(間質)に係る画素の輝度値が異なることが図5から判断できる。血液由来の部分、すなわち脈絡膜血管の部分は、第2波長域Z2Aに含まれる第1波長及び第2波長の各々で眼底を撮影した画像を比較すると、脈絡膜血管を示す画素の輝度値にほとんど変化がないことが図5から判断できる。
 図6は、本実施の形態に係る眼科装置110における画像処理を示したフローチャートである。図6に示した処理は、例えば、メモリ24に記憶された撮影処理プログラム及び画像処理プログラムに基づいて、眼科装置110の制御ユニットで行われる。
 ステップ200では、SLO光源制御部1804及びスキャナ制御部1806の制御により、光源44Aから第1波長を示す第1R光を、光源44Bから第2波長を示す第2R光を、各々眼底に照射して第1波長画像と第2波長画像とを取得する。SLOユニット40Aが図2に示したような構成であれば、光源44Aから第1R光を、光源44Bから第2R光を、各々同時に出射して、R1光検出素子74Aで第1波長画像を、R2光検出素子74Bで第2波長画像を、各々取得することができる。
 図7Aは、第2波長画像を示し、図7Bは、第1波長画像を示している。第1波長は第1波長域Z1Aの下限である略575nmであり、第2波長は第1波長域Z1Aの上限の略650nmである場合、脈絡膜血管である渦静脈12V1B、12V2B、12V3B、12V4B及び網膜血管の分岐点VBU2を示す画素は、図7Bに示したように第1波長画像では他の部分に比して暗くなる。しかしながら、渦静脈12V1A、12V2A、12V3A、12V4A及び網膜血管の分岐点VBU1を示す画素は、図7Aに示したように第2波長画像では、他の部分に比して明るくなる。図7A、図7Bの中心近くには、視神経乳頭ONHU1、ONHU2が高輝度で(図面では白く)撮影されているが、視神経乳頭ONHU1、ONHU2は、第1波長は第1波長域Z1Aでは、相対反射特性率が高いので、図7A、図7Bのいずれの場合も明るくなっている。
 第1波長及び第2波長の各々が波長650nmから800nmの第2波長域Z2Aに含まれる場合、脈絡膜血管を示す画素は、図7A及び図7Bとは異なり、第1波長画像と第2波長画像とで輝度にほとんど変化がない。前述のように、第2波長域Z2Aでは、血液(ヘモグロビン)の相対反射特性率がほとんど変化しないからである。しかしながら、前述のように、第2波長域Z2Aでは、メラニンの相対反射特性率は、単調増加するので、第1波長が第2波長域Z2Aの下限である略650nmであり、第2波長が第2波長域Z2Aの上限の略800nmである場合、メラニンを多く含む脈絡膜血管以外の間質部分を示す画素は、第1波長画像では暗くなり、第2波長画像では明るくなる。
 ステップ202では、画像処理部182が、第1波長画像と第2波長画像との位置合わせを行う。第1波長画像と第2波長画像とを同時に取得可能な本実施の形態では、ステップ202の手順は必ずしも必要ではないが、第1波長画像及び第2波長画像の各々を別個のタイミングで取得した場合は、位置合わせが必要になる。第1波長画像と第2波長画像との位置合わせは、図7A、図7Bの各々に示した脈絡膜血管や網膜血管の分岐点や特徴的な血管構造あるいは視神経乳頭等の眼底の構造物から複数の特徴的なパターンを特徴点として複数抽出し、抽出した各々の特徴点の画素が一致するように、第1波長画像と第2波長画像との位置合わせを行う。
 ステップ204では、画像処理部182が、第1波長画像の各々の画素の輝度値から第2波長画像の第1波長画像に対応する各々の画素の輝度値を減算して差分画像を作成する。この差分画像は脈絡膜血管を強調した脈絡膜血管強調画像でもある。
 図8は、第1波長画像と第2波長画像との差分画像の作成の概念を示した説明図である。図8に示したように、第1波長画像の各々の画素の輝度値から第2波長画像の第1波長画像に対応する各々の画素の輝度値を減算することにより、差分画像を生成する。第1波長画像の各々の画素の輝度値から第2波長画像の第1波長画像に対応する各々の画素の輝度値を減算した結果が、マイナスとなる場合も考えられるが、かかる場合には、当該結果の絶対値を差分画像の輝度値とする。
 第1波長及び第2波長の各々が波長575nmから650nmの第1波長域Z1Aに含まれる場合、図7A、図7Bに示したように、第1波長画像と第2波長画像とでは、血液由来の部分、すなわち血管(渦静脈12V1A、12V1B、12V2A、12V2B、12V3A、12V3B、12V4A、12V4B及び網膜血管の分岐点VBU1、VBU2)に係る画素の輝度値が異なる。その結果、第1波長画像と第2波長画像とでの血管に係る画素の輝度差は大きくなり、差分画像において、渦静脈12V1C、12V2C、12V3C、12V4C及び網膜血管の分岐点VBU3係る画素は明るく(白っぽく)表現される。
 なお、前述のように、第1波長及び第2波長の各々が波長575nmから650nmの第1波長域Z1Aに含まれる場合、視神経乳頭ONHU1、ONHU2は第1波長画像及び第2波長画像の各々で白く写り、第1波長画像及び第2波長画像の各々での視神経乳頭ONHU1、ONHU2に係る画素の輝度値は略同じなので、差分画像における視神経乳頭ONHU3に係る画素の輝度値は、略0となる。従って、差分画像において、視神経乳頭ONHU3に係る画素は、図8に示したように黒色となる。
 第1波長及び第2波長の各々が波長575nmから650nmの第1波長域Z1Aに含まれる場合、図7A、図7Bに示したように、第1波長画像と第2波長画像とでは、メラニンを多く含む血管以外の脈絡膜の部分を示す画素の輝度値はさほど変化しない。その結果、第1波長画像と第2波長画像とでの血管以外の脈絡膜の部分(間質)に係る画素の輝度差は小さくなり、差分画像で血管以外の脈絡膜の部分に係る画素は暗く(黒っぽく)表現される。
 また、第1波長及び第2波長の各々が波長650nmから800nmの第2波長域Z2Aに含まれる場合、第1波長画像と第2波長画像とでは、血液由来の部分、すなわち血管に係る画素の輝度値はさほど変化しない。その結果、第1波長画像と第2波長画像とでの血管に係る画素の輝度差は小さくなり、差分画像で血管に係る画素は暗く(黒っぽく)表現される。
 第1波長及び第2波長の各々が波長650nmから800nmの第2波長域Z2Aに含まれる場合、第1波長画像と第2波長画像とでは、メラニンを多く含む血管以外の脈絡膜の部分(間質)を示す画素の輝度値が変化する。その結果、第1波長画像と第2波長画像とでの血管以外の脈絡膜の部分に係る画素の輝度差は大きくなり、差分画像で血管以外の脈絡膜の部分(間質)に係る画素は明るく(白っぽく)表現される。
 図6のステップ206では、画像処理部182が、差分画像を二値化処理することにより脈絡膜血管画像を生成する。前述のように、差分画像において、脈絡膜血管を示す画素は、脈絡膜血管以外の部分(間質)を示す画素に対して輝度値が異なる。従って、差分画像を適切な閾値で二値化処理することにより、脈絡膜血管画像を生成できる。なお、本実施の形態では、ステップ204で作成した差分画像では、脈絡膜血管が他の部分と明瞭に区別できるので、差分画像を脈絡膜血管画像としてもよい。
 ステップ208では、脈絡膜血管画像を出力して処理を終了する。ステップ208で、表示制御部184は、脈絡膜血管画像とともに、患者IDに対応した患者属性情報(患者名、年齢、各眼底画像が右眼か左眼からの情報、眼軸長、視力および撮影日時など)を反映させた、後述する表示画面500を生成する。そして、眼科装置110のディスプレイ32に表示画面500を表示する。
 出力部186は、表示画面500を、サーバ140の記億装置に出力する。表示画面500は、サーバ140の記億装置に記憶される。サーバ140の記億装置に記憶された表示画面500は、ビューワ150からの操作に応じてビューワ150に送信され、ビューワ150の表示部に閲覧可能な状態で出力される。
 図6に示した処理は、サーバ140が備えるCPUで実行してもよい。サーバ140のCPUで当該処理を実行した場合は、サーバ140のディスプレイに表示画像500を表示すると共に、表示画像500をサーバ140の記憶装置に記憶する。
 また、図6に示した処理は、ビューワ150が備えるCPUで実行してもよい。ビューワ150のCPUで当該処理を実行した場合は、ビューワ150のディスプレイに表示画像500を表示すると共に、表示画像500をビューワ150の記憶装置とサーバ140の記憶装置とに各々記憶する。
 図9は、眼科機器110のディスプレイ32に表示される表示画面500を示した概略図である。
 表示画面500は、図9に示すように、情報表示領域502と、画像表示領域504とを有する。情報表示領域502には、患者ID表示領域512、患者名表示領域514、年齢表示領域516、右眼/左眼表示領域518、眼軸長表示領域520、視力表示領域522、及び撮影日時表示領域524を有する。ビューワ150は、受信した情報に基づいて、患者ID表示領域512から撮影日時表示領域524の各表示領域に各々の情報を表示する。
 情報表示領域502には、画像選択アイコン530と表示切替アイコン640とが設けられている。
 画像表示領域504は、脈絡膜血管画像表示領域550と、関連画像表示領域560とを有する。脈絡膜血管画像表示領域550には脈絡膜血管画像が表示される。脈絡膜血管画像表示領域550は、表示される脈絡膜血管画像の下方に画像のコントラストを変化させるスライドバー580が設けられている。スライドバー580を左右に操作することにより、脈絡膜血管の画素の明瞭度を任意に調整できる。
 画像選択アイコン530がオンされると、プルダウンメニュー570が表示される。画像選択アイコン530がオンされて表示されるプルダウンメニュー570は、関連画像表示領域560に表示する関連画像を選択するためのメニューを有する。例えば、プルダウンメニュー570には、既に取得されている被検眼12の眼底の疑似カラー(RGB3色)画像、RGカラー画像、青単色画像、緑単色画像、赤(第1R光)単色画像、赤(第2R光)単色画像、及び脈絡膜血管画像である差分画像等が表示される。図9は、関連画像表示領域560に、疑似カラー画像が表示されている様子が示されている。なお、プルダウンメニュー570で脈絡膜血管画像である差分画像を選択した場合は、脈絡膜血管画像表示領域550と、関連画像表示領域560とに、脈絡膜血管画像が各々表示される。
 表示切替アイコン540がオンされると、例えば、脈絡膜血管画像表示領域550と、関連画像表示領域560との左右の位置関係が反転する。デフォルト表示では、画像表示領域504の左側に脈絡膜血管画像表示領域550が、画像表示領域504の右側に関連画像表示領域560が各々表示されるが、表示切替アイコン540がオンされると、画像表示領域504の右側に脈絡膜血管画像表示領域550が、画像表示領域504の左側に関連画像表示領域560が各々表示される
 以上説明したように、本実施の形態では、第1波長の第1R光で撮影された第1波長画像の各々の画素の輝度値から、第1波長と異なる第2波長の第2R光で撮影された第2波長画像の第1波長画像に対応する各々の画素の輝度値を減算して脈絡膜血管を強調した差分画像を得ることができる。この差分画像をさらに二値化処理をすることにより脈絡膜の層内に存在する脈絡膜血管画像を生成できる。脈絡膜血管画像を処理することにより、脈絡膜血管の太さや長さからなる脈絡膜血管網のデータを得ることができたり、脈絡膜に存在する渦静脈の位置を特定したりする画像処理を行うことが可能になる。   
 脈絡膜には、血液由来のヘモグロビンと相対反射特性率が類似したメラニンが存在するので、単一の波長の光で撮影した画像ではメラニンによるノイズが含まれる。しかしながら、本実施の形態では、赤色を示す波長域の互いに波長が異なる2つの光に対する血液(ヘモグロビン)とメラニンとの相対反射特性率の差異に着目し、かかる2つの光で撮影した眼底画像の各々の画素の輝度値の差分を各々の画素の輝度値とする差分画像を生成することにより、メラニンによるノイズの影響を除去することができる。そして、脈絡膜の層内に存在する脈絡膜血管を可視化できる。
 本実施の形態によるメラニンの影響を除去した脈絡膜血管画像を生成することにより、眼底疾患の予兆と考えられる脈絡膜血管のうっ血(うっ血すると脈絡膜血管が太くなる)や渦静脈位置の非対称性等を画像解析により可視化できる。これにより、眼科医は、眼底部の病変の予兆を脈絡膜血管の太さや渦静脈の位置から容易に推定することができる。
[第2の実施の形態]
 続いて第2の実施の形態について説明する。本実施の形態では、眼底構造物のうち、黄斑の画像データを選択的に抽出する。
 図10は、本実施の形態に係る眼科装置610を示した概略図である。本実施の形態に係る眼科装置610は、上述の構成以外は第1の実施の形態に係る眼科装置110と同一なので、第1の実施の形態に係る眼科装置110と同一の構成には眼科装置110と同一の符号を付して詳細な説明は省略する。
 本実施の形態に係る眼科装置610のSLOユニット40Bは、第1G光(緑色光:波長 440nmから560nm)の光源42A、第1G光と波長が異なる第2G光(緑色光:波長440nmから560nm)の光源42B、R光(赤色光:波長650nm)の光源44、IR光(赤外線(近赤外光):波長800nm)の光源46を備えている。光源42A、42B、44、46のオンオフは、CPU22のSLO制御部180のSLO光源制御部1804によって制御される。
 また、本実施の形態に係る眼科装置610のSLOユニット40Bは、光源42A、42B、44、46からの光を、反射又は透過して1つの光路に導く光学系50A、50B、52、54、56を備えている。光学系50A、56は、ミラーである。光学系50B、52、54は、ビームスプリッタであり、具体的には、光源の波長に合わせて反射率と透過率が調整されたダイクロイックミラー、ハーフミラー等である。
 第1G光は、光学系50Aで反射された後、光学系50Bを透過し、さらに光学系54で反射し、第2G光は、光学系50Bで反射した後、光学系54で反射し、R光は、光学系52、54を透過し、IR光は、光学系52、56で反射して、それぞれ1つの光路に導かれる。
 SLOユニット40Bは、被検眼12の後眼部(眼底)からの光の内、第1G光を反射し且つ第1G光以外を透過するビームスプリッタ58Aを備えている。SLOユニット40Bは、ビームスプリッタ58Aを透過した光の内、第2G光を反射し且つ第2G光以外を透過するビームスプリッタ58Bを備えている。SLOユニット40Bは、ビームスプリッタ58Bを透過した光の内、R光を反射し且つR光以外を透過するビームスプリッタ60を備えている。SLOユニット40Bは、ビームスプリッタ60を透過した光の内、IR光を反射するビームスプリッタ62を備えている。ビームスプリッタ58A、58B、60、62として、ダイクロイックミラー、ハーフミラー等を用いることができる。
 SLOユニット40Bは、ビームスプリッタ58Aにより反射した第1G光を検出するG1光検出素子72A、ビームスプリッタ58Bにより反射した第2G光を検出するG2光検出素子72B、ビームスプリッタ60により反射したR光を検出するR光検出素子74、及びビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。光検出素子72A、72B、74、76として、例えば、APDが挙げられる。光検出素子72A、72B、74、76は、本開示の技術の「取得部」に相当する。
 図11は、各波長に対するクロロフィルa、クロロフィルb、βカロテン及びルテインの各々の吸収スペクトルを例示した説明図である。眼底構造物である黄斑は、主にルテインを含むので、本実施の形態では、ルテインの吸収スペクトルに差異が生じる2波長を選択する。図11に示したように、ルテインは、波長440nmから520nmの第1波長域Z1Bで顕著な吸収スペクトルを示し、特に波長450nmから488nmで吸収スペクトルの変化が顕著である。そして、波長520nmから560nmの第2波長域Z2Bではルテインの吸収スペクトルが略0を示す。
 従って、第1波長を波長440nmから520nmの緑色の可視光に相当する第1波長域Z1Bから、同じく緑色の可視光に相当する第2波長を波長520nmから560nmの第2波長域Z2Bから各々選択することが考えられるが、眼底構造物には、血液由来のヘモグロビンの色素が含まれるので、これらの色素によって、ルテインの検出が妨害されない波長を選択する必要がある。
 本実施の形態も、第1の実施の形態と同様に、第1波長の第1G光で撮影された第1波長画像の各々の画素の輝度値から、第1波長と異なる第2波長の第2G光で撮影された第2波長画像の第1波長画像に対応する各々の画素の輝度値を減算して差分画像を得ることにより、網膜に存在する黄斑の画像データを選択的に精度よく抽出することができる。
 黄斑が存在する画像データを眼底画像から抽出する際に、ヘモグロビンは阻害要因となるので、第1波長画像と第2波長画像との差分を生成した際にキャンセルし得ることを要する。例えば、第1波長画像と第2波長画像とにおいて、ヘモグロビンに係る画素の輝度値が各々同じであれば、第1波長画像と第2波長画像とから生成される差分画像でヘモグロビンに係る画素の輝度値は0となる。
 緑色の可視光の波長帯域で発光する市販のレーザ光源には、例えば、505nm、514nm、520nm、532nm、552nm、561nmの波長を出射する製品が存在するので、第1波長及び第2波長は、505nm、514nm、520nm、532nm、552nm、561nmのいずれかから選択することができる。または、第1波長及び第2波長は、波長に対するルテインの吸収スペクトルの変化が顕著な波長450nmから488nmの範囲から選択してもよい。
 図12は、本実施の形態に係る眼科装置610における画像処理を示したフローチャートである。図12に示した処理は、メモリ24に記憶された撮影処理プログラム及び画像処理プログラムに基づいて、眼科装置110の制御ユニットで行われる。
 ステップ300では、SLO光源制御部1804及びスキャナ制御部1806の制御により、光源42Aから第1波長を示す第1G光を、光源42Bから第2波長を示す第2G光を、各々眼底に照射して第1波長画像と第2波長画像とを取得する。SLOユニット40Bが図10に示したような構成であれば、光源42Aから第1G光を、光源42Bから第2G光を、各々同時に出射して、G1光検出素子72Aで第1波長画像を、G2光検出素子72Bで第2波長画像を、各々取得することができる。
 ステップ302では、画像処理部182が、第1波長画像と第2波長画像との位置合わせを行う。第1波長画像と第2波長画像とを同時に取得可能な本実施の形態では、ステップ302の手順は必ずしも必要ではないが、第1波長画像及び第2波長画像の各々を別個のタイミングで取得した場合は、位置合わせが必要になる場合がある。第1波長画像と第2波長画像との位置合わせは、図13の各々に示した網膜血管の分岐点VBUや視神経乳頭などの特徴点として複数抽出し、抽出した各々の特徴点が一致するように、第1波長画像と第2波長画像との位置合わせを行う。
 ステップ304では、画像処理部182が、第1波長画像の各々の画素の輝度値から第2波長画像の第1波長画像に対応する各々の画素の輝度値を減算して差分画像を作成する。図13は、第1波長画像と第2波長画像との差分画像の作成の概念を示した説明図である。図13に示したように、第1波長画像の各々の画素の輝度値から第2波長画像の第1波長画像に対応する各々の画素の輝度値を減算することにより、差分画像を生成する。第1波長画像の各々の画素の輝度値から第2波長画像の第1波長画像に対応する各々の画素の輝度値を減算した結果が、マイナスとなる場合も考えられるが、かかる場合には、当該結果の絶対値を差分画像の輝度値とする。
 第1波長及び第2波長の各々が波長440nmから560nmの範囲に含まれる場合、ヘモグロビンの相対反射特性率は波長に対してさほど変化しないので、ヘモグロビンを含む網膜血管の分岐点VBU4、VBU5は、第1波長画像と第2波長画像とで、いずれも大差ない明るさで写る。視神経乳頭ONHU4、ONHU5は、青色光及び緑色光をよく反射するので、第1波長画像及び第2波長画像のいずれにおいても明るく高輝度で撮影される。
 しかしながら、黄斑MAC1は、前述のように、波長440nmから560nmの範囲で、吸収スペクトルが変化するので、第1波長画像と第2波長画像とを比較すると、黄斑MAC1を示す画素の輝度値が異なる。従って、第1波長画像と第2波長画像との差分画像では、網膜血管の分岐点VBU4、VBU5及び視神経乳頭ONHU4、ONHU5等に係る画素の輝度値が小さくなるが、黄斑MAC1に係る画素の輝度値は大きくなり、差分画像では黄斑MAC2が際立って明るく描写される。
 図12のステップ306では、画像処理部182が、差分画像を二値化処理することにより黄斑を強調した黄斑画像を生成する。また、差分画像において、黄斑MAC2を示す画素は、黄斑MAC2以外の部分を示す画素に対して輝度値が異なる。従って、輝度差に基づいて黄斑MAC2の輪郭を抽出する等の処理より、黄斑MAC2の画像データ(黄斑MAC2を含む所定領域の画像データ)を抽出できる。かかる抽出を行わなくても、本実施の形態では、ステップ304で作成した差分画像では、黄斑MAC2が他の部分と明瞭に区別できるので、差分画像を黄斑画像強調画像として抽出してもよい。 また、差分画像あるいは黄斑強調画像から、黄斑の位置データ(画像上の座標など)を検出するようにしてもよい。
 さらに、後述するように、差分画像から黄斑部分を抜き出して、第1波長画像又は第2波長画像の黄斑位置に重畳した画像を黄斑画像として生成してもよい。
 ステップ308では、黄斑強調画像(あるいは黄斑領域の部分画像や黄斑の位置データを含む)を出力して処理を終了する。ステップ308で、表示制御部184は、黄斑強調画像とともに、患者IDに対応した患者属性情報を反映させた、後述する表示画面600を生成する。そして、眼科装置610のディスプレイ32に表示画面600を表示する。
 出力部186は、表示画面600を、サーバ140の記億装置に出力する。表示画像600は、サーバの記憶装置に記憶される。サーバ140の記億装置に記憶された表示画面600は、ビューワ150からの操作に応じてビューワ150に送信され、ビューワ150の表示部に閲覧可能な状態で出力される。
 図12に示した処理は、サーバ140が備えるCPUで実行してもよい。サーバ140のCPUで当該処理を実行した場合は、サーバ140のディスプレイに表示画像600を表示すると共に、表示画像600をサーバ140の記憶装置に記憶する。
 また、図12に示した処理は、ビューワ150が備えるCPUで実行してもよい。ビューワ150のCPUで当該処理を実行した場合は、ビューワ150のディスプレイに表示画像600を表示すると共に、表示画像600をビューワ150の記憶装置とサーバ140の記憶装置とに各々記憶する。
 図14は、ビューワ150の表示部に表示される表示画面600を例示した概略図である。
 表示画面600は、図14に示すように、情報表示領域602と、画像表示領域604とを有する。情報表示領域602には、患者ID表示領域612、患者名表示領域614、年齢表示領域616、右眼/左眼表示領域618、眼軸長表示領域620、視力表示領域622、及び撮影日時表示領域624を有する。ビューワ150は、受信した情報に基づいて、患者ID表示領域612から撮影日時表示領域624の各表示領域に各々の情報を表示する。
 情報表示領域602には、画像選択アイコン630と表示切替アイコン640とが設けられている。
 画像表示領域604は、黄斑画像表示領域650と、関連画像表示領域660とを有する。黄斑画像表示領域650には黄斑強調画像が表示される。黄斑強調画像は、前述の差分画像でもよいが、差分画像は、黄斑以外の眼底構造物が黒っぽく描写され、各々の判別が困難なので、差分画像から黄斑部分を抜き出して、第1波長画像又は第2波長画像の黄斑位置に重畳した画像を表示してもよい。
 画像選択アイコン630がオンされると、関連画像表示領域660に表示する関連画像を選択するためのプルダウンメニュー等が表示される。表示されるプルダウンメニュー等には、既に取得されている被検眼12の眼底の疑似カラー(RGB3色)画像、RGカラー画像、青単色画像、緑(第1G光)単色画像、緑(第2G光)単色画像、赤単色画像、光干渉断層血管撮影(OCTA)による画像及び黄斑強調画像(または差分画像、差分画像から黄斑部分を抜き出して第1波長画像又は第2波長画像の黄斑位置に重畳した画像)等が表示される。図14は、関連画像表示領域660に、OCTAによる中心窩無血管野(FAZ)が表示されている様子が示されている。なお、プルダウンメニュー等で黄斑画像である差分画像を選択した場合は、黄斑画像表示領域650と、関連画像表示領域660とに、黄斑強調画像が各々表示される。
 表示切替アイコン640がオンされると、例えば、黄斑画像表示領域650と、関連画像表示領域660との左右の位置関係が反転する。デフォルト表示では、画像表示領域604の左側に黄斑画像表示領域650が、画像表示領域604の右側に関連画像表示領域660が各々表示されるが、表示切替アイコン640がオンされると、画像表示領域604の右側に黄斑画像表示領域650が、画像表示領域604の左側に関連画像表示領域660が各々表示される。
 以上説明したように、本実施の形態では、第1波長の第1G光で撮影された第1波長画像の各々の画素の輝度値から、第1波長と異なる第2波長の第2G光で撮影された第2波長画像の第1波長画像に対応する各々の画素の輝度値を減算して黄斑MAC2を強調した差分画像を得ることにより、眼底に存在する黄斑MAC2の画像データを選択的に抽出することができる。黄斑強調画像から黄斑の位置データを正確に検出することができる。
 眼底の網膜には、黄斑MAC2を検出する際の阻害要因となるヘモグロビンが存在するので、単一の波長の光で撮影した画像から黄斑MAC2の画像データを抽出するのは困難である。しかしながら、本実施の形態では、緑色を示す波長域の互いに波長が異なる2つの光で黄斑MACの吸収スペクトルに著しい変化があることと、同波長域において血液(ヘモグロビン)の相対反射特性率がさほど変化を示さないことに着目し、かかる2つの光で撮影した眼底画像の各々の画素の輝度値の差分を、各々の画素の輝度値とする差分画像を生成することにより、黄斑MAC2の画像データを選択的に抽出する。
 本実施の形態による網膜の黄斑画像あるいは黄斑位置データの抽出により、視認ではと正確な位置を特定し難い黄斑MAC2を黄斑強調画像を用いて正確に特定し、明瞭に観察することが容易となる。よって眼科医は、眼底疾患を黄斑MAC2の状態から推定することができる。
[第3の実施の形態]
 続いて第3の実施の形態について説明する。本実施の形態では、脈絡膜血管うち、静脈血管を画像処理で検出する。
 本実施の形態に係る眼科装置は、第1の実施の形態に係る眼科装置110と同様に、第1波長の第1R光で撮影された第1波長画像と、第1波長と異なる第2波長の第2R光で撮影された第2波長画像と、を取得する。従って、本実施の形態に係る眼科装置は、第1の実施の形態に係る眼科装置と同様の構成なので、各構成には第1の実施の形態と同一の符号を付して詳細な説明は省略する。
 図15は、各波長に対する酸素化ヘモグロビン(HbO2)と脱酸素化ヘモグロビン(Hb)との各々の吸収スペクトルの常用対数値を示した説明図である。図15では、波長635nmから802nmの範囲で、酸素化ヘモグロビンの吸収スペクトルが顕著に変化(グラフの左の対数の縦軸の目盛りで約2.5から極小値である約2.0となり、その後は約2.5へ変化)しているが、脱酸素化ヘモグロビンの吸収スペクトルは緩やかに減少(グラフの右の縦軸の目盛りで約3.3から約2.5へ変化)している。従って、本実施の形態では、波長635nmから802nmの範囲に含まれる第1波長の第1R光で撮影された第1波長画像と、波長635nmから802nmの範囲に含まれ、第1波長と異なる第2波長の第2R光で撮影された第2波長画像と、を各々取得する。
 酸素化ヘモグロビンの吸収スペクトルと脱酸素化ヘモグロビンの吸収スペクトルとは常用対数値で異なるレベルなので、第1の実施の形態及び第2の実施の形態のように、第1波長画像と第2波長画像との差分画像を生成したのでは、酸素化ヘモグロビンの吸収スペクトルとの差に起因する第1波長画像と第2波長画像との差分を可視化できない。本実施の形態では、後述するように、第1波長画像の各々の画素の輝度値を第2波長画像の第1波長画像に対応する各々の画素の輝度値で除算して得た商の常用対数値を各々の画素の輝度値とする除算画像を作成する。
 図16は、本実施の形態に係る眼科装置110における画像処理を例示したフローチャートである。図16に示した処理は、例えば、メモリ24に記憶された撮影処理プログラム及び画像処理プログラムに基づいて、眼科装置110の制御ユニットで行われる。ステップ400では、SLO光源制御部1804及びスキャナ制御部1806の制御により、光源44Aから第1波長を示す第1R光を、光源44Bから第2波長を示す第2R光を、各々眼底に照射して第1波長画像と第2波長画像とを取得する。第1波長と第2波長は、互いに異なるとともに、波長635nmから802nmの範囲から選択される。SLOユニット40Aが図2に示したような構成であれば、光源44Aから第1R光を、光源44Bから第2R光を、各々同時に出射して、R1光検出素子74Aで第1波長画像を、R2光検出素子74Bで第2波長画像を、各々取得することができる。脈絡膜の深さに到達する赤色の可視光の波長帯域で発光する市販のレーザ光源には、例えば、589nm、633nm、638nm、650nm、658nm、670nm、685nm、690nm、705nm、730nm、780nm、785nmなどがある。この中から第1波長と第2波長のレーザ光源が選択される。
 ステップ402では、画像処理部182が、第1波長画像と第2波長画像との位置合わせを行う。第1波長画像と第2波長画像とを同時に取得可能な本実施の形態では、ステップ402の手順は必ずしも必要ではないが、第1波長画像及び第2波長画像の各々を別個のタイミングで取得した場合は、位置合わせが必要になる場合がある。第1波長画像と第2波長画像との位置合わせは、図17の各々に示した脈絡膜血管の分岐等を特徴点として複数抽出し、抽出した各々の特徴点が一致するように、第1波長画像と第2波長画像との位置合わせを行う。
 ステップ404では、画像処理部182が、第1波長画像の各々の画素の輝度値を第2波長画像の第1波長画像に対応する各々の画素の輝度値で除算して得た商の常用対数値を各々の画素の輝度値とする除算画像を作成する。図17は、第1波長画像と第2波長画像との除算画像の作成の概念を示した説明図である。図17に示したように、第1波長画像の各々の画素の輝度値を第2波長画像の第1波長画像に対応する各々の画素の輝度値で除算して得た商の常用対数を算出することにより、除算画像を生成する。ステップ404では、算出した常用対数値がマイナスとなる場合も考えられるが、かかる場合には、当該結果の絶対値を除算画像の輝度値とする。
 前述のように、第1波長及び第2波長の各々が波長635nmから802nmの範囲に含まれる場合、脱酸素化ヘモグロビンの吸収スペクトルは、酸素化ヘモグロビンの吸収スペクトルに比して、波長に対してさほど変化しない。従って、脱酸素化ヘモグロビンの濃度が高い脈絡膜血管の静脈、脈絡膜血管の静脈が複数合流する場所に位置する渦静脈12V1D、12V1E、12V2D、12V2E、12V3D、12V3E、12V4D、12V4E、及び網膜血管の分岐点VBU7、VBU8の静脈に係る第1波長画像の画素と、第1波長画像に対応する第2波長画像の画素との商は、1に近い値となる。1に近い値の常用対数値は0に近いので、除算画像において、脱酸素化ヘモグロビンの濃度が高い脈絡膜血管の静脈、渦静脈12V1F、12V2F、12V3F、12V4F、及び網膜血管の静脈の眼底構造物である分岐点VBU9は背景より輝度値が低く(黒っぽく)描写される。
 しかしながら、前述のように、波長635nmから802nmの範囲で、酸素化ヘモグロビンの吸収スペクトルが顕著に変化する。従って、酸素化ヘモグロビンの濃度が高い動脈12A1D、12A2D及び網膜血管の分岐点VBU7の動脈部分等に係る第1波長画像の画素と、第1波長画像に対応する動脈12A1E、12A2E及び網膜血管の分岐点VBU8の動脈部分等に係る第2波長画像の画素との商は、1に近い値にならない。従って、酸素化ヘモグロビンの濃度が高い動脈12A1F、12A2F及び網膜血管の分岐点VBU9の動脈部分等の眼底構造物は輝度値が高く(白っぽく)描写される。
 つまり、除算画像では、第1画像と第2画像にくらべて、背景エリアは変化なし(ヘモグロビンが無いので)、動脈は輝度値が高くなるプラス方向に変化し、静脈は輝度値が低くなるマイナス方向に変化する。その結果、動脈と静脈が異なる輝度(画素値)に強調された血管画像を得ることができる。当該血管画像は、背景の画素値をニュートラルとして、明るさの相対値を0とした場合、動脈部分の明るさの相対値は正となり、静脈部分の明るさの相対値は負となる。
 図16のステップ406では、画像処理部182が、動脈/静脈データとして動脈血管画像や静脈血管画像を生成する。前述のように、除算画像において、脈絡膜血管の動脈12A1F、12A2Fや網膜血管の動脈等に係る画素と、脈絡膜血管の静脈、渦静脈12V1F、12V2F、12V3F、12V4F等に係る画素は、輝度値が異なる。従って、除算画像の輝度値に第1閾値(背景の画素値より大きい画素値を第1閾値とする)を適用することにより、除算画像から動脈12A1F、12A2F等からなる動脈血管画像を生成することができる。同様に、除算画像の輝度値に第2閾値(背景の画素値より小さいきい画素値を第2閾値とする)を適用することにより、脈絡膜血管の静脈、渦静脈12V1F、12V2F、12V3F、12V4F、網膜血管の静脈等がからなる静脈血管画像を生成することができる。つまり、眼底画像から静脈と動脈を分離することができる。
 本実施の形態では、動脈12A1F、12A2F等に係る画素は、静脈や渦静脈12V1F、12V2F、12V3F、12V4F等に係る画素に比して輝度値が高いので、輝度値が第1閾値以上の画素を抽出し、抽出した画素以外の画像領域を抽出した画素よりも輝度値が低い画素で埋めることによって動脈画像を作成する。
 また、本実施の形態では、静脈、渦静脈12V1F、12V2F、12V3F、12V4F等に係る画素は、動脈12A1F、12A2F等に係る画素に比して輝度値が低いので、輝度値が第2閾値未満の画素を抽出し、抽出した画素以外の画像領域を抽出した画素よりも輝度値が高い画素で埋めることによって静脈画像を作成する。第1閾値及び第2閾値は、各々が同じ値でもよいし、互いに異なる値でもよい。
 動脈/静脈データを抽出するための閾値は、除算画像における動脈12A1F、12A2F等に係る画素の輝度値と、渦静脈12V1F、12V2F、12V3F、12V4F等に係る画素の輝度値とに基づいて決定してもよい。例えば、動脈12A1F、12A2F等に係る画素の輝度値と、渦静脈12V1F、12V2F、12V3F、12V4F等に係る画素の輝度値との中間値を閾値とするようにしてもよい。
 ステップ408では、画像処理部182が、静脈血管画像を画像処理することにより、渦静脈12V1H、12V2H、12V3H、12V4Hの位置を検出する。静脈血管画像では脈絡膜血管の静脈血管が可視化されている。脈絡膜の静脈血管が複数合流している個所が渦静脈である。渦静脈は脈絡膜を潅流した血液が眼球の外へ流れる出口に相当する血管であるため、もっとも酸素が消費された血液が集中する部分でもある。よって、脱酸素化ヘモグロビン(Hb)の濃度が他の静脈血管と比較して高くなっており、静脈血管画像において渦静脈位置の画素値は他の静脈血管の画素値より暗い。よって、もっとも暗い画素値の箇所あるいは静脈血管の画素値の平均値より暗い画素値の箇所を渦静脈位置と推定することができる。このとき、脈絡膜の静脈血管が複数合流していることを加味して渦静脈位置を検出するようにしてもよい。
 このようにして、渦静脈12V1H、12V2H、12V3H、12V4Hの位置を検出できる。
 ステップ410では、除算画像、動脈血管画像及び静脈血管画像を含む脈絡膜血管画像と、渦静脈位置データとを出力して処理を終了する。ステップ410で、表示制御部184は、脈絡膜血管画像等とともに、患者IDに対応した患者属性情報を反映させた、後述する表示画面700を生成する。そして、眼科装置110のディスプレイ32に表示画面700を表示する。
 出力部186は、表示画面700を、サーバ140の記億装置に出力する。表示画面700は、サーバ140の記億装置に記憶される。サーバ140の記億装置に記憶された表示画面700は、ビューワ150からの操作に応じてビューワ150に送信され、ビューワ150の表示部に閲覧可能な状態で出力される。
 図16に示した処理は、サーバ140が備えるCPUで実行してもよい。サーバ140のCPUで当該処理を実行した場合は、サーバ140のディスプレイに表示画像700を表示すると共に、表示画像700をサーバ140の記憶装置に記憶する。
 また、図16に示した処理は、ビューワ150が備えるCPUで実行してもよい。ビューワ150のCPUで当該処理を実行した場合は、ビューワ150のディスプレイに表示画像700を表示すると共に、表示画像700をビューワ150の記憶装置とサーバ140の記憶装置とに各々記憶する。 
 図18は、ビューワ150の表示部に表示される表示画面700を例示した概略図である。
 表示画面700は、図18に示すように、情報表示領域702と、画像表示領域704とを有する。情報表示領域702には、患者ID表示領域712、患者名表示領域714、年齢表示領域716、右眼/左眼表示領域718、眼軸長表示領域720、視力表示領域722、及び撮影日時表示領域724を有する。ビューワ150は、受信した情報に基づいて、患者ID表示領域712から撮影日時表示領域724の各表示領域に各々の情報を表示する。
 情報表示領域702には、画像選択アイコン730と表示切替アイコン740とが設けられている。
 画像表示領域704は、関連画像表示領域750と、動脈画像表示領域760と、静脈画像表示領域770とを有する。動脈画像表示領域760には動脈画像が表示される。静脈画像表示領域770には、静脈画像が表示される。図18に示したように、動脈画像には動脈12A1G、12A2G及び網膜血管の分岐点VBU10の動脈部分等が、静脈画像には渦静脈12V1H、12V2H、12V3H、12V4H、及び網膜血管の分岐点VBU11の静脈部分等が、各々表示されている。また、動脈画像には視神経乳頭ONHU10が、静脈画像には視神経乳頭ONHU11が、各々表示されている。
 画像選択アイコン730がオンされると、関連画像表示領域750に表示する関連画像を選択するためのプルダウンメニュー等が表示される。表示されるプルダウンメニュー等には、既に取得されている被検眼12の眼底の疑似カラー(RGB3色)画像、RGカラー画像、青単色画像、緑単色画像、赤(第1R光)単色画像、赤(第2R光)単色画像、及び除算画像等が表示される。赤(第1R光)単色画像及び赤(第2R光)単色画像は、除算画像を生成する際に使用した元画像である。図18は、関連画像表示領域750に、元画像である赤(第1R光)単色画像が表示されている様子が示されている。
 表示切替アイコン640がオンされると、例えば、関連画像表示領域750と、動脈画像表示領域760と、静脈画像表示領域770との左右の位置関係が変化する。デフォルト表示では、画像表示領域704の左側に関連画像表示領域750が、画像表示領域704の中央に動脈画像表示領域760が、画像表示領域704の右側に静脈画像表示領域770が各々表示されるが、表示切替アイコン740がオンされると、例えば、画像表示領域704の左側に動脈画像表示領域760が、画像表示領域704の中央に静脈画像表示領域770が、画像表示領域704の右側に関連画像表示領域750が各々表示される。
 以上説明したように、本実施の形態では、第1波長の第1R光で撮影された第1波長画像の各々の画素の輝度値を、第1波長と異なる第2波長の第2R光で撮影された第2波長画像の第1波長画像に対応する各々の画素の輝度値で除算して得た商の常用対数値を各々の画素の輝度値とする除算画像を作成して、眼底に存在する動脈及び静脈の各々の画像データを選択的に抽出する。
 波長635nmから802nmの範囲で、酸素化ヘモグロビンの吸収スペクトルは顕著に変化するが、脱酸素化ヘモグロビンの吸収スペクトルはそれほど変化しないので、第1波長画像の各々の画素の輝度値を第2波長画像の第1波長画像に対応する各々の画素の輝度値で除算して得た商の常用対数値を各々の画素の輝度値とする除算画像により、動脈と静脈とを明瞭に識別できるようになる。
 本実施の形態に係る脈絡膜血管の動脈の画像データの抽出により、例えば、動脈硬化の兆候を逸早く検出することが容易となり、眼科医は、血管の障害に係る疾患の予兆を動脈12A1、12A2の状態から推定することができる。
[変形例]
 続いて、眼科装置の変形例について説明する。図19は、本変形例の眼科装置のSLOユニット40Cのブロック図である。
 本変形例は、SLOユニット40Cが、多波長光源162を有する光源部160と、第1波長の光を受光する第1波長用光検出素子164A及び第2波長の光を検出する第2波長用光検出素子164Bを有する受光部164を備える点で、第1の実施の形態に係る眼科装置110、第2の実施の形態に係る眼科装置610及び第3の実施の形態に係る眼科装置110と相違する。
 多波長光源162は、SLD(Super Luminescent Diode)等の、波長440nmから802nmのレーザを出射可能な発光素子である。
 SLOユニット40Cは、多波長光源162からの光を、反射又は透過して光路に導く光学系170、172、174、176、178を備えている。光学系172、176はスキャナであり、具体的には、ミラー、ダイクロイックミラー、ハーフミラー等である。光学系170はビームスプリッタであり、具体的には、ダイクロイックミラー、ハーフミラー等である。そして、光学系174、178はレンズである。
 多波長光源162からの光は、光学系170を透過し、光学系172で反射し、光学系174で集光し、光学系176で反射し、光学系178で被検眼12の後眼部(眼底)に導かれる。光学系172及び光学系176の各々は、アクチュエータ等で可動であり、多波長光源162からの光を被検眼12の眼底に導くようにする。
 被検眼12の眼底で反射した光は、光学系178を透過し、光学系176で反射し、光学系172で反射し、光学系170で反射して受光部164に導かれる。
 受光部164に導かれた光は、ビームスプリッタ164Cで第1波長の光と第2波長の光とに分離され、第1波長の光は第1波長用光検出素子164Aで受光され、第2波長の光は第2波長用光検出素子164Bで受光される。
 以上説明したように、本変形では、波長440nmから802nmのレーザを出射可能な多波長光源162を備えることで、SLOユニット40Cの光学系を簡素化でき、眼科装置のコンパクト化を図ることができる。
 以上説明した各実施の形態における画像処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 以上説明した各実施の形態では、コンピュータを利用したソフトウェア構成による画像処理を想定しているが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等のハードウェア構成のみによって、画像処理が実行されるようにしてもよい。画像処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。

Claims (30)

  1.  第1波長の第1光で撮影された第1眼底画像と、前記第1波長が示す色相と近似した色相を示す所定の波長域に含まれ、前記第1波長と異なる第2波長の第2光で撮影された第2眼底画像と、を取得する取得部と、
     前記第1眼底画像と前記第2眼底画像とを画像処理することにより眼底構造物を強調した強調眼底画像を生成する画像処理部と、
     を備えた画像処理装置。
  2.  眼底に存在する物質に対する前記第1光の第1反射率と、前記物質に対する前記第2光の第1反射率とが異なることを特徴とする請求項1に記載の画像処理装置。
  3.  前記画像処理部は、前記第1眼底画像の各々の画素の輝度値から前記第2眼底画像の前記第1眼底画像に対応する各々の画素の輝度値を減算して前記強調眼底画像を得る請求項2に記載の画像処理装置。
  4.  前記画像処理部は、前記第1眼底画像の各々の画素の輝度値を前記第2眼底画像の前記第1眼底画像に対応する各々の画素の輝度値で除算して前記強調眼底画像を得る請求項2に記載の画像処理装置。
  5.  前記第1波長と前記第2波長との差は50nm以下である請求項2から請求項4のいずれか1項に記載の画像処理装置。
  6.  第1波長と第2波長の差は25nm以下である請求項5に記載の画像処理装置。
  7.  前記第1波長及び前記第2波長は、575nm以上800nm以下である請求項2から請求項6のいずれか1項に記載の画像処理装置。
  8.  前記第1波長及び前記第2波長は、589nm、633nm、638nm、650nm、658nmのいずれかである請求項7に記載の画像処理装置。
  9.  前記眼底構造物は、脈絡膜血管である請求項2から請求項8のいずれか1項に記載の画像処理装置。
  10.  前記物質はヘモグロビンである請求項9に記載の画像処理装置。
  11.  前記物質はメラニンである請求項9に記載の画像処理装置。
  12.  前記第1波長及び前記第2波長は、450nm以上488nm以下である請求項2から請求項4のいずれか1項に記載の画像処理装置。
  13.  前記眼底構造物は黄斑である請求項12に記載の画像処理装置。
  14.  前記物質はルテインである請求項13に記載の画像処理装置。
  15.  前記第1波長及び前記第2波長は、酸素化ヘモグロビンに対する前記第1波長の吸収スペクトルと酸素化ヘモグロビンに対する前記第2波長の吸収スペクトルとの差分が、脱酸素化ヘモグロビンに対する前記第1波長の吸収スペクトルと脱酸素化ヘモグロビンに対する前記第2波長の吸収スペクトルとの差分に比して小さくなる波長域に各々含まれる請求項1に記載の画像処理装置。
  16.  前記第1波長及び前記第2波長は、635nm以上802nm以下である請求項15に記載の画像処理装置。
  17.  前記画像処理部は、前記第1眼底画像の各々の画素の輝度値を前記第2眼底画像の前記第1眼底画像に対応する各々の画素の輝度値で除算して得た値を常用対数化して前記強調眼底画像を得る請求項15又は16に記載の画像処理装置。
  18.  前記画像処理部は、前記強調眼底画像により脈絡膜血管を示す画素を顕在化する請求項17に記載の画像処理装置。
  19.  前記画像処理部は、前記強調眼底画像から脱酸素化ヘモグロビンの濃度が顕著であることを示す画素を渦静脈の画素として抽出する請求項18に記載の画像処理装置。
  20.  請求項1から請求項19のいずれか1項に記載の画像処理装置と、
     前記第1波長の光を出力する第1波長光源と、
     前記第2波長の光を出力する第2波長光源と、
     前記第1波長及び 前記第2波長の各々の光を眼底に誘導する光学系と、
     前記画像処理装置、前記第1波長光源、前記第2波長光源及び 前記光学系を制御する制御部と、
     を備えた眼科装置。
  21.  眼底の所定深さ領域に到達する第1波長の第1光で撮影された第1眼底画像と、前記第1波長が前記第1波長と異なり、かつ、前記所定深さ領域に到達する第2波長の第2光で撮影された第2眼底画像と、を取得する取得部と、
     前記第1眼底画像と前記第2眼底画像とを画像処理することにより眼底構造物を強調した強調眼底画像を生成する画像処理部と、
     を備えた画像処理装置。
  22.  前記所定深さ領域は、網膜表面から0.2mmの範囲であることを特徴とする請求項21に記載の画像処理装置。
  23.  前記眼底構造物は、網膜の構造物であることを特徴とする請求項22に記載の画像処理装置。
  24.  前記所定深さ領域は、網膜表面を起点として0.2mmから0.8mmの範囲であることを特徴とする請求項21に記載の画像処理装置。
  25.  前記眼底構造物は、脈絡膜の構造物であることを特徴とする請求項24に記載の画像処理装置。
  26.  請求項21から請求項25のいずれか1項に記載の画像処理装置と、
     前記第1波長の光を出力する第1波長光源と、
     前記第2波長の光を出力する第2波長光源と、
     前記第1波長及び 前記第2波長の各々の光を眼底に誘導する光学系と、
     前記画像処理装置、前記第1波長光源、前記第2波長光源及び 前記光学系を制御する制御部と、
     を備えた眼科装置。
  27.  第1波長の第1光で撮影された第1眼底画像と、前記第1波長が示す色相と近似した色相を示す所定の波長域に含まれ、前記第1波長と異なる第2波長の第2光で撮影された第2眼底画像と、を取得することと、
     前記第1眼底画像と前記第2眼底画像とを画像処理することにより眼底構造物を強調した強調眼底画像を生成することと、
     を含む画像処理方法。
  28.  眼底の所定深さ領域に到達する第1波長の第1光で撮影された第1眼底画像と、前記第1波長が前記第1波長と異なり、かつ、前記所定深さ領域に到達する第2波長の第2光で撮影された第2眼底画像と、を取得することと、
     前記第1眼底画像と前記第2眼底画像とを画像処理することにより眼底構造物を強調した強調眼底画像を生成することと、
     を含む画像処理方法。
  29.  コンピュータを、
     第1波長の第1光で撮影された第1眼底画像と、前記第1波長が示す色相と近似した色相を示す所定の波長域に含まれ、前記第1波長と異なる第2波長の第2光で撮影された第2眼底画像と、を取得する取得部、及び前記第1眼底画像と前記第2眼底画像とを画像処理することにより眼底構造物を強調した強調眼底画像を生成する画像処理部として機能させる画像処理プログラム。
  30. コンピュータを、
     眼底の所定深さ領域に到達する第1波長の第1光で撮影された第1眼底画像と、前記第1波長が前記第1波長と異なり、かつ、前記所定深さ領域に到達する第2波長の第2光で撮影された第2眼底画像と、を取得する取得部、及び前記第1眼底画像と前記第2眼底画像とを画像処理することにより眼底構造物を強調した強調眼底画像を生成する画像処理部として機能させる画像処理プログラム。
PCT/JP2019/035727 2019-09-11 2019-09-11 画像処理装置、画像処理方法、及び画像処理プログラム WO2021048954A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/035727 WO2021048954A1 (ja) 2019-09-11 2019-09-11 画像処理装置、画像処理方法、及び画像処理プログラム
JP2021545035A JPWO2021048954A1 (ja) 2019-09-11 2019-09-11
JP2023214958A JP2024041773A (ja) 2019-09-11 2023-12-20 画像処理装置、眼科装置、画像処理方法、及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/035727 WO2021048954A1 (ja) 2019-09-11 2019-09-11 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2021048954A1 true WO2021048954A1 (ja) 2021-03-18

Family

ID=74866261

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/035727 WO2021048954A1 (ja) 2019-09-11 2019-09-11 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (2)

Country Link
JP (2) JPWO2021048954A1 (ja)
WO (1) WO2021048954A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7436066B2 (ja) 2022-03-23 2024-02-21 國立中正大學 眼底画像における動脈及び静脈を識別する方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63238843A (ja) * 1987-03-27 1988-10-04 興和株式会社 眼科診断方法及び装置
JPH02295539A (ja) * 1989-05-08 1990-12-06 Kowa Co 眼底血管識別方法及び装置
JPH0871045A (ja) * 1994-09-02 1996-03-19 Canon Inc 眼底検査装置
US20060134004A1 (en) * 2004-12-21 2006-06-22 The University Of Utah Methods and apparatus for detection of carotenoids in macular tissue
JP2007330558A (ja) * 2006-06-15 2007-12-27 Topcon Corp 分光眼底測定装置及びその測定方法
JP2008142297A (ja) * 2006-12-11 2008-06-26 Kyushu Univ 異方性ノイズを除去するためのプログラムと異方性ノイズ除去方法
JP2010172615A (ja) * 2009-01-30 2010-08-12 Topcon Corp 機能イメージング眼科装置
JP2010233916A (ja) * 2009-03-31 2010-10-21 Chiba Univ 眼底画像処理装置及び眼底画像処理プログラム並びに眼底画像処理方法
JP2014504938A (ja) * 2011-02-09 2014-02-27 テル ハショマー メディカル リサーチ インフラストラクチャー アンド サーヴィシーズ リミテッド 血液を含む組織の画像形成方法と装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63238843A (ja) * 1987-03-27 1988-10-04 興和株式会社 眼科診断方法及び装置
JPH02295539A (ja) * 1989-05-08 1990-12-06 Kowa Co 眼底血管識別方法及び装置
JPH0871045A (ja) * 1994-09-02 1996-03-19 Canon Inc 眼底検査装置
US20060134004A1 (en) * 2004-12-21 2006-06-22 The University Of Utah Methods and apparatus for detection of carotenoids in macular tissue
JP2007330558A (ja) * 2006-06-15 2007-12-27 Topcon Corp 分光眼底測定装置及びその測定方法
JP2008142297A (ja) * 2006-12-11 2008-06-26 Kyushu Univ 異方性ノイズを除去するためのプログラムと異方性ノイズ除去方法
JP2010172615A (ja) * 2009-01-30 2010-08-12 Topcon Corp 機能イメージング眼科装置
JP2010233916A (ja) * 2009-03-31 2010-10-21 Chiba Univ 眼底画像処理装置及び眼底画像処理プログラム並びに眼底画像処理方法
JP2014504938A (ja) * 2011-02-09 2014-02-27 テル ハショマー メディカル リサーチ インフラストラクチャー アンド サーヴィシーズ リミテッド 血液を含む組織の画像形成方法と装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7436066B2 (ja) 2022-03-23 2024-02-21 國立中正大學 眼底画像における動脈及び静脈を識別する方法

Also Published As

Publication number Publication date
JP2024041773A (ja) 2024-03-27
JPWO2021048954A1 (ja) 2021-03-18

Similar Documents

Publication Publication Date Title
JP6321430B2 (ja) 眼科装置
JP6080128B2 (ja) 眼科撮影装置およびこれに装着可能な光学ユニット
JP6776076B2 (ja) Oct装置
JP6585897B2 (ja) 眼科撮影装置
JP2023076659A (ja) 眼科装置
JP2024041773A (ja) 画像処理装置、眼科装置、画像処理方法、及び画像処理プログラム
WO2018135175A1 (ja) 眼科装置
JP7096116B2 (ja) 血流計測装置
US11871991B2 (en) Image processing method, program, and image processing device
WO2021074960A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7181135B2 (ja) 眼科装置
JP2016049243A (ja) 眼科装置
JP2016195956A (ja) 眼科観察装置
JP2016182525A (ja) 眼科撮影装置
JP2017079886A (ja) 血流計測装置
JP7494855B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7419946B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2017202369A (ja) 眼科画像処理装置
JP2019054994A (ja) 眼科撮影装置、眼科情報処理装置、プログラム、及び記録媒体
WO2019150862A1 (ja) 血流計測装置
JP2019154987A (ja) 眼科装置、その制御方法、プログラム、及び記録媒体
US20240153203A1 (en) Image processing method, image processing device, and program
WO2022181729A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2019054993A (ja) 血流計測装置
JP6761519B2 (ja) 眼科撮影装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19945101

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021545035

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19945101

Country of ref document: EP

Kind code of ref document: A1