WO2021079504A1 - 画像処理方法、画像処理装置、及びプログラム - Google Patents

画像処理方法、画像処理装置、及びプログラム Download PDF

Info

Publication number
WO2021079504A1
WO2021079504A1 PCT/JP2019/041982 JP2019041982W WO2021079504A1 WO 2021079504 A1 WO2021079504 A1 WO 2021079504A1 JP 2019041982 W JP2019041982 W JP 2019041982W WO 2021079504 A1 WO2021079504 A1 WO 2021079504A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
point
fundus image
image processing
dimensional fundus
Prior art date
Application number
PCT/JP2019/041982
Other languages
English (en)
French (fr)
Inventor
真梨子 廣川
泰士 田邉
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to US17/770,878 priority Critical patent/US20230000337A1/en
Priority to JP2021553267A priority patent/JP7472914B2/ja
Priority to PCT/JP2019/041982 priority patent/WO2021079504A1/ja
Publication of WO2021079504A1 publication Critical patent/WO2021079504A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning

Definitions

  • the present invention relates to an image processing method, an image processing device, and a program.
  • US Patent Application Publication No. 2009/0136100 discloses a panoramic fundus image synthesizer and method, and an appropriate image display method for analyzing and diagnosing the fundus is required.
  • a first aspect of the technique of the present disclosure is image processing performed by a processor, which is a second on an eye model that acquires a two-dimensional fundus image and corresponds to at least one first point of the two-dimensional fundus image. The point is acquired, and data showing the process of the first point moving to the second point is created.
  • the image processing apparatus of the second aspect of the technique of the present disclosure includes a memory and a processor connected to the memory, and the processor acquires a two-dimensional fundus image and at least one first of the two-dimensional fundus images.
  • the second point on the eyeball model corresponding to the first point is acquired, and data showing the process of the first point moving to the second point is created.
  • the program of the third aspect of the technique of the present disclosure acquires a two-dimensional fundus image on a computer and acquires a second point on the eyeball model corresponding to at least one first point of the two-dimensional fundus image. Then, the process of moving the first point to the second point is created, and the data is created.
  • the ophthalmology system 100 includes an ophthalmology device 110, an axial length measuring device 120, a management server device (hereinafter referred to as “server”) 140, and an image display device (hereinafter referred to as “viewer”). It has 150 and.
  • the ophthalmic apparatus 110 acquires a fundus image.
  • the axial length measuring device 120 measures the axial length of the patient.
  • the server 140 stores the fundus image obtained by photographing the fundus of the patient by the ophthalmologic apparatus 110, corresponding to the ID of the patient.
  • the viewer 150 displays medical information such as a fundus image acquired from the server 140.
  • the ophthalmic apparatus 110, the axial length measuring instrument 120, the server 140, and the viewer 150 are connected to each other via the network 130.
  • SLO scanning laser ophthalmoscope
  • OCT optical coherence tomography
  • the horizontal direction is the "X direction” and the direction perpendicular to the horizontal plane is the "Y direction", connecting the center of the pupil of the anterior segment of the eye 12 to the center of the eyeball.
  • the direction is "Z direction”. Therefore, the X, Y, and Z directions are perpendicular to each other.
  • the ophthalmic device 110 includes a photographing device 14 and a control device 16.
  • the photographing device 14 includes an SLO unit 18, an OCT unit 20, and a photographing optical system 19, and acquires a fundus image of the fundus of the eye to be inspected 12.
  • the two-dimensional fundus image acquired by the SLO unit 18 is referred to as an SLO image.
  • a tomographic image of the retina, an frontal image (en-face image), or the like created based on the OCT data acquired by the OCT unit 20 is referred to as an OCT image.
  • the control device 16 includes a computer having a CPU (Central Processing Unit) 16A, a RAM (Random Access Memory) 16B, a ROM (Read-Only memory) 16C, and an input / output (I / O) port 16D. ing.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read-Only memory
  • I / O input / output
  • the control device 16 includes an input / display device 16E connected to the CPU 16A via the I / O port 16D.
  • the input / display device 16E has a graphic user interface for displaying an image of the eye 12 to be inspected and receiving various instructions from the user.
  • the graphic user interface includes a touch panel display.
  • control device 16 includes an image processing device 16G connected to the I / O port 16D.
  • the image processing device 16G generates an image of the eye 12 to be inspected based on the data obtained by the photographing device 14.
  • the control device 16 includes a communication interface (I / F) 16F connected to the I / O port 16D.
  • the ophthalmic apparatus 110 is connected to the axial length measuring instrument 120, the server 140, and the viewer 150 via the communication interface (I / F) 16F and the network 130.
  • the control device 16 of the ophthalmic device 110 includes the input / display device 16E, but the technique of the present disclosure is not limited to this.
  • the control device 16 of the ophthalmic apparatus 110 may not include the input / display device 16E, but may include an input / display device that is physically independent of the ophthalmic apparatus 110.
  • the display device includes an image processing processor unit that operates under the control of the CPU 16A of the control device 16.
  • the image processing processor unit may display an SLO image or the like based on the image signal output instructed by the CPU 16A.
  • the photographing device 14 operates under the control of the CPU 16A of the control device 16.
  • the photographing apparatus 14 includes an SLO unit 18, a photographing optical system 19, and an OCT unit 20.
  • the photographing optical system 19 includes a first optical scanner 22, a second optical scanner 24, and a wide-angle optical system 30.
  • the first optical scanner 22 two-dimensionally scans the light emitted from the SLO unit 18 in the X direction and the Y direction.
  • the second optical scanner 24 two-dimensionally scans the light emitted from the OCT unit 20 in the X direction and the Y direction.
  • the first optical scanner 22 and the second optical scanner 24 may be any optical element capable of deflecting a luminous flux, and for example, a polygon mirror, a galvano mirror, or the like can be used. Moreover, it may be a combination thereof.
  • the wide-angle optical system 30 includes an objective optical system having a common optical system 28 (not shown in FIG. 2), and a compositing unit 26 that synthesizes light from the SLO unit 18 and light from the OCT unit 20.
  • the objective optical system of the common optical system 28 may be a catadioptric system using a concave mirror such as an elliptical mirror, a catadioptric system using a wide-angle lens or the like, or a catadioptric system combining a concave mirror or a lens.
  • a wide-angle optical system using an elliptical mirror or a wide-angle lens it is possible to photograph not only the central part of the fundus where the optic disc and the macula are present, but also the retina around the fundus where the equator of the eyeball and the vortex vein are present. It will be possible.
  • the wide-angle optical system 30 enables observation in the fundus with a wide field of view (FOV: Field of View) 12A.
  • the FOV 12A indicates a range that can be photographed by the photographing device 14.
  • FOV12A can be expressed as a viewing angle.
  • the viewing angle can be defined by an internal irradiation angle and an external irradiation angle in the present embodiment.
  • the external irradiation angle is an irradiation angle in which the irradiation angle of the luminous flux emitted from the ophthalmic apparatus 110 to the eye 12 to be inspected is defined with reference to the pupil 27.
  • the internal irradiation angle is an irradiation angle in which the irradiation angle of the luminous flux irradiated to the fundus is defined with reference to the center O of the eyeball.
  • the external irradiation angle and the internal irradiation angle have a corresponding relationship. For example, when the external irradiation angle is 120 degrees, the internal irradiation angle corresponds to about 160 degrees. In this embodiment, the internal irradiation angle is 200 degrees.
  • the internal irradiation angle of 200 degrees is an example of the "predetermined value" of the technology of the present disclosure.
  • the SLO fundus image obtained by taking a picture with an internal irradiation angle of 160 degrees or more is referred to as a UWF-SLO fundus image (see FIG. 7A).
  • UWF is an abbreviation for Ultra Wide Field (ultra-wide-angle).
  • the UWF-SLO fundus image taken by the wide-angle optical system of the ophthalmic apparatus 110 is an image obtained by stereographically projecting and converting the retinal image of the eyeball into a two-dimensional plane.
  • the distance and area of the peripheral part of the fundus are more distorted than that of the central part of the fundus. Therefore, as a result of the area and shape of the structures and lesion areas existing around the fundus and the equator of the fundus appearing to be distorted, such as the fundus structure of the vortex vein and retinal detachment, these objects are on the eyeball in relation to the surroundings. There is a problem that it is difficult to grasp the position of the UWF-SLO fundus image, which is a two-dimensional fundus image.
  • the fundus equator 174 will be described with reference to FIG. 7B.
  • the eyeball (eye 12 to be inspected) is a spherical structure having an eyeball center 170 having a diameter of about 24 mm.
  • the straight line connecting the front pole 175 and the rear pole 176 is called the eyeball axis 172, the line where the plane orthogonal to the eyeball axis 172 intersects the eyeball surface is called the latitude line, and the one with the maximum latitude line length is the equator 174.
  • the portion of the retina or choroid corresponding to the position of the equator 174 is referred to as the equator 178.
  • the equatorial region 178 is a part of the peripheral portion of the fundus.
  • the SLO system is realized by the control device 16, the SLO unit 18, and the photographing optical system 19 shown in FIG. Since the SLO system includes a wide-angle optical system 30, it enables fundus photography with a wide FOV12A.
  • the SLO unit 18 includes a plurality of light sources, for example, a B light (blue light) light source 40, a G light (green light) light source 42, an R light (red light) light source 44, and an IR light (infrared ray (for example, near)). Infrared light)) light source 46, and optical systems 48, 50, 52, 54, 56 that reflect or transmit light from light sources 40, 42, 44, 46 and guide them into one optical path.
  • the optical systems 48, 50 and 56 are mirrors, and the optical systems 52 and 54 are beam splitters.
  • B light is reflected by the optical system 48, is transmitted through the optical system 50, is reflected by the optical system 54, G light is reflected by the optical systems 50 and 54, and R light is transmitted through the optical systems 52 and 54.
  • IR light is reflected by the optical systems 56 and 52 and guided to one optical path, respectively.
  • the SLO unit 18 is configured to be able to switch a combination of a light source that emits laser light having a different wavelength or a light source that emits light, such as a mode that emits G light, R light, and B light, and a mode that emits infrared light.
  • a light source 40 for B light (blue light) includes four light sources: a light source 40 for B light (blue light), a light source 42 for G light, a light source 44 for R light, and a light source 46 for IR light.
  • the SLO unit 18 may further include a light source for white light and emit light in various modes such as a mode in which only white light is emitted.
  • the light incident on the photographing optical system 19 from the SLO unit 18 is scanned in the X direction and the Y direction by the first optical scanner 22.
  • the scanning light is applied to the back eye portion of the eye to be inspected 12 via the wide-angle optical system 30 and the pupil 27.
  • the reflected light reflected by the fundus is incident on the SLO unit 18 via the wide-angle optical system 30 and the first optical scanner 22.
  • the SLO unit 18 is a beam splitter 64 that reflects B light and transmits other than B light among the light from the rear eye portion (for example, the fundus of the eye) of the eye 12 to be examined, and G of the light that has passed through the beam splitter 64.
  • a beam splitter 58 that reflects light and transmits light other than G light is provided.
  • the SLO unit 18 includes a beam splitter 60 that reflects R light and transmits other than R light among the light transmitted through the beam splitter 58.
  • the SLO unit 18 includes a beam splitter 62 that reflects IR light among the light transmitted through the beam splitter 60.
  • the SLO unit 18 includes a plurality of photodetecting elements corresponding to a plurality of light sources.
  • the SLO unit 18 includes a B light detection element 70 that detects B light reflected by the beam splitter 64, and a G light detection element 72 that detects G light reflected by the beam splitter 58.
  • the SLO unit 18 includes an R light detection element 74 that detects the R light reflected by the beam splitter 60, and an IR light detection element 76 that detects the IR light reflected by the beam splitter 62.
  • the light incident on the SLO unit 18 via the wide-angle optical system 30 and the first optical scanner 22 (reflected light reflected by the fundus of the eye) is reflected by the beam splitter 64 and is reflected by the B light detection element 70.
  • the beam splitter 64 In the case of G light, it is transmitted through the beam splitter 64, reflected by the beam splitter 58, and received by the G light detection element 72.
  • the incident light passes through the beam splitters 64 and 58, is reflected by the beam splitter 60, and is received by the R light detection element 74.
  • the incident light passes through the beam splitters 64, 58, and 60, is reflected by the beam splitter 62, and is received by the IR photodetector 76.
  • the image processing device 16G which operates under the control of the CPU 16A, uses the signals detected by the B photodetector 70, the G photodetector 72, the R photodetector 74, and the IR photodetector 76 to produce a UWF-SLO image. Generate.
  • the UWF-SLO image (also referred to as a UWF fundus image or an original fundus image as described later) includes a UWF-SLO image (G color fundus image) obtained by photographing the fundus in G color and a fundus in R color. There is a UWF-SLO image (R color fundus image) obtained by taking a picture.
  • the UWF-SLO images include a UWF-SLO image (B color fundus image) obtained by photographing the fundus in B color and a UWF-SLO image (IR fundus image) obtained by photographing the fundus in IR. There is.
  • control device 16 controls the light sources 40, 42, and 44 so as to emit light at the same time.
  • a G color fundus image, an R color fundus image, and a B color fundus image in which the positions correspond to each other can be obtained.
  • An RGB color fundus image can be obtained from the G color fundus image, the R color fundus image, and the B color fundus image.
  • the control device 16 controls the light sources 42 and 44 so as to emit light at the same time, and the fundus of the eye to be inspected 12 is simultaneously photographed by the G light and the R light.
  • a fundus image can be obtained.
  • An RG color fundus image can be obtained from the G color fundus image and the R color fundus image.
  • each image data of the UWF-SLO image is transmitted from the ophthalmologic device 110 to the server 140 via the communication interface (I / F) 16F together with the patient information input via the input / display device 16E.
  • Each image data of the UWF-SLO image and the patient information are stored in the storage device 254 correspondingly.
  • the patient information includes, for example, patient name ID, name, age, visual acuity, right eye / left eye distinction, and the like.
  • the patient information is input by the operator via the input / display device 16E.
  • the OCT system is realized by the control device 16, the OCT unit 20, and the photographing optical system 19 shown in FIG. Since the OCT system includes the wide-angle optical system 30, it enables fundus photography with a wide FOV12A in the same manner as the above-mentioned SLO fundus image acquisition.
  • the OCT unit 20 includes a light source 20A, a sensor (detection element) 20B, a first optical coupler 20C, a reference optical system 20D, a collimating lens 20E, and a second optical coupler 20F.
  • the light emitted from the light source 20A is branched by the first optical coupler 20C.
  • One of the branched lights is made into parallel light by the collimated lens 20E as measurement light, and then is incident on the photographing optical system 19.
  • the measurement light is scanned in the X and Y directions by the second optical scanner 24.
  • the scanning light is applied to the fundus through the wide-angle optical system 30 and the pupil 27.
  • the measurement light reflected by the fundus is incident on the OCT unit 20 via the wide-angle optical system 30 and the second optical scanner 24, and passes through the collimating lens 20E and the first optical coupler 20C to the second optical coupler 20F. Incident in.
  • the other light emitted from the light source 20A and branched by the first optical coupler 20C is incident on the reference optical system 20D as reference light, and is incident on the second optical coupler 20F via the reference optical system 20D. To do.
  • the image processing device 16G that operates under the control of the CPU 16A generates an OCT image such as a tomographic image or an en-face image based on the OCT data detected by the sensor 20B.
  • the OCT fundus image obtained by taking a picture with an internal irradiation angle of 160 degrees or more is referred to as a UWF-OCT image.
  • OCT data can be acquired at a shooting angle of view of less than 160 degrees with an internal irradiation angle.
  • the image data of the UWF-OCT image is transmitted from the ophthalmic apparatus 110 to the server 140 via the communication interface (I / F) 16F together with the patient information.
  • the image data of the UWF-OCT image and the patient information are stored in the storage device 254 in correspondence with each other.
  • the light source 20A exemplifies a wavelength sweep type SS-OCT (Swept-Source OCT), but SD-OCT (Spectral-Domain OCT), TD-OCT (Time-Domain OCT), etc. It may be an OCT system of various types.
  • the axial length measuring device 120 has two modes, a first mode and a second mode, for measuring the axial length, which is the length of the eye to be inspected 12 in the axial direction.
  • a first mode after guiding the light from a light source (not shown) to the eye 12 to be inspected, the interference light between the reflected light from the fundus and the reflected light from the cornea is received, and the interference signal indicating the received interference light is generated.
  • the axial length is measured based on this.
  • the second mode is a mode in which the axial length is measured using ultrasonic waves (not shown).
  • the axial length measuring device 120 transmits the axial length measured by the first mode or the second mode to the server 140.
  • the axial length may be measured in the first mode and the second mode.
  • the average of the axial lengths measured in both modes is transmitted to the server 140 as the axial length.
  • the server 140 stores the axial length of the patient corresponding to the patient name ID.
  • the server 140 includes a computer main body 252.
  • the computer body 252 has a CPU 262, a RAM 266, a ROM 264, and an input / output (I / O) port 268 that are interconnected by a bus 270.
  • a storage device 254, a display 256, a mouse 255M, a keyboard 255K, and a communication interface (I / F) 258 are connected to the input / output (I / O) port 268.
  • the storage device 254 is composed of, for example, a non-volatile memory.
  • the input / output (I / O) port 268 is connected to the network 130 via the communication interface (I / F) 258. Therefore, the server 140 can communicate with the ophthalmic apparatus 110 and the viewer 150.
  • An image processing program described later is stored in the storage device 254. The image processing program may be stored in the ROM 264.
  • the image processing program is an example of the "program” of the technology of the present disclosure.
  • the storage device 254 and ROM 264 are examples of the “memory” and “computer-readable storage medium” of the technology of the present disclosure.
  • the CPU 262 is an example of a "processor" of the technology of the present disclosure.
  • the processing unit 208 stores each data received from the ophthalmic device 110 in the storage device 254. Specifically, the processing unit 208 stores each image data of the UWF-SLO image, the image data of the UWF-OCT image, and the patient information (patient name ID and the like as described above) in the storage device 254 in correspondence with each other. To do. When a patient has a lesion in the eye to be inspected or an operation is performed on the lesion portion, the lesion information is input via the input / display device 16E of the ophthalmic apparatus 110, transmitted to the server 140, and stored in the storage device. It is stored in 254.
  • the lesion information is stored in the storage device 254 in association with the patient information.
  • the lesion information includes information on the position of the lesion, the name of the lesion, and the name of the operation and the date and time of the operation when the operation is performed on the lesion.
  • the viewer 150 includes a computer and a display equipped with a CPU, RAM, ROM, etc., and an image processing program is installed in the ROM. Based on the user's instruction, the computer uses the fundus image acquired from the server 140, etc. Control the display so that the medical information of is displayed.
  • the image processing program includes an image acquisition function, an image processing function (3D moving image generation function, 3D eyeball image generation function, storage function, and feature acquisition function), a display control function, and an output function.
  • the CPU 262 executes an image processing program having each of these functions, the CPU 262 has an image acquisition unit 1410 and an image processing unit 1420 (3D moving image generation unit 1421, 3D eyeball image generation unit 1422, storage) as shown in FIG. It functions as a unit 1423, a feature unit acquisition unit 1424), a display control unit 1430, and an output unit 1440.
  • the image processing by the server 140 will be described in detail with reference to FIG.
  • the CPU 262 of the server 140 executes the image processing program, the image processing shown in the flowchart of FIG. 5 is realized.
  • the image processing when the UWF fundus image (UWF-SLO image) is acquired by the ophthalmologic apparatus 110 and transmitted to the server 140 together with the patient name ID, and the server 140 receives the patient name ID and the UWF fundus image, Start.
  • the image acquisition unit 1410 acquires the UWF fundus image G1 corresponding to the patient name ID from the storage device 254.
  • the UWF fundus image G1 is, for example, an RGB color fundus image (see FIG. 7A).
  • step 504 the image processing unit 1420 executes a 3D processing process (see also FIG. 6) described in detail for the UWF fundus image G1.
  • step 506 the display control unit 1430 generates a display screen (see also FIGS. 12, 14, and 15) which will be described in detail later.
  • step 504 Next, the 3D processing process of step 504 will be described with reference to FIG.
  • step 602 the 3D moving image generation unit 1421 acquires each point on the eyeball model M corresponding to each point of the UWF fundus image G1.
  • the 3D moving image generation unit 1421 generates moving image data including a plurality of frames showing the process of projecting the UWF fundus image G1 onto the eyeball model M.
  • the method of projecting a sphere onto a plane is stereoprojection, but in the present embodiment, the 3D moving image generator 1421 generates moving image data showing the process of stereo-back projection from the plane to the sphere.
  • the 3D moving image generation unit 1421 first aligns the UWF fundus image G1 with the eyeball model M. Specifically, the 3D moving image generation unit 1421 is arranged so that the projection center of the UWF fundus image G1 and the projection center of the eyeball model M coincide with each other and the projection plane is horizontal from the center of the eyeball model M. The XY direction centered on the center gc of the UWF fundus image G1 and the XY direction centered on the pupil center mc of the eyeball model M are matched.
  • the 3D moving image generator 1421 sets the variable g related to the time step for identifying each point of the UWF fundus image G1 to 0, and sets the variable g to 1.
  • the point of the UWF fundus image G1 identified by the variable g is converted into a point on the eyeball model M according to the following conversion formula.
  • the points on the eyeball model M corresponding to the points of the UWF fundus image G1 identified by the variable g are acquired.
  • the point on the UWF fundus image G1 is (Xg, Yg, -1), and the point on the eyeball model M corresponding to the point (Xg, Yg, -1) on the UWF fundus image G1 is (Xmg, Ymg, Zmg).
  • the conversion formula is as follows.
  • Xmg 4Xg / (4 + Xg 2 + Yg 2 )
  • Ymg 4Yg / (4 + Xg 2 + Yg 2 )
  • Zmg (-4 + Xg 2 + Yg 2 ) / (4 + Xg 2 + Yg 2 )
  • the above conversion is performed for all points of the UWF fundus image G1.
  • the point g1 is set for each pixel of the UWF fundus image G1.
  • the above conversion is performed for all the pixels of the UWF fundus image G1.
  • the default eyeball model may be used as the eyeball model used in step 602.
  • the 3D moving image generation unit 1421 reads the axial length corresponding to the patient name ID from the storage device 254, and corrects the size of the default eyeball model in advance according to the read axial length. doing.
  • the 3D moving image generation unit 1421 uses a conversion formula to acquire points on the eyeball model M corresponding to each point of the UWF fundus image G1.
  • the techniques of the present disclosure are not limited to this. Even if a conversion lookup table for the eyeball model is prepared in advance, the 3D moving image generation unit 1421 refers to the table and acquires points on the eyeball model M corresponding to each point of the UWF fundus image G1. Good.
  • step 604 the 3D moving image generation unit 1421 acquires a locus in which the pixels of each point of the UWF fundus image move to the corresponding points on the eyeball model.
  • the 3D moving image generation unit 1421 sets the variable g to 0, increments the variable g by 1, the point of the UWF fundus image G1 identified by the variable g, and the eyeball model M corresponding to the point.
  • the line connecting the points is set as the route.
  • the 3D moving image generation unit 1421 calculates the position of the pixel of the point of the UWF fundus image G1 identified by the variable g at predetermined time intervals. It should be noted that this predetermined time is a time according to the frame rate in the moving image data described later.
  • the movement pattern there are a plurality of patterns in which at least one of the movement path and the movement speed of the pixels at each point of the UWF fundus image G1 is different.
  • the above route may be a straight line or a curved line, but in the present embodiment, it is a straight line.
  • the user may be allowed to select from a straight line and a curve (for example, a plurality of curves having different upward convex curvatures and a plurality of downward convex curvatures).
  • the speed may be constant or changed during the above movement.
  • the speed is constant at a predetermined speed V0 during the movement.
  • the operator may be allowed to select from a constant speed (plurality of speeds), a plurality of patterns that gradually increase, a plurality of patterns that gradually decrease, and the like.
  • the coordinates of the point g1 (X1, Y1) are converted into the coordinates of the point mg1 (X1, Y1, -1).
  • the UWF fundus image G1 is placed in the UWF fundus image G1.
  • the 3D moving image generation unit 1421 sets the line segment L1 between the point mg1 (X1, Y1, -1) and the point m1 (Xm1, Ym1, Zm1) in the XYZ coordinate system.
  • moving image data representing the process in which the pixel at the point mg1 (X1, Y1, -1) moves to the point m1 (Xm1, Ym1, Zm1) is created.
  • the moving image data is reproduced, it is displayed that the pixels at the point mg1 (X1, Y1, -1) move through the line segment L1 to the point m1 (Xm1, Ym1, Zm1). Therefore, the line segment L1 becomes a locus of movement of the pixels at the point mg1 (X1, Y1, -1).
  • the line segment L1 is also referred to as a path L1.
  • a pattern in which the pixels of all the points of the UWF fundus image G1 move linearly at a constant velocity along the corresponding path to the points on the eyeball model M corresponding to the points of each pixel is predetermined. ing.
  • this pattern for example, as shown in FIG. 10, pixels at points mg1 (X1, Y1,0) are located along the path L1 at points md, ..., mh, ... mm, ... m1. Moves at a constant velocity V0.
  • the 3D moving image generation unit 1421 calculates the position (XYZ coordinate system) of the pixel at the point mg1 (X1, Y1, -1) at predetermined time intervals from the path L1 and the velocity V0.
  • the 3D moving image generation unit 1421 executes the above processing until the variable g becomes the total number of points of the UWF fundus image G1. As a result, the positions of all the points of the UWF fundus image G1 along the movement path of the pixels are acquired.
  • the movement pattern may be different for each pixel of each point of the UWF fundus image G1.
  • the pixels at a certain point in the UWF fundus image G1 have a constant velocity linear movement, but the pixels at other points gradually slow down and move along the path of an upwardly convex curve. May be good.
  • step 606 the 3D moving image generation unit 1421 generates moving image data showing the process in which the pixels of all the points of the UWF fundus image G1 move to the points on the eyeball model M corresponding to the points of each pixel.
  • FIG. 11 is a diagram for explaining a plurality of frames of the moving image data.)
  • the data point is arranged at a position after a predetermined time ( ⁇ t) has elapsed.
  • a plane is defined by arranging the data points for all the data points of the UWF fundus image G1.
  • Pixel data color and luminance data
  • an intermediate frame is generated after a predetermined time ( ⁇ t) has elapsed (corresponding to fd, fh, and fm in FIG. 11).
  • ⁇ t a predetermined time
  • the generation of the intermediate frame is repeated in the same manner from ⁇ t1 to ⁇ tn (n is the number of frames generated until the final position n is reached) for a predetermined time.
  • fn is the final frame
  • each data point is a frame in a state of being moved to a point on the eyeball model M.
  • the frame number, the moving image file number, and the like are added, and the moving image data is generated.
  • a plane calculation method linear interpolation, spline interpolation, or the like may be used.
  • shape model of the plane a surface model, a spatial lattice model, or the like may be used.
  • the data points may be sized and displayed as a scatter plot.
  • the pixels of all the points of the UWF fundus image G1 move at a constant velocity V0 along the path L to the points on the eyeball model M corresponding to the points of each pixel.
  • a pattern for linear movement is predetermined. Therefore, in step 606, as moving image data, a plurality of pixels at each point of the UWF fundus image G1 move linearly at a constant velocity to a point on the eyeball model M corresponding to each pixel point.
  • a frame (still image) is generated.
  • the first frame F1 coincides with the UWF fundus image G1.
  • the 3D moving image generation unit 1421 generates a frame after a predetermined time by arranging each corresponding pixel at the calculated position after the movement.
  • the 3D moving image generation unit 1421 moves the pixels of all the points of the UWF fundus image G1 to the points on the eyeball model M corresponding to the points of each pixel, as shown in FIG. Frames fd, ..., fh, ..., fm, ... fr are generated at predetermined time intervals up to.
  • the 3D eyeball image generation unit 1422 generates 3D eyeball image data.
  • the 3D fundus image data is an image of the eyeball obtained by converting the UWF fundus image G1 so as to be attached to a predetermined eyeball model and synthesizing the converted UWF fundus image G1 with an anterior segment image such as an iris or a crystalline lens. It is data.
  • the 3D eyeball image generation unit 1422 uses the image (final frame of the moving image) after the pixels of all the points of the UWF fundus image G1 have moved to the points on the eyeball model M corresponding to the points of each pixel as the 3D eyeball image. May be good.
  • the feature unit acquisition unit 1424 acquires the information of the feature unit.
  • Characteristic parts include blood vessels (for example, retinal blood vessels, choroidal blood vessels, etc.), optic discs, macula, and vortex veins as fundus structures.
  • the 3D eyeball image generation unit 1422 was acquired by the feature unit acquisition unit 1424 on the image after the pixels of all the points of the UWF fundus image G1 were moved to the points on the eyeball model M corresponding to the points of each pixel. By emphasizing the image of the feature portion, 3D fundus image data is generated.
  • the characteristic part also includes a lesion area. The lesion area is identified by an ophthalmologist's diagnosis.
  • a mark indicating a region including retinal detachment is superimposed and displayed on the UWF fundus image G1.
  • the position or region of such a feature is stored in the storage device 254 as coordinate data on the UWF fundus image G1 by combining the lesion name or feature name and the coordinate data.
  • the moving image data may be created from the UWF fundus image G1 marking the positions of features and lesions.
  • step 610 the storage unit 1423 stores (stores) each data (moving image data and 3D fundus image data) in the storage device 2554.
  • step 610 When the storage process of each data in step 610 is completed, the 3D processing process of step 504 in FIG. 5 is completed, the image processing proceeds to step 506, and the display control unit 1430 displays the display screens (FIGS. 12, 14, and 14). (See also FIG. 15) is generated, and the image processing is completed.
  • the user inputs the patient name ID into the viewer 150 when examining the patient's eye to be examined.
  • the viewer 150 instructs the server 140 to transmit the image data of the eye to be inspected corresponding to the patient name ID and the like.
  • the output unit 1440 of the server 140 outputs the patient name, the patient's age, the patient's visual acuity, the information on whether the left eye or the right eye, the axial length, the imaging date, the image data, etc. It is transmitted to the viewer 150 together with the ID.
  • the image data and the like include UWF fundus image, moving image data, 3D fundus image data, and information on the feature portion.
  • the viewer 150 Upon receiving the patient name ID, patient name, patient age, patient's visual acuity, left eye or right eye information, axial length, shooting date, and image data, the viewer 150 displays the display screen 400A shown in FIG. Display on.
  • the display screen 400A has an information display area 402 and an image display area 404A.
  • the information display area 402 includes a patient ID display area 412, a patient name display area 414, an age display area 416, a right eye / left eye display area 418, an axial length display area 420, a visual acuity display area 422, and an imaging date / time display. It has a region 424.
  • the viewer 150 displays each information from the patient ID display area 412 to each display area of the imaging date / time display area 424 based on the received information.
  • the image display area 404A has an SLO image display area 452A and a moving image data display area 454A1.
  • the moving image data display area 454A1 includes a moving image data display unit 455A, a play button 456, and a display progress display unit 458.
  • a UWF fundus image is displayed in the SLO image display area 452A.
  • the play button 456 is operated, the video data is displayed on the video data display unit 455A, and the portion of the display progress display unit 458 corresponding to the already displayed ratio of the total video data is predetermined. Filled with color.
  • the play button 456 When the play button 456 is operated, as shown in FIG. 13, first, the front view of the UWF fundus image G1 is displayed (image a), and then the image Gd in which the UWF fundus image G1 is tilted by a predetermined angle is displayed. (Image b), and further, a perspective image Gh in which the UWF fundus image G1 is further tilted is displayed (image c).
  • the process of displaying the image a, the image b, and the image c is the first process of converting the two-dimensional fundus image from the front view to the perspective view.
  • the image d on which the three-dimensional fundus image fh showing the initial state of the stereographic transformation is superimposed is displayed.
  • an image showing the state of the stereographic transformation is displayed, and specifically, the first frame f1, ... frame fh, ... Frame fr are displayed.
  • the image e on which the three-dimensional image fr indicating the completion state of the stereographic transformation is superimposed on the image Gh is displayed.
  • the process of displaying the image e from the image d is the second process in which the three-dimensional fundus image that is stereographically projected and inversely converted is changed to the two-dimensional fundus image in horizontal vision.
  • the image e is rotated, and the image Gz obtained by superimposing the front-view three-dimensional fundus image fr on the front-view UWF fundus image G1 is displayed (image f).
  • the process of displaying the image f from the image e is a third process of rotating the horizontal view two-dimensional fundus image and the three-dimensional fundus image for which the conversion has been completed as an integrated image.
  • the moving image data is a moving image only in the process of stereographic transformation of the UWF fundus image G1 (not a moving image in which the image Gh is left as it is as shown in FIG. 13, but no image Gh is left. It may be a video).
  • a predetermined point in the analogy shown in FIG. 13, the route of each point is displayed for each of the upper and lower outermost four points selected in advance (L1 and L2 in the figure). , L3 and L4).
  • the path of the position of the above-mentioned feature portion such as a vortex vein or retinal detachment may be displayed.
  • the 3D eyeball image switching button 460 is displayed in the moving image data display area 454A1 as shown in FIG.
  • the moving image data display area 454A1 is switched to the 3D fundus image display area 454A2.
  • a 3D eyeball image is displayed in the 3D fundus image display area 454A2.
  • the image image data of the eyeball obtained by converting the UWF fundus image G1 so as to be attached to a predetermined eyeball model and synthesizing the converted UWF fundus image G1 with an anterior segment image such as an iris or a crystalline lens.
  • a 3D moving image switching button 462 is displayed in the 3D fundus image display area 454A2. When the 3D moving image switching button 462 is operated, the screen is switched to the display screen 400A of FIG.
  • moving image data representing the process in which the pixels of each point of the UWF fundus image move to the corresponding points on the eyeball model is created. Therefore, the user can know how each point of the UWF fundus image moves to each corresponding point on the eyeball model. Therefore, the user can know which point in the UWF fundus image each corresponding point on the eyeball model is. Therefore, by viewing the moving image data generated from the UWF fundus image by the user (ophthalmologist), the user (ophthalmologist) can determine the position of the peripheral part of the fundus and the equatorial part of the fundus on the eyeball and the size of the lesion (area of the lesion area). Can be grasped intuitively. In addition, an ophthalmologist can explain the diagnosis result such as the position and size of the lesion to the subject (patient) in an easy-to-understand manner.
  • a moving image of the process of converting a two-dimensional UWF fundus image into a three-dimensional fundus image based on an eyeball model is generated.
  • a moving image of the process of converting a two-dimensional photographed image of the anterior segment into a three-dimensional anterior segment image based on the eyeball model may be generated.
  • a moving image that converts a two-dimensional plane image of a crystalline lens based on a three-dimensional crystalline lens model may be generated. It can be used for planning the surgical procedure for glaucoma surgery by recognizing the pigmentation of the crystalline lens in a three-dimensional and easy-to-understand manner.
  • the imaging device 14 of the ophthalmic apparatus 110 is controlled by the control device 16 and includes an fixation target control device for lighting an upper fixation lamp and a lower fixation lamp (including a central fixation lamp (not shown)) which are not shown. There is.
  • the direction (line-of-sight direction) of the eye 12 to be inspected can be changed by turning on any of the central fixation lamp, the upper fixation lamp, and the lower fixation lamp.
  • FIG. 16 shows a block diagram of various functions realized by the CPU 262 of the server 140 of the second embodiment executing an image processing program.
  • the image processing program of the second embodiment has a montage image generation function added to the image processing function. Therefore, when the CPU 262 executes an image processing program having each of these functions, the CPU 262 further functions as a montage image generation unit 1425.
  • the ophthalmic apparatus 110 controls the fixation target control device to turn on the upper fixation lamp in order to direct the patient's line of sight diagonally upward.
  • the patient's line of sight is directed obliquely upward, that is, in the direction from the center of the eyeball toward the upper fixation lamp.
  • the operator of the ophthalmic apparatus 110 issues an instruction to make the patient's line of sight diagonally upward, such as "Please look up", so that the line of sight of the eye to be inspected is directed diagonally upward. You may leave it in the same state.
  • the ophthalmologic apparatus 110 photographs the fundus of the eye in a state of upward vision in which the patient's line of sight is directed diagonally upward.
  • a UWF upper fundus image GU is obtained (see also FIG. 19A).
  • the ophthalmic apparatus 110 controls the fixation target control device to turn on the lower fixation lamp in order to direct the patient's line of sight diagonally downward.
  • the patient's line of sight is directed diagonally downward, that is, in the direction from the center of the eyeball toward the inferior fixation lamp.
  • the operator of the ophthalmic apparatus 110 issues an instruction to make the patient's line of sight diagonally downward, such as "Please look down", so that the line of sight of the eye to be inspected is directed diagonally downward. You may leave it in the same state.
  • the ophthalmologic apparatus 110 photographs the fundus in a state of downward vision in which the patient's line of sight is directed diagonally downward.
  • a UWF downward fundus image GD is obtained.
  • FIG. 19B shows a aligned UWF lower fundus image GDC, which will be described later.
  • the UWF upper fundus image GU includes a B color fundus image (UWF upper fundus image B), a G color fundus image (UWF upper fundus image G), and an R color fundus image (UWF) as in the first embodiment.
  • the UWF lower view fundus image GD also includes a B color fundus image (UWF lower view fundus image B), a G color fundus image (UWF lower view fundus image G), an R color fundus image (UWF lower view fundus image R), and IR.
  • a fundus image UWF lower view fundus image IR
  • an RGB color fundus image UWF lower view fundus image RGB
  • an RG color fundus image UWF lower view fundus image RG.
  • the UWF upper fundus image GU and the UWF lower fundus image GD are transmitted to the server 140 by the ophthalmologic apparatus 110 and stored in the storage device 254.
  • FIG. 17 shows a flowchart of image processing according to the second embodiment.
  • the image processing of the second embodiment starts when the server 140 receives the UWF upper fundus image GU and the UWF lower fundus image GD.
  • step 320 the image acquisition unit 1410 acquires the UWF upper fundus image and the UWF lower fundus image from the storage device 254.
  • step 322 the montage image generation unit 1425 performs a process of emphasizing blood vessels on the UWF upper fundus image and the UWF lower fundus image. Then, the binarization process of binarizing at a predetermined threshold value is executed. The binarization process emphasizes the blood vessels in the fundus white.
  • step 324 the montage image generation unit 1425 aligns the UWF upper fundus image and the UWF lower fundus image.
  • the alignment process of step 324 will be described with reference to the flowchart of FIG.
  • a case where the UWF lower fundus image is converted based on the UWF upper fundus image (that is, a case where only the UWF lower fundus image is converted without converting the UWF upper fundus image) will be described as an example. ..
  • the montage image generation unit 1425 extracts the feature point group 1 for the above alignment by image processing from the UWF upper view fundus image GU.
  • the feature point group 1 is a plurality of feature points in the fundus image, and as shown in FIG. 19A, is a bifurcation point of the optic nerve head ONHU, the macula MU, and the retinal blood vessels.
  • the bifurcation point of the choroidal blood vessel may also be extracted as a feature point.
  • the feature points are the maximum brightness pixel in the optic nerve papilla ONHU region, the minimum brightness pixel in the macula MU region, and the pixels located at the bifurcation points of the retinal blood vessels and choroidal blood vessels, and the coordinates of these pixels are extracted as feature point data.
  • a region containing a characteristic blood vessel running pattern may be extracted and the central point of the region including the pattern may be used as a feature point.
  • end points, flexion points or meandering points of the retinal blood vessels and choroidal blood vessels may be extracted as feature points.
  • the feature points can be performed by using SIFT (Scale Invariant Feature Transfer) or SURF (Speed Upped Surf Future), which is an algorithm for detecting feature points.
  • SIFT Scale Invariant Feature Transfer
  • SURF Speed Upped Surf Future
  • the number of feature points to be extracted is preferably 4 or more.
  • the UWF upper fundus image GU there is only one optic disc and macula in the eye to be examined. Therefore, by extracting two or more bifurcation points of the retinal blood vessels and choroidal blood vessels, four or more feature points 1 can be extracted from the UWF upper fundus image GU.
  • the optic nerve head, macula, retinal blood vessels, and choroidal blood vessels existing in the central part of the fundus are suitable as selection targets for alignment feature points because they are captured by both the UWF upper view fundus image GU and the UWF lower view fundus image GD.
  • the feature point is preferably selected from the central portion of the fundus, which is a common region between the UWF upper fundus image GU and the UWF lower fundus image GD.
  • the montage image generation unit 1425 extracts the feature point group 1 by image processing for the region below the center of the UWF upper fundus image GU, which is the center of the fundus.
  • the vortex vein existing in the UWF upper fundus image GU existing in the peripheral part of the fundus is excluded from the selection target as the feature point for the above alignment. Since the fundus peripheral portion is not a common region between the WF upper fundus image GU and the UWF lower fundus image GD, the structure of the fundus peripheral portion is excluded from the selection target of the feature points.
  • the montage image generation unit 1425 extracts the feature point group 2 corresponding to the feature point group 1 from the UWF lower view fundus image GD.
  • the feature point group 2 has an optic disc ONHD, a macula MD, and a bifurcation point of a retinal blood vessel. Since the eyes are the same, the optic disc ONHD corresponds to the optic disc ONHU, and the macular MD corresponds to the macular MU.
  • the branch point in the UWF upper fundus image GU corresponds to the branch point of the blood vessel in the UWF lower fundus image GD.
  • a branch point having the same branch pattern as the branch pattern of the branch point in the UWF upper fundus image GU is extracted from the UWF lower fundus image GD by image recognition processing or the like.
  • the montage image generation unit 1425 uses the feature point group 1 and the feature point group 2 to generate a projective transformation matrix that geometrically transforms the UWF lower view fundus image GD.
  • This projective transformation matrix is a matrix for associating the UWF lower fundus image GD with the UWF upper fundus image GU.
  • the projective transformation matrix is determined by at least four feature points.
  • step 346 the UWF lower view fundus image GD is converted using the generated projective transformation matrix, and the converted UWF lower view fundus image GDC (see FIG. 19B) is obtained.
  • the feature point group 1 and the feature point group 2 are at the same position, which means that the alignment process has been executed. Due to this conversion, the UWF lower view fundus image GDC is larger (the area is increased) than the UWF lower view fundus image GD.
  • a projective transformation matrix for associating the UWF lower fundus image GD with the UWF upper fundus image GU was generated, and the UWF lower fundus image GD was converted.
  • a projective transformation matrix for making the UWF upper fundus image GU correspond to the UWF lower fundus image GD may be generated, and the UWF upper fundus image GU may be converted.
  • step 324 of FIG. 17, is the alignment process between images, and the image process proceeds to step 326.
  • the montage image generation unit 1425 synthesizes the UWF upper fundus image GU and the converted UWF lower fundus image GDC to generate a montage image GM.
  • the montage image generation unit 1425 sets a line segment LGU passing through the optic nerve head ONHU and the macula MU in the UWF upper fundus image GU.
  • the montage image generation unit 1425 sets a line segment LGD passing through the optic disc ONHD and the macula MD in the converted UWF lower fundus image GDC.
  • the montage image generation unit 1425 performs weighting processing on the region where the UWF upper fundus image GU and the UWF lower fundus image GDC overlap. As shown in FIG. 20, the montage image generation unit 1425 sets the weight of the upper UWF upper fundus image GUx region, which is the upper region of the line segment LGU of the UWF upper fundus image GU, to “1”. The montage image generation unit 1425 sets the weight of the region below the line segment LGU to “0”.
  • the montage image generation unit 1425 sets the weight of the lower UWF lower view fundus image GDCx, which is a region lower than the line segment LGD of the converted UWF lower view fundus image, to "1", and sets the weight to "1", which is higher than the line segment LGD.
  • the weight of the upper region is set to "0".
  • the montage image generation unit 1425 performs such a weighting process on the UWF upper fundus image GU and the UWF lower fundus image GDC, thereby synthesizing the UWF upper fundus image GUx and the UWF lower fundus image GDCx.
  • the line segment LG is a line segment connecting the optic nerve head OMH and the macula M
  • the upper side of the line segment LG is the UWF upper fundus image GUx
  • the lower side of the line segment LG is the UWF lower fundus.
  • Image GDCx The montage image is an example of a "montage image" of the technique of the present disclosure.
  • the weighting of the overlapping portion of the UWF upper fundus image GU and the UWF lower fundus image GDC is not limited to the above example, and the mixing ratio of the UWF upper fundus image GU and the UWF lower fundus image GDC is set to various values. Can be set.
  • the UWF upper fundus image GU and the UWF lower fundus image GDC are aligned and combined.
  • the blood vessels of the fundus are not discontinuous, and the fundus images for the analysis of the vortex veins located around the fundus or the equator of the fundus and the choroidal blood vessels around the vortex veins, or the abnormal parts and lesions Obtainable.
  • the feature acquisition unit 1424 analyzes the position of the vortex vein and the blood vessel diameter of the blood vessel near the vortex vein using the montage image GM.
  • the vortex vein information obtained by the analysis includes information on the number of vortex veins, the position of the vortex veins, the number of blood vessels connected to the vortex veins, the blood vessel diameter of the blood vessels around the vortex membrane, and the like.
  • step 504 of the 3D processing process is executed in step 504S.
  • the image processing unit 1420 executes 3D processing (see also FIG. 6) on the UWF fundus image G1.
  • step 504 of the second embodiment the image processing unit 1420 executes 3D processing (see also FIG. 6) on the montage image GM.
  • the description of the 3D processing process in step 504S will be omitted.
  • step 504S the display screen generation process is executed in step 506S.
  • the details of the display screen of the second embodiment will be described later.
  • step 332 the output unit 1440 outputs the montage image GM and the vortex vein analysis information obtained by the vortex vein analysis to the storage device 254 of the server 140.
  • the montage image GM and the vortex vein analysis information obtained by the vortex vein analysis are stored in the memory device 254 of the server 140.
  • step 332 the output unit 1440 further outputs the image data corresponding to the display screen 400B to the viewer 150.
  • the display control unit 1430 may output the montage image GM to be displayed on the display 256.
  • the display screen 400B of the second embodiment will be described. Since the display screen 400B of the second embodiment is substantially the same as the display screen 400A of the first embodiment, only different parts will be described.
  • the display screen 400B has an image display area 404B instead of the image display area 404A.
  • the image display area 404B has a montage image display area 452B and a moving image data display area 454B1.
  • a montage image is displayed in the montage image display area 452B.
  • the video data is displayed on the video data display unit 455B, and the display progress display unit 458 displays the already displayed ratio of the total video data as a bar graph.
  • the 3D eyeball image switching button 460 is displayed in the moving image data display area 454B1 as shown in FIG.
  • the moving image data display area 454B1 is replaced with the 3D fundus image display area 454B2.
  • a 3D fundus image is displayed in the 3D fundus image display area 454B2.
  • the 3D fundus image in which the feature portion is emphasized is displayed in the image after the pixels of all the points of the montage image have moved to the points on the eyeball model M corresponding to the points of each pixel.
  • moving image data representing the process of moving from each point of the montage image to each corresponding point on the eyeball model is created. Therefore, it is possible to know how each point of the montage image moves to each corresponding point on the eyeball model. Therefore, it is possible to know which point in the montage image each corresponding point on the eyeball model is.
  • the montage image has a wider area than the UWF fundus image of the first embodiment, it is known which point of the montage image the corresponding point on the eyeball model is a wider area than the UWF fundus image. be able to. Therefore, the user can intuitively grasp the position of a lesion such as a vortex vein or retinal detachment on the eyeball by viewing the moving image data generated from the montage image.
  • An ophthalmologist can explain to the subject (patient) the diagnosis results such as the position and size of the lesion around the fundus in an easy-to-understand manner.
  • the image acquisition unit 1410 acquires a two-dimensional fundus image (UWF fundus image G1 or montage image) corresponding to the patient name ID from the storage device 254.
  • the 3D moving image generator 1421 acquires each second point on the eye model M corrected by the axial length, which corresponds to each first point of the two-dimensional fundus image.
  • the 3D moving image generation unit 1421 creates data (moving image data) indicating a process in which each first point moves from the corresponding second point to the first point. The user can know how each first point of the UWF fundus image moves from each corresponding second point to the first point on the eye model.
  • the data of the three-dimensional fundus image is generated in advance by stereo-reversely projecting the two-dimensional fundus image (UWF fundus image G1 or montage image) on the eyeball model corrected by the axial length. It is stored in the storage device 245 corresponding to the patient name ID.
  • the image acquisition unit 1410 acquires the data of the three-dimensional fundus image corresponding to the patient name ID from the storage device 254.
  • the 3D moving image generator 1421 acquires each second point on the two-dimensional fundus image corresponding to each first point of the three-dimensional fundus image.
  • step 2506 the 3D moving image generation unit 1421 creates data (moving image data) indicating the process in which each first point moves to the corresponding second point.
  • the user can know how each first point of the three-dimensional fundus image moves to each corresponding second point on the two-dimensional fundus image.
  • the image processing of the third modification will be described with reference to FIG. 26.
  • the data of the three-dimensional fundus image is generated in advance and stored in the storage device 245 corresponding to the patient name ID.
  • the image acquisition unit 1410 acquires the data of the three-dimensional fundus image corresponding to the patient name ID from the storage device 254.
  • the 3D moving image generator 1421 acquires each second point on the two-dimensional fundus image corresponding to each first point of the three-dimensional fundus image.
  • the 3D moving image generation unit 1421 creates data (moving image data) indicating a process in which each first point moves from the corresponding second point to the first point. The user can know how each first point of the three-dimensional fundus image moves from each corresponding second point to the first point on the two-dimensional fundus image.
  • the data of the three-dimensional fundus image in each of the above examples can be obtained by stereo-reversely projecting the two-dimensional fundus image (UWF fundus image G1 or montage image) on the eyeball model.
  • the techniques of the present disclosure are not limited to this.
  • it may be OCT volume data, OCT angiography data, MRI, three-dimensional fundus image data obtained by ultrasound, or three-dimensional image data such as the anterior segment of the eye.
  • moving image data showing the process in which the pixels of all the points of the UWF fundus image move to the corresponding points on the eyeball model is created
  • all the pixels of the montage image are created.
  • Video data showing the process of moving to each corresponding point on the eye model is created.
  • the techniques of the present disclosure are not limited to this.
  • the moving moving image data of at least one pixel selected by the user may be created.
  • the user may select a plurality of points in the area by designating the area of the UWF fundus image or the montage image.
  • the user can specify the characteristic portion of the eyeball as the region. Specifically, the user can specify, for example, a crystalline lens, a fundus structure, a lesion portion, or the like as the feature portion.
  • moving image data representing the process in which the pixels of each point of the UWF fundus image (UWF-SLO fundus image) move to the corresponding points on the eyeball model is created.
  • moving image data representing the process in which the pixels of each point of the montage image (composite image of the UWF-SLO fundus image) move to the corresponding points on the eyeball model is created.
  • Video data showing the process in which the pixels of each point of the retinal vascular image or choroidal vascular image obtained from the UWF-SLO image or montage image (composite image of the UWF-SLO fundus image) move to the corresponding points on the eyeball model. May be created.
  • moving image data showing the process in which the pixels of each point of the fundus image obtained by the fundus camera, which is not the UWF-SLO image, moves to the corresponding points on the eyeball model may be created.
  • video data is created.
  • at least one image may be created that represents the process in which the pixels at each point of the UWF fundus image move to the corresponding points on the eyeball model.
  • an image may be created in which the pixels of the points of the UWF fundus image are located at least at an intermediate position between the points of the UWF fundus image and the corresponding points on the eyeball model.
  • the image processing of FIGS. 5 and 17 is executed by the server 140, but the technique of the present disclosure is not limited to this.
  • the ophthalmic apparatus 110 or the viewer 150 may be executed, or another image processing apparatus may be connected to the network 130 and the image processing apparatus may be executed.
  • image processing is realized by a software configuration using a computer
  • the technology of the present disclosure is not limited to this.
  • the image processing may be executed only by a hardware configuration such as FPGA (Field-Programmable Gate Array) or ASIC (Application Specific Integrated Circuit). Some of the image processing may be performed by the software configuration and the rest may be performed by the hardware configuration.
  • the technique of the present disclosure includes a case where image processing is realized by a software configuration using a computer and a case where image processing is realized by a configuration other than a software configuration using a computer. Includes technology and second technology.
  • An image acquisition unit that acquires a two-dimensional fundus image
  • a point acquisition unit that acquires a second point on the eyeball model corresponding to at least one first point of the two-dimensional fundus image
  • a point acquisition unit that creates data showing the process of moving the pixels of the first point to the second point
  • Image processing equipment including.
  • the 3D video generation unit 1421 is an example of a "point acquisition unit” and a “creating unit”.
  • the image acquisition unit acquires a two-dimensional fundus image
  • the point acquisition unit acquires a second point on the eyeball model corresponding to at least one first point of the two-dimensional fundus image.
  • the creation unit creates data showing the process in which the pixel of the first point moves to the second point.
  • Image processing method including.
  • a computer program product for image processing comprises a computer-readable storage medium that is not itself a temporary signal.
  • the program is stored in the computer-readable storage medium.
  • the program On the computer Acquire a two-dimensional fundus image and A second point on the eye model corresponding to at least one first point of the two-dimensional fundus image is acquired. Data showing the process of moving the pixel of the first point to the second point is created. To do that, Computer program product.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

プロセッサが行う画像処理であって、2次元眼底画像を取得し、前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、前記第1の点が前記第2の点まで移動する過程を示すデータを作成する。

Description

画像処理方法、画像処理装置、及びプログラム
 本発明は、画像処理方法、画像処理装置、及びプログラムに関する。
 米国特許出願公開第2009/0136100号には、パノラマ眼底画像合成装置及び方法が開示されており、眼底を解析したり診断したりするために適切な画像表示方法が求められている。
 本開示の技術の第1の態様は、プロセッサが行う画像処理であって、2次元眼底画像を取得し、前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、前記第1の点が前記第2の点まで移動する過程を示すデータを作成する。
 本開示の技術の第2の態様の画像処理装置は、メモリと、前記メモリに接続するプロセッサとを備え、前記プロセッサは、2次元眼底画像を取得し、前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、前記第1の点が前記第2の点まで移動する過程を示すデータを作成する。
 本開示の技術の第3の態様のプログラムは、コンピュータに、2次元眼底画像を取得し、前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、前記第1の点が前記第2の点まで移動する過程を示すデータを作成する、ことを実行させる。
眼科システム100のブロック図である。 眼科装置110の全体構成を示す概略構成図である。 サーバ140の電気系の構成のブロック図である。 第1実施の形態のサーバ140のCPU262の機能のブロック図である。 第1実施の形態のサーバ140による画像処理のフローチャートである。 図5のステップ504の3D加工処理のフローチャートである。 UWF眼底画像G1を示す図である。 眼球と撮影画角を示す図である。 UWF眼底画像G1の点g1と、点g1に対応する眼球モデルM上の点m1とを示す図である。 UWF眼底画像G1の点mg1の画素が、点g1に対応する眼球モデルM上の点m1まで移動する経路L1を示す図である。 UWF眼底画像G1の点g1の画素が、経路L1に沿って、点md、・・・、mh、・・・mm、・・・m1まで、等速V0で移動する様子を示す図である。 動画データの各フレームを示す図である。 表示画面400Aの第1の表示パターンを示す図である。 動画データ表示部455Aに表示される画像を示す図である。 表示画面400Aの第2の表示パターンを示す図である。 表示画面400Aの第3の表示パターンを示す図である。 第2実施の形態のサーバ140のCPU262の機能のブロック図である。 第2実施の形態のサーバ140のサーバ140による画像処理のフローチャートである。 図17のステップ324の画像間の位置合わせ処理のフローチャートである。 UWF上方視眼底画像GUに線分LGUが設定された様子を示す図である。 UWF下方視眼底画像GDCに線分LGDが設定された様子を示す図である。 モンタージュ画像GMの生成を説明するための図である。 表示画面400Bの第1の表示態様を示す図である。 表示画面400Bの第2の表示態様を示す図である。 表示画面400Bの第3の表示態様を示す図である。 第1変形例のサーバ140による画像処理のフローチャートである。 第2変形例のサーバ140による画像処理のフローチャートである。 第3変形例のサーバ140による画像処理のフローチャートである。
 [第1実施の形態]
 以下、図面を参照して本開示の技術の第1の実施の形態を詳細に説明する。
 図1を参照して、眼科システム100の構成を説明する。図1に示すように、眼科システム100は、眼科装置110と、眼軸長測定器120と、管理サーバ装置(以下、「サーバ」という)140と、画像表示装置(以下、「ビューワ」という)150と、を備えている。眼科装置110は、眼底画像を取得する。眼軸長測定器120は、患者の眼軸長を測定する。サーバ140は、眼科装置110によって患者の眼底が撮影されることにより得られた眼底画像を、患者のIDに対応して記憶する。ビューワ150は、サーバ140から取得した眼底画像などの医療情報を表示する。
 眼科装置110、眼軸長測定器120、サーバ140、およびビューワ150は、ネットワーク130を介して、相互に接続されている。
 次に、図2を参照して、眼科装置110の構成を説明する。
 説明の便宜上、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)を「SLO」と称する。また、光干渉断層計(Optical Coherence Tomography)を「OCT」と称する。
 なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、被検眼12の前眼部の瞳孔の中心と眼球の中心とを結ぶ方向を「Z方向」とする。従って、X方向、Y方向、およびZ方向は互いに垂直である。
 眼科装置110は、撮影装置14および制御装置16を含む。撮影装置14は、SLOユニット18、OCTユニット20、および撮影光学系19を備えており、被検眼12の眼底の眼底画像を取得する。以下、SLOユニット18により取得された二次元眼底画像をSLO画像と称する。また、OCTユニット20により取得されたOCTデータに基づいて作成された網膜の断層画像や正面画像(en-face画像)などをOCT画像と称する。
 制御装置16は、CPU(Central Processing Unit(中央処理装置))16A、RAM(Random Access Memory)16B、ROM(Read-Only memory)16C、および入出力(I/O)ポート16Dを有するコンピュータを備えている。
 制御装置16は、I/Oポート16Dを介してCPU16Aに接続された入力/表示装置16Eを備えている。入力/表示装置16Eは、被検眼12の画像を表示したり、ユーザから各種指示を受け付けたりするグラフィックユーザインターフェースを有する。グラフィックユーザインターフェースとしては、タッチパネル・ディスプレイが挙げられる。
 また、制御装置16は、I/Oポート16Dに接続された画像処理装置16Gを備えている。画像処理装置16Gは、撮影装置14によって得られたデータに基づき被検眼12の画像を生成する。制御装置16はI/Oポート16Dに接続された通信インターフェース(I/F)16Fを備えている。眼科装置110は、通信インターフェース(I/F)16Fおよびネットワーク130を介して眼軸長測定器120、サーバ140、およびビューワ150に接続される。
 上記のように、図2では、眼科装置110の制御装置16が入力/表示装置16Eを備えているが、本開示の技術はこれに限定されない。例えば、眼科装置110の制御装置16は入力/表示装置16Eを備えず、眼科装置110とは物理的に独立した別個の入力/表示装置を備えるようにしてもよい。この場合、当該表示装置は、制御装置16のCPU16Aの制御下で動作する画像処理プロセッサユニットを備える。画像処理プロセッサユニットが、CPU16Aが出力指示した画像信号に基づいて、SLO画像等を表示するようにしてもよい。
 撮影装置14は、制御装置16のCPU16Aの制御下で作動する。撮影装置14は、SLOユニット18、撮影光学系19、およびOCTユニット20を含む。撮影光学系19は、第1光学スキャナ22、第2光学スキャナ24、および広角光学系30を含む。
 第1光学スキャナ22は、SLOユニット18から射出された光をX方向、およびY方向に2次元走査する。第2光学スキャナ24は、OCTユニット20から射出された光をX方向、およびY方向に2次元走査する。第1光学スキャナ22および第2光学スキャナ24は、光束を偏向できる光学素子であればよく、例えば、ポリゴンミラーや、ガルバノミラー等を用いることができる。また、それらの組み合わせであってもよい。
 広角光学系30は、共通光学系28を有する対物光学系(図2では不図示)、およびSLOユニット18からの光とOCTユニット20からの光を合成する合成部26を含む。
 なお、共通光学系28の対物光学系は、楕円鏡などの凹面ミラーを用いた反射光学系や、広角レンズなどを用いた屈折光学系、あるいは、凹面ミラーやレンズを組み合わせた反射屈折光学系でもよい。楕円鏡や広角レンズなどを用いた広角光学系を用いることにより、視神経乳頭や黄斑が存在する眼底中心部だけでなく眼球の赤道部や渦静脈が存在する眼底周辺部の網膜を撮影することが可能となる。
 楕円鏡を含むシステムを用いる場合には、国際公開WO2016/103484あるいは国際公開WO2016/103489に記載された楕円鏡を用いたシステムを用いる構成でもよい。国際公開WO2016/103484の開示および国際公開WO2016/103489の開示の各々は、その全体が参照により本明細書に取り込まれる。
 広角光学系30によって、眼底において広い視野(FOV:Field of View)12Aでの観察が実現される。FOV12Aは、撮影装置14によって撮影可能な範囲を示している。FOV12Aは、視野角として表現され得る。視野角は、本実施の形態において、内部照射角と外部照射角とで規定され得る。外部照射角とは、眼科装置110から被検眼12へ照射される光束の照射角を、瞳孔27を基準として規定した照射角である。また、内部照射角とは、眼底へ照射される光束の照射角を、眼球中心Oを基準として規定した照射角である。外部照射角と内部照射角とは、対応関係にある。例えば、外部照射角が120度の場合、内部照射角は約160度に相当する。本実施の形態では、内部照射角は200度としている。
 内部照射角の200度は、本開示の技術の「所定値」の一例である。
 ここで、内部照射角で160度以上の撮影画角で撮影されて得られたSLO眼底画像をUWF-SLO眼底画像(図7Aを参照)と称する。なお、UWFとは、UltraWide Field(超広角)の略称を指す。もちろん、内部照射角で160度未満の撮影画角で眼底を撮影することにより、UWFではないSLO画像を取得することができる。
 眼科装置110の広角光学系で撮影されたUWF-SLO眼底画像は、眼球の網膜像を二次元平面にステレオ投影変換した画像である。眼底周辺部はステレオ投影変換によって眼底中心部に比べて距離や面積の歪が大きくなっている。よって、例えば渦静脈の眼底構造物や網膜剥離など、眼底周辺部や眼底赤道部に存在する構造物や病変領域の面積や形状が歪んで見える結果、これらの対象が周囲との関係において眼球上どの位置にあるのか、二次元眼底画像であるUWF-SLO眼底画像では把握しづらいという課題がある。
 図7Bを用いて眼底赤道部174の説明をする。眼球(被検眼12)は、直径約24mmの眼球中心170とした球状の構造物である。その前極175と後極176を連ねる直線を眼球軸172と言い、眼球軸172に直交する平面が眼球表面と交わる線を緯線といい、緯線長が最大のものが赤道174である。赤道174の位置に相当する網膜や脈絡膜の部分を赤道部178とする。赤道部178は眼底周辺部の一部である。
 SLOシステムは、図2に示す制御装置16、SLOユニット18、および撮影光学系19によって実現される。SLOシステムは、広角光学系30を備えるため、広いFOV12Aでの眼底撮影を可能とする。
 SLOユニット18は、複数の光源、例えば、B光(青色光)の光源40、G光(緑色光)の光源42、R光(赤色光)の光源44、およびIR光(赤外線(例えば、近赤外光))の光源46と、光源40、42、44、46からの光を、反射または透過して1つの光路に導く光学系48、50、52、54、56とを備えている。光学系48、50、56は、ミラーであり、光学系52、54は、ビームスプリッタ―である。B光は、光学系48で反射し、光学系50を透過し、光学系54で反射し、G光は、光学系50、54で反射し、R光は、光学系52、54を透過し、IR光は、光学系56、52で反射して、それぞれ1つの光路に導かれる。
 SLOユニット18は、G光、R光、およびB光を発するモードと、赤外線を発するモードなど、波長の異なるレーザ光を発する光源あるいは発光させる光源の組合せを切り替え可能に構成されている。図2に示す例では、B光(青色光)の光源40、G光の光源42、R光の光源44、およびIR光の光源46の4つの光源を備えるが、本開示の技術は、これに限定されない。例えば、SLOユニット18は、さらに、白色光の光源をさらに備え、白色光のみを発するモード等の種々のモードで光を発するようにしてもよい。
 SLOユニット18から撮影光学系19に入射された光は、第1光学スキャナ22によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、被検眼12の後眼部に照射される。眼底により反射された反射光は、広角光学系30および第1光学スキャナ22を経由してSLOユニット18へ入射される。
 SLOユニット18は、被検眼12の後眼部(例えば、眼底)からの光の内、B光を反射し且つB光以外を透過するビームスプリッタ64、ビームスプリッタ64を透過した光の内、G光を反射し且つG光以外を透過するビームスプリッタ58を備えている。SLOユニット18は、ビームスプリッタ58を透過した光の内、R光を反射し且つR光以外を透過するビームスプリッタ60を備えている。SLOユニット18は、ビームスプリッタ60を透過した光の内、IR光を反射するビームスプリッタ62を備えている。
 SLOユニット18は、複数の光源に対応して複数の光検出素子を備えている。SLOユニット18は、ビームスプリッタ64により反射したB光を検出するB光検出素子70、およびビームスプリッタ58により反射したG光を検出するG光検出素子72を備えている。SLOユニット18は、ビームスプリッタ60により反射したR光を検出するR光検出素子74、およびビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。
 広角光学系30および第1光学スキャナ22を経由してSLOユニット18へ入射された光(眼底により反射された反射光)は、B光の場合、ビームスプリッタ64で反射してB光検出素子70により受光され、G光の場合、ビームスプリッタ64を透過し、ビームスプリッタ58で反射してG光検出素子72により受光される。上記入射された光は、R光の場合、ビームスプリッタ64、58を透過し、ビームスプリッタ60で反射してR光検出素子74により受光される。上記入射された光は、IR光の場合、ビームスプリッタ64、58、60を透過し、ビームスプリッタ62で反射してIR光検出素子76により受光される。CPU16Aの制御下で動作する画像処理装置16Gは、B光検出素子70、G光検出素子72、R光検出素子74、およびIR光検出素子76で検出された信号を用いてUWF-SLO画像を生成する。
 UWF-SLO画像(後述するようにUWF眼底画像、オリジナル眼底画像ともいう)には、眼底がG色で撮影されて得られたUWF-SLO画像(G色眼底画像)と、眼底がR色で撮影されて得られたUWF-SLO画像(R色眼底画像)とがある。UWF-SLO画像には、眼底がB色で撮影されて得られたUWF-SLO画像(B色眼底画像)と、眼底がIRで撮影されて得られたUWF-SLO画像(IR眼底画像)とがある。
 また、制御装置16が、同時に発光するように光源40、42、44を制御する。B光、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像、R色眼底画像、およびB色眼底画像が得られる。G色眼底画像、R色眼底画像、およびB色眼底画像からRGBカラー眼底画像が得られる。制御装置16が、同時に発光するように光源42、44を制御し、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像およびR色眼底画像が得られる。G色眼底画像およびR色眼底画像からRGカラー眼底画像が得られる。
 このようにUWF-SLO画像として、具体的には、B色眼底画像、G色眼底画像、R色眼底画像、IR眼底画像、RGBカラー眼底画像、RGカラー眼底画像がある。UWF-SLO画像の各画像データは、入力/表示装置16Eを介して入力された患者の情報と共に、通信インターフェース(I/F)16Fを介して眼科装置110からサーバ140へ送信される。UWF-SLO画像の各画像データと患者の情報とは、記憶装置254に、対応して記憶される。なお、患者の情報には、例えば、患者名ID、氏名、年齢、視力、右眼/左眼の区別等がある。患者の情報はオペレータが入力/表示装置16Eを介して入力する。
 OCTシステムは、図2に示す制御装置16、OCTユニット20、および撮影光学系19によって実現される。OCTシステムは、広角光学系30を備えるため、上述したSLO眼底画像の撮影と同様に、広いFOV12Aでの眼底撮影を可能とする。OCTユニット20は、光源20A、センサ(検出素子)20B、第1の光カプラ20C、参照光学系20D、コリメートレンズ20E、および第2の光カプラ20Fを含む。
 光源20Aから射出された光は、第1の光カプラ20Cで分岐される。分岐された一方の光は、測定光として、コリメートレンズ20Eで平行光にされた後、撮影光学系19に入射される。測定光は、第2光学スキャナ24によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、眼底に照射される。眼底により反射された測定光は、広角光学系30および第2光学スキャナ24を経由してOCTユニット20へ入射され、コリメートレンズ20Eおよび第1の光カプラ20Cを介して、第2の光カプラ20Fに入射する。
 光源20Aから射出され、第1の光カプラ20Cで分岐された他方の光は、参照光として、参照光学系20Dへ入射され、参照光学系20Dを経由して、第2の光カプラ20Fに入射する。
 第2の光カプラ20Fに入射されたこれらの光、即ち、眼底で反射された測定光と、参照光とは、第2の光カプラ20Fで干渉されて干渉光を生成する。干渉光はセンサ20Bで受光される。CPU16Aの制御下で動作する画像処理装置16Gは、センサ20Bで検出されたOCTデータに基づいて断層画像やen-face画像などのOCT画像を生成する。
 ここで、内部照射角で160度以上の撮影画角で撮影されて得られたOCT眼底画像をUWF-OCT画像と称する。もちろん、内部照射角で160度未満の撮影画角でOCTデータを取得することができる。
 UWF-OCT画像の画像データは、患者の情報と共に、通信インターフェース(I/F)16Fを介して眼科装置110からサーバ140へ送信される。UWF-OCT画像の画像データと患者の情報とは、記憶装置254に、対応して記憶される。
 なお、本実施の形態では、光源20Aが波長掃引タイプのSS-OCT(Swept-Source OCT)を例示するが、SD-OCT(Spectral-Domain OCT)、TD-OCT(Time-Domain OCT)など、様々な方式のOCTシステムであってもよい。
 次に、眼軸長測定器120を説明する。眼軸長測定器120は、被検眼12の眼軸方向の長さである眼軸長を測定する第1のモードと第2のモードとの2つのモードを有する。第1のモードは、図示しない光源からの光を被検眼12に導光した後、眼底からの反射光と角膜からの反射光との干渉光を受光し、受光した干渉光を示す干渉信号に基づいて眼軸長を測定する。第2のモードは、図示しない超音波を用いて眼軸長を測定するモードである。
 眼軸長測定器120は、第1のモードまたは第2のモードにより測定された眼軸長をサーバ140に送信する。第1のモードおよび第2のモードにより眼軸長を測定してもよく、この場合には、双方のモードで測定された眼軸長の平均を眼軸長としてサーバ140に送信する。サーバ140は、患者の眼軸長を患者名IDに対応して記憶する。
 次に、図3を参照して、サーバ140の電気系の構成を説明する。図3に示すように、サーバ140は、コンピュータ本体252を備えている。コンピュータ本体252は、バス270により相互に接続されたCPU262、RAM266、ROM264、および入出力(I/O)ポート268を有する。入出力(I/O)ポート268には、記憶装置254、ディスプレイ256、マウス255M、キーボード255K、および通信インターフェース(I/F)258が接続されている。記憶装置254は、例えば、不揮発メモリで構成される。入出力(I/O)ポート268は、通信インターフェース(I/F)258を介して、ネットワーク130に接続されている。従って、サーバ140は、眼科装置110、およびビューワ150と通信することができる。記憶装置254には、後述する画像処理プログラムが記憶されている。なお、画像処理プログラムを、ROM264に記憶してもよい。
 画像処理プログラムは、本開示の技術の「プログラム」の一例である。記憶装置254、ROM264は、本開示の技術の「メモリ」、「コンピュータ可読記憶媒体」の一例である。CPU262は、本開示の技術の「プロセッサ」の一例である。
 サーバ140の後述する処理部208(図5も参照)は、眼科装置110から受信した各データを、記憶装置254に記憶する。具体的には、処理部208は記憶装置254に、UWF-SLO画像の各画像データおよびUWF-OCT画像の画像データと患者の情報(上記のように患者名ID等)とを対応して記憶する。また、患者の被検眼に病変がある場合や病変部分に手術がされた場合には、眼科装置110の入力/表示装置16Eを介して病変の情報が入力され、サーバ140に送信され、記憶装置254に記憶される。病変の情報は患者の情報と対応付けられて記憶装置254に記憶される。病変の情報には、病変部分の位置の情報、病変の名称、病変部分に手術がされている場合には手術名や手術日時等がある。
 ビューワ150は、CPU、RAM、ROM等を備えたコンピュータとディスプレイとを備え、ROMには、画像処理プログラムがインストールされており、ユーザの指示に基づき、コンピュータは、サーバ140から取得した眼底画像などの医療情報が表示されるようにディスプレイを制御する。
 次に、図4を参照して、第1実施の形態のサーバ140のCPU262が画像処理プログラムを実行することで実現される各種機能について説明する。画像処理プログラムは、画像取得機能、画像処理機能(3D動画生成機能、3D眼球画像生成機能、保存機能、および特徴部取得機能)、表示制御機能、および出力機能を備えている。CPU262がこの各機能を有する画像処理プログラムを実行することで、CPU262は、図4に示すように、画像取得部1410、画像処理部1420(3D動画生成部1421、3D眼球画像生成部1422、保存部1423、および特徴部取得部1424)、表示制御部1430、および出力部1440として機能する。
 次に、図5を用いて、サーバ140による画像処理を詳細に説明する。サーバ140のCPU262が画像処理プログラムを実行することで、図5のフローチャートに示された画像処理が実現される。当該画像処理は、眼科装置110によりUWF眼底画像(UWF-SLO画像)が、取得され、患者名IDと共にサーバ140に送信され、サーバ140が、患者名IDおよびUWF眼底画像を受信した場合に、スタートする。
 ステップ502で、画像取得部1410は、記憶装置254から、患者名IDに対応するUWF眼底画像G1を取得する。UWF眼底画像G1は、例えば、RGBカラー眼底画像(図7A参照)である。
 ステップ504で、画像処理部1420は、UWF眼底画像G1に対し、詳細には後述する3D加工処理(図6も参照)を実行する。
 ステップ506で、表示制御部1430は、詳細には後述する表示画面(図12、図14、図15も参照)を生成する。
 次に、図6を用いて、ステップ504の3D加工処理を説明する。
 ステップ602で、3D動画生成部1421は、UWF眼底画像G1の各点に対応する眼球モデルM上の各点を取得する。
 具体的には、3D動画生成部1421は、図8に示すように、UWF眼底画像G1を眼球モデルMへ投影する過程を示す複数のフレームからなる動画データを生成する。球面を平面に投影する方法はステレオ投影であるが、本実施の形態では、3D動画生成部1421は、平面から球面へのステレオ逆投影の過程を示す動画データを生成する。
 具体的には、3D動画生成部1421は、まず、UWF眼底画像G1と眼球モデルMとの位置合わせを行う。具体的には、3D動画生成部1421は、UWF眼底画像G1の投影中心と眼球モデルMの投影中心が一致し、かつ、眼球モデルMの中心から投影面が水平になるように配置する。UWF眼底画像G1の中心gcを中心としたXY方向と、眼球モデルMの瞳孔中心mcを中心としたXY方向とを一致させる。
 眼球モデルMとUWF眼底画像G1との位置合わせが完了後、3D動画生成部1421は、UWF眼底画像G1の各点を識別するタイムステップに関連する変数gを0にセットし、変数gを1インクリメントし、変数gで識別されるUWF眼底画像G1の点を、以下の変換式に従って、眼球モデルM上の点に変換する。これにより、変数gで識別されるUWF眼底画像G1の点に対応する眼球モデルM上の点が取得される。本実施例では、Z=-1の平面にUWF眼底画像G1を配置する。UWF眼底画像G1の点を(Xg,Yg、-1)とし、UWF眼底画像G1の点(Xg,Yg, -1)に対応する眼球モデルMの上の点を(Xmg,Ymg,Zmg)とすると、変換式は次の通りである。
Xmg=4Xg/(4+Xg+Yg
Ymg=4Yg/(4+Xg+Yg
Zmg=(-4+Xg+Yg)/(4+Xg+Yg
 例えば、図8に示すように、変数g=1により識別されるUWF眼底画像G1の点g1(X1,Y1, -1)が眼球モデルM上の点m1(Xm1,Ym1,Zm1)に変換される。以上の変換を、UWF眼底画像G1の全ての点について実行する。ここで、点g1はUWF眼底画像G1の画素ごとに設定される。上記の変換は、UWF眼底画像G1の全ての画素について実行される。
 なお、UWF眼底画像G1の全ての点(画素)ではなく、ユーザにより選択されたUWF眼底画像G1の網膜剥離などの病変を含む領域や、渦静脈を含む領域に対して、上記の変換を行ってもよい。
 ステップ602で用いる眼球モデルは、デフォルトの眼球モデルを用いてもよい。しかし、本実施の形態では、3D動画生成部1421は、患者名IDに対応する眼軸長を記憶装置254から読み出し、デフォルトの眼球モデルの大きさを、読み出した眼軸長に応じて予め補正している。
 また、本実施の形態では、3D動画生成部1421は、変換式を用いて、UWF眼底画像G1の各点に対応する眼球モデルM上の点を取得している。本開示の技術はこれに限定されない。予め眼球モデルに対する変換ルックアップテーブルを準備しておき、3D動画生成部1421は、当該テーブルを参照してUWF眼底画像G1の各点に対応する眼球モデルM上の点を取得するようにしてもよい。
 ステップ604で、3D動画生成部1421は、UWF眼底画像の各点の画素が、眼球モデル上の対応する各点まで移動する軌跡を取得する。
 具体的には、3D動画生成部1421は、変数gを0にセットし、変数gを1インクリメントし、変数gで識別されるUWF眼底画像G1の点と当該点に対応する眼球モデルM上の点とを結ぶ線を、経路として設定する。3D動画生成部1421は、変数gで識別されるUWF眼底画像G1の点の画素の所定時間毎の位置を算出する。なお、この所定時間は、後述する動画データにおけるフレームレートに従う時間である。
 ここで、上記移動のパターンには、UWF眼底画像G1の各点の画素の移動の経路及び移動する速度の少なくとも一方が異なる複数のパターンがある。
 上記経路は、直線でも曲線でもよいが、本実施の形態では直線としている。なお、ユーザに、直線、および曲線(例えば、上に凸の曲率が異なる複数の曲線、下に凸の曲率が異なる複数の曲線)の中から選択させてもよい。
 また、速度は、上記移動中一定でも変化させてもよい。本実施の形態では、速度は、上記移動中、予め定められた速度V0で一定としている。速度についても、等速(複数の速度)、徐々に早くなる複数のパターン、徐々に遅くなる複数のパターンなどからオペレータに選択させてもよい。
 より具体的には、例えば、変数g=1の場合、3D動画生成部1421は、変数g=1により識別されるUWF眼底画像G1の点g1を、図9に示すように、眼球モデルMのXYZ座標系の点mg1として、点g1の座標(X1,Y1)を、点mg1の座標(X1,Y1,-1)に変換する。一般的なステレオ投影変換ではZ=0にUWF眼底画像G1を配置するが、ここでは、図13のようにUWF眼底画像G1を残したまま変換動画を生成するので、意図的にZ=-1にUWF眼底画像G1を配置している。
 3D動画生成部1421は、XYZ座標系において、点mg1(X1,Y1,-1)と、点m1(Xm1,Ym1,Zm1)との線分L1を設定する。
 後述するように、本実施の形態では、点mg1(X1,Y1,-1)の画素が、点m1(Xm1,Ym1,Zm1)まで移動する過程を表す動画データが作成される。動画データが再生されると、点mg1(X1,Y1,-1)の画素が、線分L1を通って点m1(Xm1,Ym1,Zm1)まで移動することが表示される。よって、線分L1は、点mg1(X1,Y1,-1)の画素の移動の軌跡となる。なお、線分L1は経路L1とも言う。
 本実施の形態では、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで、対応する経路に沿って、等速直線移動するパターンが予め定められている。当該パターンでは、例えば、図10に示すように、点mg1(X1,Y1,0)の画素が、経路L1に沿って、点md、・・・、mh、・・・mm、・・・m1まで、等速V0で移動する。3D動画生成部1421は、経路L1と速度V0とから、点mg1(X1,Y1,-1)の画素の所定時間毎の位置(XYZ座標系)を算出する。
 3D動画生成部1421は、以上の処理を、変数gが、UWF眼底画像G1の点の総数になるまで実行する。これにより、UWF眼底画像G1の全ての点の画素の移動の経路に沿った位置が取得される。
 なお、UWF眼底画像G1の各点の画素毎に、移動のパターンが異なるようにしてもよい。例えば、UWF眼底画像G1のある点の画素は、等速直線移動であるが、他の点の画素は、徐々に速度が遅くなりかつ上に凸の曲線の経路に沿って移動するようにしてもよい。
 ステップ606で、3D動画生成部1421は、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで移動する過程を示す動画データを生成する。
 具体的には、まず、UWF眼底画像G1の各画素をデータ点とし、3次元座標のZ=-1となるXY平面に配置し、初期フレームが生成される(図11のf1に相当する処理である。図11は動画データの複数のフレームを説明するための図である。)。
 次に、ステップ604で設定された軌跡のデータから、所定時間(Δt)経過後の位置に当該データ点を配置する。UWF眼底画像G1のデータ点すべてに対して当該データ点を配置することにより平面(曲面)を定義する。この平面のデータ点に対して画素データ(色と輝度のデータ)を入力し、所定時間(Δt)経過後の中間フレームが生成される(図11のfd、fh、fmに相当)。
 続いて、中間フレームの生成を所定時間Δt1からΔtn(nは最終位置nとなるまでに生成されるフレーム数である)まで、同様に、フレーム作成を繰り返す。図11ではfnが最終フレームであり、各データ点が眼球モデルM上の点まで移動した状態のフレームである。
 そして、フレーム1からnが完成したのち、フレーム番号、動画ファイル番号などを付加し、動画データが生成される。
 平面の算出方法は線形補間、スプライン補間などを用いてもよい。平面の形状モデルは、サーフェイスモデルや空間格子モデルなどを用いてもよい。平面を算出せず、データ点に大きさをもたせ、散布図として表示してもよい。
 上記のように本実施の形態では、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで、経路Lに沿って等速V0で移動する等速直線移動するパターンが予め定められている。よって、ステップ606では、動画データとして、UWF眼底画像G1の各点の画素が、各画素の点に対応する眼球モデルM上の点まで当該等速直線移動することを表す所定時間毎の複数のフレーム(静止画像)が生成される。
 例えば、図11に示すように、最初のフレームF1は、UWF眼底画像G1と一致する。3D動画生成部1421は、計算された移動後の位置に、対応する各画素を配置することにより、所定時間後のフレームを生成する。3D動画生成部1421は、以上の処理を繰り返すことにより、図11に示すように、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで移動するまでの、所定時間毎のフレームfd、・・・、fh、・・・、fm、・・・frが生成される。
 ステップ608で、3D眼球画像生成部1422は、3D眼球画像データを生成する。
 3D眼底画像データは、UWF眼底画像G1を所定の眼球モデルに張り合わせるように変換し、変換したUWF眼底画像G1に虹彩や水晶体などの前眼部画像を合成して得られる、眼球のイメージ画像データである。3D眼球画像生成部1422は、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで移動した後の画像(動画の最終フレーム)を3D眼球画像としてもよい。
 図5の画像処理とは別の処理で、特徴部取得部1424が、特徴部の情報を取得しておく。特徴部としては、眼底構造物として血管(例えば、網膜血管、脈絡膜血管等)、視神経乳頭、黄斑、渦静脈などがある。3D眼球画像生成部1422は、UWF眼底画像G1の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで移動した後の画像に、特徴部取得部1424により取得された特徴部の画像を強調させることにより、3D眼底画像データを生成する。また、特徴部には病変領域も含まれる。病変領域は眼科医の診断により特定される。例えば、網膜剥離を含む領域を示すマークがUWF眼底画像G1に重畳表示されている。
 このような特徴物の位置や領域は、UWF眼底画像G1上の座標データとして病変名や特徴物名と座標データを組み合わせて記憶装置254に保持されている。
 ステップ606で、動画データを作成する際に、特徴物や病変の位置をマークしたUWF眼底画像G1から動画データを作成するようにしてもよい。
 ステップ610で、保存部1423は、各データ(動画データ及び3D眼底画像データ)を、記憶装置2554に保存(記憶)する。
 ステップ610の各データの保存処理が終了すると、図5のステップ504の3D加工処理が終了し、画像処理は、ステップ506に進み、表示制御部1430は、表示画面(図12、図14、および図15も参照)を生成し、画像処理が終了する。
 ユーザ(例えば、眼科医等)は、患者の被検眼を診察する際、患者名IDをビューワ150に入力する。ビューワ150はサーバ140に、患者名IDに対応する被検眼の画像データ等を送信するように指示する。サーバ140の出力部1440は、患者名IDに対応する、患者名、患者の年齢、患者の視力、左眼か右眼かの情報、眼軸長、撮影日、および画像データ等を、患者名IDと共に、ビューワ150に送信する。
 画像データ等には、UWF眼底画像、動画データ、3D眼底画像データ、特徴部の情報が含まれる。
 患者名ID、患者名、患者の年齢、患者の視力、左眼か右眼かの情報、眼軸長、撮影日、および画像データを受信したビューワ150は、図12に示す表示画面400Aをディスプレイに表示する。
 図12に示すように、表示画面400Aは、情報表示領域402と、画像表示領域404Aとを有する。
 情報表示領域402には、患者ID表示領域412、患者名表示領域414、年令表示領域416、右眼/左眼表示領域418、眼軸長表示領域420、視力表示領域422、及び撮影日時表示領域424を有する。ビューワ150は、受信した情報に基づいて、患者ID表示領域412から撮影日時表示領域424の各表示領域に各々の情報を表示する。
 画像表示領域404Aは、SLO画像表示領域452Aと、動画データ表示領域454A1とを有する。動画データ表示領域454A1は、動画データ表示部455A、再生ボタン456、及び表示経過表示部458を有する。
 SLO画像表示領域452Aには、UWF眼底画像が表示される。再生ボタン456が操作されると、動画データ表示部455Aに動画データが表示されると共に、表示経過表示部458における、全体の動画データの中の既に表示された割合に対応する部分が、所定の色で塗りつぶされる。
 動画データ表示部455Aにおける動画データの再生を説明する。再生ボタン456が操作される前は、図12、図13に示すように、UWF眼底画像G1が表示される。
 再生ボタン456が操作されると、図13に示すように、まず、UWF眼底画像G1の正面視が表示され(映像a)、次に、UWF眼底画像G1が所定角度傾いた画像Gdが表示され(映像b)、更に、UWF眼底画像G1が更に傾いた斜視の画像Ghが表示(映像c)される。映像a、映像b、そして映像cが表示されていく過程は、2次元眼底画像の正面視から斜視への変換する第1過程である。
 その後、画像Ghをそのまま残したうえで、ステレオ投影逆変換の初期状態を示した3次元眼底画像fhが重畳された映像dが表示される。そして、ステレオ投影逆変換の様子を示した映像が表示され、具体的には、最初のフレームf1、・・・フレームfh、・・・フレームfrまで表示される。そして、画像Gh上にステレオ投影逆変換の完了状態を示した3次元画像frが重畳した映像eが表示される。映像dから映像eが表示されていく過程は、水平視の2次元眼底画像に、ステレオ投影逆変換される3次元眼底画像が変化していく第2過程である。
 最後に、映像eを回転させ、正面視のUWF眼底画像G1に正面視の三次元眼底画像fr重畳された画像Gzが表示される(映像f)。映像eから映像fが表示されていく過程は、水平視の2次元眼底画像と前記変換が完了した三次元眼底画像とを一体画像として回転させる第3過程である。
 なお、動画データは、図11に示したように、UWF眼底画像G1がステレオ投影逆変換される過程だけの動画(図13のように画像Ghをそのまま残した動画ではなく、画像Ghを残さない動画)であってもよい。
 動画データが表示される場合、予め定められた点、図13に示す例えでは、上下の各々の最外部の予め選択された4点について、各点の経路が表示される(図のL1、L2、L3とL4)。また、渦静脈や網膜剥離などの上述した特徴部の位置の経路を表示するようにしてもよい。
 動画データ表示部455Aに動画データが表示され、画像Gzが表示されると、図14に示すように、動画データ表示領域454A1に、3D眼球画切替ボタン460が表示される。
 3D眼球画切替ボタン460が操作されると、図15に示すように、動画データ表示領域454A1は、3D眼底画像表示領域454A2に切り替わる。3D眼底画像表示領域454A2には、3D眼球画像が表示される。上記のように、UWF眼底画像G1を所定の眼球モデルに張り合わせるように変換し、変換したUWF眼底画像G1に虹彩や水晶体などの前眼部画像を合成して得られる、眼球のイメージ画像データである。
 3D眼底画像表示領域454A2には、3D動画切替ボタン462が表示される。3D動画切替ボタン462が操作されると、図12の表示画面400Aに切り替わる。
 以上説明したように第1実施の形態は、UWF眼底画像の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データを作成する。よって、ユーザは、UWF眼底画像の各点が、眼球モデル上の対応する各点まで、どのように移動するのかを知ることができる。従って、ユーザは、眼球モデル上の対応する各点は、UWF眼底画像のどの点なのかを知ることができる。
 よって、UWF眼底画像から生成された動画データをユーザ(眼科医)が閲覧することにより、眼底周辺部や眼底赤道部の眼球上での位置や病変の大きさ(病変領域の面積)を、ユーザが直感的に把握することができる。また、眼科医が被検者(患者)に対して病変の位置や大きさなどの診断結果をわかりやすく説明できる。
 また、第1実施の形態では、2次元のUWF眼底画像を眼球モデルに基づいて3次元眼底画像に変換する過程の動画を生成することを示した。これに限らず、前眼部の2次元の撮影された画像を眼球モデルに基づいて3次元前眼部画に変換する過程の動画を生成するようにしてもよい。例えば、水晶体の2次元平面画像を三次元の水晶体モデルに基づいて変換する動画を生成するようにしてもよい。水晶体の色素沈着などの部位を立体的にわかりやすく認識させ、緑内障手術の術式のプラニングに活用することができる。
[第2実施の形態]
 次に、本開示の技術の第2実施の形態を説明する。第2実施の形態の構成は、第1の実施の形態の構成と略同様であるので、異なる部分(眼科装置110の固視機能とサーバ140のモンタージュ画像生成)のみを説明する。
 まず、第2実施の形態の眼科装置110の固視機能を説明する。
 眼科装置110の撮影装置14は、制御装置16により制御され、図示しない上固視灯及び下固視灯(さらに図示せぬ中央固視灯を含む)を点灯させる固視標制御装置を備えている。中央固視灯、上固視灯及び下固視灯の何れかを点灯させることにより被検眼12の向き(視線方向)を変えることができる。
 次に、第2実施の形態のサーバ140のCPU262が画像処理プログラムを実行することで実現されるモンタージュ画像生成機能について説明する。
 図16には、第2実施の形態のサーバ140のCPU262が画像処理プログラムを実行することで実現される各種機能のブロック図が示されている。第2実施の形態の画像処理プログラムは、第1実施の形態と比較すると、画像処理機能において、モンタージュ画像生成機能が追加されている。よって、CPU262がこの各機能を有する画像処理プログラムを実行することで、CPU262は、モンタージュ画像生成部1425として更に機能する。
 眼科装置110は、患者の視線を斜め上方向に向けるために、固視標制御装置を制御して上固視灯を点灯させる。これにより、患者の視線が斜め上方向、即ち、眼球中心から上固視灯に向かう方向に向けられる。上固視灯を点灯させるだけでなく、眼科装置110のオペレータが「上を向いてください」など患者の視線を斜め上方向にする指示を出すことで、被検眼の視線を斜め上方向に向いた状態にしてもよい。
 眼科装置110は、患者の視線が斜め上方向に向けられている上方視の状態で、眼底を撮影する。UWF上方視眼底画像GUが得られる(図19Aも参照)。
 眼科装置110は、患者の視線を斜め下方向に向けるために、固視標制御装置を制御して下固視灯を点灯させる。これにより、患者の視線が斜め下方向、即ち、眼球中心から下固視灯に向かう方向に向けられる。上固視灯を点灯させるだけでなく、眼科装置110のオペレータが「下を向いてください」など患者の視線を斜め下方向にする指示を出すことで、被検眼の視線を斜め下方向に向いた状態にしてもよい。
 眼科装置110は、患者の視線が斜め下方向に向けられている下方視の状態で、眼底を撮影する。UWF下方視眼底画像GDが得られる。なお、図19Bには、後述する位置合わせされたUWF下方視眼底画像GDCが示されている。
 UWF上方視眼底画像GUには、第1実施の形態と同様に、B色眼底画像(UWF上方視眼底画像B)、G色眼底画像(UWF上方視眼底画像G)、R色眼底画像(UWF上方視眼底画像R)、IR眼底画像(UWF上方視眼底画像IR)、RGBカラー眼底画像(UWF上方視眼底画像RGB)、RGカラー眼底画像(UWF上方視眼底画像RG)がある。
 UWF下方視眼底画像GDも同様に、B色眼底画像(UWF下方視眼底画像B)、G色眼底画像(UWF下方視眼底画像G)、R色眼底画像(UWF下方視眼底画像R)、IR眼底画像(UWF下方視眼底画像IR)、RGBカラー眼底画像(UWF下方視眼底画像RGB)、RGカラー眼底画像(UWF下方視眼底画像RG)がある。
 UWF上方視眼底画像GUとUWF下方視眼底画像GDとが、眼科装置110によりサーバ140に送信され、記憶装置254に記憶される。
 図17には、第2実施の形態の画像処理のフローチャートが示されている。第2実施の形態の画像処理は、UWF上方視眼底画像GUとUWF下方視眼底画像GDとをサーバ140が受信した場合に、スタートする。
 ステップ320で、画像取得部1410は、UWF上方視眼底画像とUWF下方視眼底画像を、記憶装置254から取得する。ステップ322で、モンタージュ画像生成部1425は、UWF上方視眼底画像とUWF下方視眼底画像に対して血管を強調する処理を施す。そして、所定の閾値で二値化する二値化処理を実行する。二値化処理により、眼底の血管が白く強調される。
 ステップ324で、モンタージュ画像生成部1425は、UWF上方視眼底画像とUWF下方視眼底画像の位置合わせを行う。ステップ324の位置合わせ処理について、図18のフローチャートを用いて説明する。ここでは、UWF上方視眼底画像を基準としてUWF下方視眼底画像を変換する場合(つまり、UWF上方視眼底画像は変換しないで、UWF下方視眼底画像のみを変換する場合)を例に取り説明する。
 図18のステップ340で、モンタージュ画像生成部1425は、UWF上方視眼底画像GUから画像処理により、上記位置合わせのための特徴点群1を抽出する。
 特徴点群1は、眼底画像における複数の特徴点であり、図19Aに示すように、視神経乳頭ONHU、黄斑MU、および網膜血管の分岐点である。なお、脈絡膜血管の分岐点も特徴点として抽出するようにしてもよい。
 特徴点は、視神経乳頭ONHU領域の最大輝度の画素、黄斑MU領域の最小輝度の画素、網膜血管や脈絡膜血管の分岐点に位置する画素であり、それらの画素の座標が特徴点データとして抽出される、また、網膜血管や脈絡膜血管の分岐点だけでなく、特徴的な血管走行パターンを含む領域を抽出し、該パターンを含む領域の中心点を特徴点としてもよい。
 なお、網膜血管や脈絡膜血管の端点、屈曲点あるいは蛇行点を特徴点として抽出するようにしてもよい。
 また特徴点は、特徴点検出を行うアルゴリズムであるSIFT(Scale Intevariant Feature Transform)やSURF(Speed Upped Robust Feature)などを用いて行うことができる。
 ここで、位置合わせを高精度で行うために、抽出される特徴点の数は4つ以上が好ましい。UWF上方視眼底画像GUには、視神経乳頭と黄斑は被検眼に1つだけしか存在しない。よって、網膜血管や脈絡膜血管の分岐点を2か所以上抽出することにより、UWF上方視眼底画像GUから特徴点1を4つ以上抽出することができる。
 眼底中心部に存在する視神経乳頭、黄斑、網膜血管や脈絡膜血管は、UWF上方視眼底画像GUとUWF下方視眼底画像GDの双方に撮影されているため位置合わせ用の特徴点の選択対象として好適である。すなわち、特徴点はUWF上方視眼底画像GUとUWF下方視眼底画像GDとの共通領域である眼底中心部から選択するのが良い。
 そこで、ステップ340で、モンタージュ画像生成部1425は、眼底中心部であるUWF上方視眼底画像GUの中心より下側の領域を対象として、画像処理により特徴点群1を抽出する。
 眼底周辺部に存在しているUWF上方視眼底画像GUに存在する渦静脈は、上記位置合わせ用の特徴点として選択対象から除外される。眼底周辺部はWF上方視眼底画像GUとUWF下方視眼底画像GDとの共通領域ではないため、眼底周辺部の構造物は特徴点の選択対象から除外される。
 ステップ342で、モンタージュ画像生成部1425は、特徴点群1に対応する特徴点群2をUWF下方視眼底画像GDから抽出する。特徴点群2は、図19Bに示すように、視神経乳頭ONHD、黄斑MD、網膜血管の分岐点がある。同一眼であるので、視神経乳頭ONHDは視神経乳頭ONHUに対応し、黄斑MDは黄斑MUに対応している。UWF上方視眼底画像GUにおける上記分岐点は、UWF下方視眼底画像GDにおける血管の分岐点に対応している。UWF上方視眼底画像GUにおける分岐点の分岐パターンと同一の分岐パターンを持つ分岐個所が、画像認識処理などによりUWF下方視眼底画像GDから抽出される。
 ステップ344で、モンタージュ画像生成部1425は、特徴点群1と特徴点群2を用いて、UWF下方視眼底画像GDを幾何変換する射影変換行列を生成する。この射影変換行列は、UWF下方視眼底画像GDをUWF上方視眼底画像GUに対応させるための行列である。 少なくとも4個の特徴点により射影変換行列が定まる。
 ステップ346で、生成された射影変換行列を用いてUWF下方視眼底画像GDを変換し、変換後のUWF下方視眼底画像GDC(図19B参照)を得る。射影変換行列を用いた変換後では、特徴点群1と特徴点群2は同一位置に来ており、位置合わせ処理が実行されたこととなる。この変換によりUWF下方視眼底画像GDに比べてUWF下方視眼底画像GDCが大きくなっている(面積が増大している)。
 上述では、UWF下方視眼底画像GDをUWF上方視眼底画像GUに対応させるための射影変換行列を生成し、UWF下方視眼底画像GDを変換した。この逆で、UWF上方視眼底画像GUをUWF下方視眼底画像GDに対応させるための射影変換行列を生成し、UWF上方視眼底画像GUを変換するようにしてもよい。
 これで画像間の位置合わせ処理である図17のステップ324が完了し、画像処理はステップ326に進む。
 図17のステップ326で、モンタージュ画像生成部1425は、UWF上方視眼底画像GU及び変換後のUWF下方視眼底画像GDCを合成し、モンタージュ画像GMを生成する。
 具体的には、まず、モンタージュ画像生成部1425は、図19Aに示すように、UWF上方視眼底画像GUに視神経乳頭ONHUと黄斑MUとを通る線分LGUを設定する。同様に、モンタージュ画像生成部1425は、図19Bに示すように、変換後のUWF下方視眼底画像GDCに視神経乳頭ONHDと黄斑MDとを通る線分LGDを設定する。
 次に、モンタージュ画像生成部1425は、UWF上方視眼底画像GUとUWF下方視眼底画像GDCとが重複する領域の重み付け処理を行う。図20に示すように、モンタージュ画像生成部1425は、UWF上方視眼底画像GUの線分LGUよりも上側領域である上側のUWF上方視眼底画像GUx領域の重みを「1」とする。モンタージュ画像生成部1425は、線分LGUよりも下側領域の重みを「0」とする。そして、モンタージュ画像生成部1425は、変換後のUWF下方視眼底画像の線分LGDよりも下側領域である下側のUWF下方視眼底画像GDCxの重みを「1」とし、線分LGDよりも上側領域出の重みを「0」する。
 モンタージュ画像生成部1425は、UWF上方視眼底画像GUとUWF下方視眼底画像GDCに対して、このような重み付け処理を行うことにより、UWF上方視眼底画像GUxとUWF下方視眼底画像GDCxとが合成されたモンタージュ画像GMを生成する。図20に示されるように、線分LGは視神経乳頭OMHと黄斑Mを結ぶ線分であり、線分LGより上側がUWF上方視眼底画像GUxであり、線分LGより下側がUWF下方視眼底画像GDCxである。モンタージュ画像は、本開示の技術の「モンタージュ画像」の一例である。
 なお、UWF上方視眼底画像GUとUWF下方視眼底画像GDCの重複部分に関する重み付けは、上述の例に限らず、UWF上方視眼底画像GUとUWF下方視眼底画像GDCの混合割合をさまざまな値に設定することができる。
 このように、UWF上方視眼底画像GUとUWF下方視眼底画像GDCの位置合わせを行い合成をする。この合成による、眼底の血管が不連続でなく、眼底周辺部または眼底赤道部に位置する渦静脈や渦静脈周辺の脈絡膜血管を解析、あるいは異常部や病変部などの解析のための眼底画像を得ることができる。
 次にステップ328で、特徴部取得部1424は、モンタージュ画像GMを用いて渦静脈の位置や渦静脈付近の血管の血管径を解析する。解析によって得られた渦静脈情報としては、渦静脈の個数、渦静脈の位置、渦静脈につながる血管の本数、渦状膜周囲の血管の血管径などに関する情報が含まれる。
 ステップ328の処理の後、ステップ504Sで、3D加工処理が実行される。第1実施の形態のステップ504では、画像処理部1420は、UWF眼底画像G1に対し3D加工処理(図6も参照)を実行する。これに対し、第2実施の形態のステップ504では、画像処理部1420は、モンタージュ画像GMに対し3D加工処理(図6も参照)を実行する。このように、処理の対象の画像が異なるだけなので、ステップ504Sの3D加工処理の説明を省略する。
 ステップ504Sの後、ステップ506Sで、表示画面の生成処理が実行される。第2実施の形態の表示画面の詳細については後述する。
 ステップ332で、出力部1440は、モンタージュ画像GMと渦静脈解析により得られた渦静脈解析情報とを、サーバ140の記億装置254に出力する。モンタージュ画像GMと渦静脈解析により得られた渦静脈解析情報とがサーバ140の記億装置254に記憶される。
 ステップ332では更に、出力部1440は、表示画面400Bに対応する画像データをビューワ150へ出力する。
 なお、表示制御部1430は、ディスプレイ256にモンタージュ画像GMを表示するように出力してもよい。
 次に、第2実施の形態の表示画面400Bを説明する。第2実施の形態の表示画面400Bは、第1実施の形態の表示画面400Aと略同様であるので、異なる部分のみを説明する。
 表示画面400Bは、画像表示領域404Aに代えて画像表示領域404Bを有する。画像表示領域404Bは、モンタージュ画像表示領域452Bと、動画データ表示領域454B1とを有する。
 モンタージュ画像表示領域452Bには、モンタージュ画像が表示される。
 再生ボタン456が操作されると、動画データ表示部455Bに動画データが表示され、表示経過表示部458に、全体の動画データの中の既に表示された割合を棒グラフで表示する。
 動画データ表示部455Bにおける動画データの再生は、第1実施の形態と同様であるので、その説明を省略する。
 動画データ表示部455に動画データが表示され、画像Gzが表示されると、図22に示すように、動画データ表示領域454B1に、3D眼球画切替ボタン460が表示される。3D眼球画切替ボタン460が操作されると、図23に示すように、動画データ表示領域454B1に代えて、3D眼底画像表示領域454B2に切り替わる。3D眼底画像表示領域454B2には、3D眼底画像が表示される。上位のように、モンタージュ画像の全ての点の画素が、各画素の点に対応する眼球モデルM上の点まで移動した後の画像に、特徴部が強調された3D眼底画像が表示される。
 以上説明したように第1実施の形態は、モンタージュ画像の各点から眼球モデル上の対応する各点まで移動する過程を表す動画データを作成する。よって、モンタージュ画像の各点が、眼球モデル上の対応する各点まで、どのように移動するのかを知ることができる。従って、眼球モデル上の対応する各点は、モンタージュ画像のどの点なのかを知ることができる。
 また、モンタージュ画像は、第1実施の形態のUWF眼底画像よりも広い領域を有するので、眼球モデル上の対応する各点は、UWF眼底画像よりも広い領域のモンタージュ画像のどの点なのかを知ることができる。よって、モンタージュ画像から生成された動画データをユーザが閲覧することにより、渦静脈や網膜剥離などの病変の眼球上での位置を、ユーザが直感的に把握することができる。眼科医が被検者(患者)に対して眼底周辺部の病変の位置や大きさなどの診断結果をわかりやすく説明できる。
 UWF上方視眼底画像及びUWF下方視眼底画像の取得、モンタージュ画像の作成の各方法としては、国際出願PCT/JP2019/021868に記載された方法でもよい。2019年05月31日に国際出願された国際出願PCT/JP2019/021868の開示は、その全体が参照により本明細書に取り込まれる。
 次に、本開示の技術の種々の変形例を説明する。
 以下の各変形例の構成は、第1実施の形態の構成と同様であるので、その説明を省略する。各変形例の作用は、第1実施の形態の作用と略同様であるので、以下、主として異なる部分を説明する。第1実施の形態では、UWF眼底画像の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成される。本開示の技術はこれに限定されない。
(第1変形例)
 図24を用いて、第1変形例の画像処理を説明する。
 ステップ2402で、画像取得部1410が、記憶装置254から、患者名IDに対応する2次元眼底画像(UWF眼底画像G1又はモンタージュ画像)を取得する。
 ステップ2404で、3D動画生成部1421は、2次元眼底画像の各第1の点に対応する、眼軸長により補正された眼球モデルM上の各第2の点を取得する。
 ステップ2406で、3D動画生成部1421は、各第1の点が、対応する第2の点から当該第1の点まで移動する過程を示すデータ(動画データ)を作成する。
 ユーザは、UWF眼底画像の各第1の点が眼球モデル上の対応する各第2の点から第1の点まで、どのように移動するのかを知ることができる。
(第2変形例)
 図25を用いて、第2変形例の画像処理を説明する。
 第2変形例では、眼軸長により補正された眼球モデル上に2次元眼底画像(UWF眼底画像G1又はモンタージュ画像)がステレオ逆投影されることにより3次元眼底画像のデータが、予め生成され、患者名IDに対応して記憶装置245に記憶されている。
 ステップ2502で、画像取得部1410が、記憶装置254から、患者名IDに対応する3次元眼底画像のデータを取得する。
 ステップ2504で、3D動画生成部1421は、3次元眼底画像の各第1の点に対応する2次元眼底画像上の各第2の点を取得する。
 ステップ2506で、3D動画生成部1421は、各第1の点が対応する第2の点まで移動する過程を示すデータ(動画データ)を作成する。
 ユーザは、3次元眼底画像の各第1の点が、2次元眼底画像上の対応する各第2の点まで、どのように移動するのかを知ることができる。
(第3変形例)
 図26を用いて、第3変形例の画像処理を説明する。
 第3変形例では、第2変形例と同様に、3次元眼底画像のデータが、予め生成され、患者名IDに対応して記憶装置245に記憶されている。
 ステップ2602で、画像取得部1410が、記憶装置254から、患者名IDに対応する3次元眼底画像のデータを取得する。
 ステップ2604で、3D動画生成部1421は、3次元眼底画像の各第1の点に対応する2次元眼底画像上の各第2の点を取得する。
 ステップ2606で、3D動画生成部1421は、各第1の点が、対応する第2の点から当該第1の点まで移動する過程を示すデータ(動画データ)を作成する。
 ユーザは、3次元眼底画像の各第1の点が、2次元眼底画像上の対応する各第2の点から第1の点まで、どのように移動するのかを知ることができる。
(その他の変形例)
 上記各例における3次元眼底画像のデータは、眼球モデル上に2次元眼底画像(UWF眼底画像G1又はモンタージュ画像)がステレオ逆投影されることによりえられる。本開示の技術はこれに限定されない。例えば、OCTボリュームデータ、OCTアンジオグラフィデータ、MRI、超音波で得られた三次元眼底画像データあるいは前眼部などの三次元画像データであってもよい。
 第1実施の形態では、UWF眼底画像の全ての点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成され、第2実施の形態では、モンタージュ画像の全ての画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成される。本開示の技術はこれに限定されない。
 ユーザにより選択された少なくとも1つの点の画素の上記移動する動画データが作成されてもよい。
 この場合、ユーザは、UWF眼底画像又はモンタージュ画像の領域を指定することにより、当該領域の複数の点を選択するようにしてもよい。
 さらに、ユーザは、上記領域として、眼球の上記特徴部を指定することができる。具体的には、ユーザは、特徴部として、例えば、水晶体、眼底構造物、および病変部分等を指定することができる。
 第1実施の形態では、UWF眼底画像(UWF-SLO眼底画像)の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成される。第2実施の形態では、モンタージュ画像(UWF-SLO眼底画像の合成画像)の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成される。本開示の技術はこれに限定されない。
 UWF-SLO画像またはモンタージュ画像(UWF-SLO眼底画像の合成画像)から得られた網膜血管画像または脈絡膜血管画像の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成されてもよい。
 また、UWF-SLO画像ではない、例えば、眼底カメラにより得られた眼底画像の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す動画データが作成されてもよい。
 第1実施の形態及び第2実施の形態では、動画データが作成される。本開示の技術はこれに限定されない。例えば、UWF眼底画像の各点の画素が眼球モデル上の対応する各点まで移動する過程を表す少なくとも1枚の画像を作成するようにしてもよい。例えば、少なくともUWF眼底画像の点と眼球モデル上の対応する点との間の中間の位置に、UWF眼底画像の点の画素が位置する画像が作成されてもよい。
 以上説明した各例では、図5及び図17の画像処理は、サーバ140が実行しているが、本開示の技術はこれに限定されない。例えば、眼科装置110またはビューワ150が実行したり、ネットワーク130に更に別の画像処理装置を接続させ、当該画像処理装置が実行したり、してもよい。
 以上説明した各例では、コンピュータを利用したソフトウェア構成により画像処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA(Field-Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)等のハードウェア構成のみによって、画像処理が実行されるようにしてもよい。画像処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。
 このように本開示の技術は、コンピュータを利用したソフトウェア構成により画像処理が実現される場合と、コンピュータを利用したソフトウェア構成でない構成で画像処理が実現される場合とを含むので、以下の第1技術および第2技術を含む。
(第1技術)
 2次元眼底画像を取得する画像取得部と、
 前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得する点取得部と、
 前記第1の点の画素が前記第2の点まで移動する過程を示すデータを作成する作成部と、
 を含む画像処理装置。
 なお、3D動画生成部1421は、「点取得部」、及び「作成部」の一例である。
(第2技術)
 画像取得部が、2次元眼底画像を取得することと、
 点取得部が、前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得することと、
 作成部が、前記第1の点の画素が前記第2の点まで移動する過程を示すデータを作成することと、
 を含む画像処理方法。
 以上の開示内容から以下の第3技術が提案される。
(第3技術)
 画像処理するためのコンピュータープログラム製品であって、
 前記コンピュータープログラム製品は、それ自体が一時的な信号ではないコンピュータ可読記憶媒体を備え、
 前記コンピュータ可読記憶媒体には、プログラムが格納されており、
 前記プログラムは、
 コンピュータに、
 2次元眼底画像を取得し、
 前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、
 前記第1の点の画素が前記第2の点まで移動する過程を示すデータを作成する、
 ことを実行させる、
 コンピュータープログラム製品。
 以上説明した画像処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 本明細書に記載された全ての文献、特許出願、および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的にかつ個々に記載された場合と同様に、本明細書中に参照により取り込まれる。

Claims (27)

  1.  プロセッサが行う画像処理であって、
     2次元眼底画像を取得し、
     前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、
     前記第1の点が前記第2の点まで移動する過程を示すデータを作成する、
     画像処理方法。
  2.  前記データは、複数のフレームから構成される動画データである、請求項1に記載の画像処理方法。
  3.  前記過程は、所定時間毎に設定され、
     前記所定時間毎に、前記第1の点の画素が移動する中間位置にて前記フレームが生成され、
     前記動画データは、前記第1の点におけるフレーム、前記第1の点から前記第2の点までの間に複数設定される前記中間位置におけるフレーム、及び前記第2の点におけるフレームを含む、請求項2に記載の画像処理方法。
  4.  前記移動には、複数の移動パターンが予め定められており、
     前記データは、前記複数の移動パターンの中の選択された移動パターンに従った移動の過程を示すデータである、
     請求項1から請求項3の何れか1項に記載の画像処理方法。
  5.  前記移動パターンは、前記第1の点と前記第2の点とを結ぶ3次元空間における経路である、請求項4に記載の画像処理方法。
  6.  前記経路は、前記第1の点と前記第2の点を結ぶ直線の経路である、請求項5に記載の画像処理方法。
  7.  前記移動パターンは、前記第1の点が、前記第2の点まで移動する移動速度に関するデータが含まれる、請求項4から請求項6の何れか1項に記載の画像処理方法。
  8.  前記第1の点は、前記2次元眼底画像の複数の点の中から選択された点である、請求項1から請求項7の何れか1項に記載の画像処理方法。
  9.  前記第1の点が、前記2次元眼底画像における指定された領域の各点である、請求項1から請求項8の何れか1項に記載の画像処理方法。
  10.  前記第1の点が、前記2次元眼底画像全体の各点である、請求項1から請求項9の何れか1項に記載の画像処理方法。
  11.  前記第1の点は、前記2次元眼底画像を構成する1つの画素に対応する点であることを特徴とする、請求項1から請求項10の何れか1項に記載の画像処理方法。
  12.  前記眼球モデルは、デフォルトの眼球モデルを、眼軸長に従って補正されたモデルである、請求項1から請求項11の何れか1項に記載の画像処理方法。
  13.  前記2次元眼底画像は、被検眼の視線を第1方向に向けた状態で撮影した第1方向眼底画像と、前記被検眼を前記第1方向と異なる第2方向に向けた状態で撮影した第2方向眼底画像と、を合成したモンタージュ画像である、請求項1から請求項12の何れか1項に記載の画像処理方法。
  14.  メモリと、前記メモリに接続するプロセッサとを備え、
     前記プロセッサは、
     2次元眼底画像を取得し、
     前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、
     前記第1の点が前記第2の点まで移動する過程を示すデータを作成する、
     画像処理装置。
  15.  コンピュータに、
     2次元眼底画像を取得し、
     前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、
     前記第1の点が前記第2の点まで移動する過程を示すデータを作成する、
     ことを実行させるプログラム。
  16.  プロセッサが行う画像処理であって、
     2次元眼底画像を取得し、
     前記2次元眼底画像の少なくとも1つの第1の点に対応する眼球モデル上の第2の点を取得し、
     前記第1の点が、前記第2の点から前記第1の点まで移動する過程を示すデータを作成する、
     画像処理方法。
  17.  前記データを出力することを更に含む、請求項16に記載の画像処理方法。
  18.  プロセッサが行う画像処理であって、
     3次元眼底画像を取得し、
     前記3次元眼底画像の少なくとも1つの第1の点に対応する2次元眼底画像上の第2の点を取得し、
     前記第1の点が前記第2の点まで移動する過程を示すデータを作成する、
     画像処理方法。
  19.  前記2次元眼底画像は、前記3次元眼底画像をステレオ投影変換した画像である、請求項18に記載の画像処理方法。
  20.  プロセッサが行う画像処理であって、
     3次元眼底画像を取得し、
     前記3次元眼底画像の少なくとも1つの第1の点に対応する2次元眼底画像上の第2の点を取得し、
     前記第1の点が、前記第2の点から前記第1の点まで移動する過程を示すデータを作成する、
     画像処理方法。
  21.  前記2次元眼底画像は、前記3次元眼底画像をステレオ投影変換した画像である、請求項20に記載の画像処理方法。
     
  22.  プロセッサが行う画像処理であって、
     被検眼の2次元眼底画像を取得し、
     前記2次元眼底画像を3次元眼底画像に変換し、
     前記変換の過程を示す動画を生成する、
     画像処理方法。
  23.  前記3次元眼底画像は、前記被検眼に対応した眼球モデルに基づいて生成されることを特徴とする請求項22に記載の画像処理方法。
  24.  前記2次元眼底画像は正面視の画像であり、
     前記動画は、
     前記正面視の2次元眼底画像を斜視の2次元眼底画像に変化させる第1過程と、
     前記斜視の2次元眼底画像に重畳された状態で、前記2次元眼底画像を前記3次元眼底画像に変換する第2過程と、
     を含む、
     請求項22又は請求項23に記載の画像処理方法。
  25.  前記動画は、前記正面視の2次元眼底画像と前記変換が完了した3次元眼底画像とを一体画像として回転させる第3過程をさらに含む、請求項24に記載の画像処理方法。
  26.  メモリと、前記メモリに接続するプロセッサとを備え、
     前記プロセッサは、
     被検眼の2次元眼底画像を取得し、
     前記2次元眼底画像から変換し3次元眼底画像を生成し、
     前記変換の過程を示す動画を生成する、
     画像処理装置。
  27.  コンピュータに、
     被検眼の2次元眼底画像を取得し、
     前記2次元眼底画像から変換し3次元眼底画像を生成し、
     前記変換の過程を示す動画を生成する、
     ことを実行させるプログラム。
PCT/JP2019/041982 2019-10-25 2019-10-25 画像処理方法、画像処理装置、及びプログラム WO2021079504A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/770,878 US20230000337A1 (en) 2019-10-25 2019-10-25 Image processing method, image processing device, and program
JP2021553267A JP7472914B2 (ja) 2019-10-25 2019-10-25 画像処理方法、画像処理装置、及びプログラム
PCT/JP2019/041982 WO2021079504A1 (ja) 2019-10-25 2019-10-25 画像処理方法、画像処理装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/041982 WO2021079504A1 (ja) 2019-10-25 2019-10-25 画像処理方法、画像処理装置、及びプログラム

Publications (1)

Publication Number Publication Date
WO2021079504A1 true WO2021079504A1 (ja) 2021-04-29

Family

ID=75619737

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/041982 WO2021079504A1 (ja) 2019-10-25 2019-10-25 画像処理方法、画像処理装置、及びプログラム

Country Status (3)

Country Link
US (1) US20230000337A1 (ja)
JP (1) JP7472914B2 (ja)
WO (1) WO2021079504A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000210260A (ja) * 1999-01-22 2000-08-02 Mitsubishi Electric Corp 眼底画像システム
JP2002034924A (ja) * 2000-07-19 2002-02-05 Tohoku Techno Arch Co Ltd ステレオ眼底画像からの眼底形状の3次元復元・表示
JP2006061196A (ja) * 2004-08-24 2006-03-09 Institute Of Physical & Chemical Research 3次元眼底画像の構築・表示装置
JP2009022308A (ja) * 2007-07-17 2009-02-05 Kowa Co 画像処理装置
WO2019074077A1 (ja) * 2017-10-13 2019-04-18 株式会社ニコン 眼科システム、画像信号出力方法、画像信号出力装置、プログラム、及び三次元眼底画像生成方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5354494B2 (ja) 2009-04-21 2013-11-27 国立大学法人 千葉大学 3次元画像生成装置、3次元画像生成方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000210260A (ja) * 1999-01-22 2000-08-02 Mitsubishi Electric Corp 眼底画像システム
JP2002034924A (ja) * 2000-07-19 2002-02-05 Tohoku Techno Arch Co Ltd ステレオ眼底画像からの眼底形状の3次元復元・表示
JP2006061196A (ja) * 2004-08-24 2006-03-09 Institute Of Physical & Chemical Research 3次元眼底画像の構築・表示装置
JP2009022308A (ja) * 2007-07-17 2009-02-05 Kowa Co 画像処理装置
WO2019074077A1 (ja) * 2017-10-13 2019-04-18 株式会社ニコン 眼科システム、画像信号出力方法、画像信号出力装置、プログラム、及び三次元眼底画像生成方法

Also Published As

Publication number Publication date
JP7472914B2 (ja) 2024-04-23
JPWO2021079504A1 (ja) 2021-04-29
US20230000337A1 (en) 2023-01-05

Similar Documents

Publication Publication Date Title
JP2023009530A (ja) 画像処理方法、画像処理装置、及びプログラム
CN111885954B (zh) 图像处理方法、存储介质及眼科装置
JP2022184979A (ja) 眼科装置
JP2023120308A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2022027879A (ja) 眼科撮影装置、その制御方法、プログラム、及び記録媒体
JP2023060069A (ja) 画像処理方法、画像処理装置、画像処理プログラム、及び血管径算出装置
US20220230371A1 (en) Image processing method, image processing device and program memory medium
WO2021075062A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2021074960A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP7347641B2 (ja) 画像処理方法、プログラム、画像処理装置、及び眼科システム
WO2023022183A1 (ja) 眼科装置、制御方法、プログラム
WO2020174856A1 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
CN111989030A (zh) 图像处理方法、程序及图像处理装置
WO2021079504A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP2020048857A (ja) 眼測定装置及び方法
EP3888529A1 (en) Ophthalmological device
JP2021166817A (ja) 眼科装置
US11954872B2 (en) Image processing method, program, and image processing device
WO2021111840A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP7416083B2 (ja) 画像処理方法、画像処理装置、およびプログラム
JP2020031873A (ja) 眼科装置、その制御方法、プログラム、及び記録媒体
WO2023282339A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び眼科装置
WO2022177028A1 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2022181729A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2021210281A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19950205

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021553267

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19950205

Country of ref document: EP

Kind code of ref document: A1