WO2019203314A1 - 画像処理方法、プログラム、及び画像処理装置 - Google Patents

画像処理方法、プログラム、及び画像処理装置 Download PDF

Info

Publication number
WO2019203314A1
WO2019203314A1 PCT/JP2019/016657 JP2019016657W WO2019203314A1 WO 2019203314 A1 WO2019203314 A1 WO 2019203314A1 JP 2019016657 W JP2019016657 W JP 2019016657W WO 2019203314 A1 WO2019203314 A1 WO 2019203314A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
fundus
tilt
image processing
sight
Prior art date
Application number
PCT/JP2019/016657
Other languages
English (en)
French (fr)
Inventor
真梨子 廣川
泰士 田邉
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2020514441A priority Critical patent/JPWO2019203314A1/ja
Publication of WO2019203314A1 publication Critical patent/WO2019203314A1/ja
Priority to US17/071,547 priority patent/US11954872B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1241Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes specially adapted for observation of ocular blood flow, e.g. by fluorescein angiography
    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • the technology of the present disclosure relates to an image processing method, a program, and an image processing apparatus.
  • Japanese Unexamined Patent Application Publication No. 2009-112617 discloses a panoramic fundus image synthesis apparatus and method technique.
  • the image processing method is a method of photographing the fundus with a reference image obtained by photographing the fundus with the first line of sight and a second line of sight different from the first line of sight. Designating corresponding points for each of the obtained first images, calculating a projective transformation matrix for projectively transforming the first image into the reference image based on the corresponding points, and the projection Projectively transforming the first image using a transformation matrix.
  • the program according to the second aspect of the technology of the present disclosure causes a computer to execute the image processing method according to the first aspect.
  • An image processing apparatus shoots the fundus with a reference image obtained by photographing the fundus with the first line of sight and a second line of sight different from the first line of sight. Designating corresponding points to each of the obtained first images, calculating a projective transformation matrix for projectively transforming the first image into the reference image based on the corresponding points; An image processing unit that executes projective transformation of the first image using a projective transformation matrix;
  • FIG. 1 is a block diagram of an ophthalmic system 100.
  • FIG. 1 is a schematic configuration diagram showing an overall configuration of an ophthalmologic apparatus 110.
  • FIG. 4 is a block diagram of an electrical configuration of a management server 140.
  • FIG. 3 is a block diagram of functions of a CPU 162 of a management server 140.
  • FIG. FIG. 5 is a sequence diagram showing the operation of the ophthalmic system 100.
  • FIG. 3 is a diagram showing a fundus imaging range on a plane parallel to the vertical direction passing through the pupil and the center of the eyeball when the optical axis of the eye to be examined is coincident with the optical axis of the ophthalmic system.
  • FIG. 3 is a diagram showing a fundus imaging range on a plane parallel to the horizontal direction passing through the pupil and the center of the eyeball when the optical axis of the eye to be examined is coincident with the optical axis of the ophthalmic system. It is the figure which showed the imaging
  • FIG. 2 It is a flowchart of the analysis processing program of step 226 of FIG. It is a figure which shows the display screen displayed when the individual display icon 362 in the pre-processing folder 360 is operated in the analysis result screen 300 of the image viewer 150. It is a figure which shows the display screen displayed when the montage display icon 364 in the pre-processing folder 360 is operated in the analysis result screen 300 of the image viewer 150. FIG. It is a figure which shows the display screen displayed when the analysis folder 370 is operated in the analysis result screen 300 of the image viewer 150.
  • FIG. It is a flowchart of the VV fixed value calculation program performed between Step 256 and Step 258 of Drawing 7 in the 2nd modification.
  • SLO scanning laser ophthalmoscope
  • an ophthalmic system 100 includes an ophthalmologic apparatus 110, an axial length measuring device 120, a management server apparatus (hereinafter referred to as “management server”) 140, and an image display apparatus (hereinafter referred to as “image viewer”). 150).
  • the ophthalmologic apparatus 110 acquires a fundus image.
  • the axial length measuring device 120 measures the axial length of the patient.
  • the management server 140 stores a plurality of fundus images and axial lengths obtained by photographing the fundus of a plurality of patients by the ophthalmologic apparatus 110 in correspondence with the patient ID.
  • the image viewer 150 displays the fundus image acquired by the management server 140.
  • the image viewer 150 is an example of an “image processing device” according to the technique of the present disclosure.
  • the ophthalmologic apparatus 110, the axial length measuring device 120, the management server 140, and the image viewer 150 are connected to each other via the network 130.
  • testing devices such as visual field measurement and intraocular pressure measurement
  • diagnostic support devices that perform image analysis using artificial intelligence are connected via the network 130 to the ophthalmic device 110, the axial length measuring device 120, and the management.
  • the server 140 and the image viewer 150 may be connected.
  • the ophthalmologic apparatus 110 includes a control unit 20, a display / operation unit 30, and an SLO unit 40, and images the posterior eye portion (fundus) of the eye 12 to be examined. Further, an OCT unit (not shown) for acquiring fundus OCT data may be provided.
  • the control unit 20 includes a CPU 22, a memory 24, a communication interface (I / F) 26, and the like.
  • the display / operation unit 30 is a graphic user interface that displays an image obtained by shooting or receives various instructions including an instruction for shooting, and includes a display 32 and an input / instruction device 34.
  • the SLO unit 40 includes a light source 42 for G light (green light: wavelength 530 nm), a light source 44 for R light (red light: wavelength 650 nm), and a light source 46 for IR light (infrared light (near infrared light): wavelength 800 nm). ing.
  • the light sources 42, 44, 46 emit respective lights as instructed by the control unit 20.
  • the SLO unit 40 includes optical systems 50, 52, 54, and 56 that guide light reflected from or transmitted through the light sources 42, 44, and 46 to one optical path.
  • the optical systems 50 and 56 are mirrors, and the optical systems 52 and 54 are beam splitters.
  • the G light is reflected by the optical systems 50 and 54, the R light is transmitted through the optical systems 52 and 54, and the IR light is reflected by the optical systems 52 and 56 and guided to one optical path.
  • the SLO unit 40 includes a wide-angle optical system 80 that scans light from the light sources 42, 44, and 46 across the posterior segment (fundus) of the eye 12 to be examined in a two-dimensional manner.
  • the SLO unit 40 includes a beam splitter 58 that reflects G light and transmits other light than the G light in the light from the posterior segment (fundus) of the eye 12 to be examined.
  • the SLO unit 40 includes a beam splitter 60 that reflects R light and transmits light other than the R light out of the light transmitted through the beam splitter 58.
  • the SLO unit 40 includes a beam splitter 62 that reflects IR light out of the light transmitted through the beam splitter 60.
  • the SLO unit 40 detects the G light detecting element 72 that detects the G light reflected by the beam splitter 58, the R light detecting element 74 that detects the R light reflected by the beam splitter 60, and the IR light reflected by the beam splitter 62.
  • IR light detecting element 76 is provided.
  • the wide-angle optical system 80 includes an X-direction scanning device 82 composed of a polygon mirror that scans light from the light sources 42, 44, and 46 in the X direction, and a Y-direction scanning device 84 composed of a galvanometer mirror that scans in the Y direction. And an optical system 86 that includes a slit mirror and an elliptical mirror (not shown) and makes the scanned light have a wide angle.
  • the fundus viewing angle (FOV: Field of View) can be set larger than that of the conventional technique, and a fundus region wider than that of the conventional technique can be imaged.
  • the external light irradiation angle from the outside of the subject eye 12 is approximately 120 degrees (substantially by irradiating the fundus of the subject eye 12 with scanning light with the center O of the eyeball of the subject eye 12 as a reference position).
  • a wide range of fundus area of about 200 ° with an internal light irradiation angle that can be photographed in a wide range can be photographed.
  • the optical system 86 may have a configuration using a plurality of lens groups instead of the slit mirror and the elliptical mirror.
  • Each scanning device of the X direction scanning device 82 and the Y direction scanning device 84 may use a two-dimensional scanner configured using a MEMS mirror.
  • the ophthalmologic apparatus 110 is a fixation target 92U, 92D composed of a light-emitting device (for example, LED) that is turned on so as to direct the patient's line of sight at a position shifted from the optical axis vertically and horizontally around the optical system 86. , 92L, 92R (see also FIGS. 6A to 6F) and a fixation target controller 90 that is controlled by the control unit 20 and lights the fixation targets 92U, 92D, 92L, 92R.
  • a fixation target controller 90 that is controlled by the control unit 20 and lights the fixation targets 92U, 92D, 92L, 92R.
  • the horizontal direction is the “X direction”
  • the vertical direction to the horizontal plane is the “Y direction”
  • the center of the pupil of the anterior eye portion of the eye 12 to be tested is connected to the center of the eyeball.
  • Let the direction be the “Z direction”. Therefore, the X direction, the Y direction, and the Z direction are perpendicular to each other.
  • a color fundus image is obtained by photographing the fundus of the eye 12 simultaneously with G light and R light. More specifically, the control unit 20 controls the light sources 42 and 44 so as to emit light simultaneously, and the G light and the R light are scanned by the wide-angle optical system 80 over the fundus of the eye 12 to be examined. Then, the G light reflected from the fundus of the eye 12 to be examined is detected by the G light detection element 72, and image data of the second fundus image (G color fundus image) is generated by the image processing unit 182.
  • the R light reflected from the fundus of the eye 12 to be examined is detected by the R light detection element 74, and image data of the first fundus image (R color fundus image) is generated by the CPU 22 of the ophthalmologic apparatus 110.
  • image data of the IR fundus image is generated by the CPU 22 of the ophthalmologic apparatus 110.
  • the axial length measuring device 120 transmits the axial length measured in the first mode or the second mode to the management server 140.
  • the axial length may be measured in the first mode and the second mode, and in this case, the average of the axial length measured in both modes is transmitted to the management server 140 as the axial length.
  • the management server 140 includes a control unit 160 and a display / operation unit 170.
  • the control unit 160 includes a computer including a CPU 162, a memory 164 as a storage device, a communication interface (I / F) 166, and the like.
  • the display / operation unit 170 is a graphic user interface that displays images and accepts various instructions, and includes a display 172 and an input / instruction device 174 such as a touch panel.
  • An analysis processing program is stored in the memory 164 of the image viewer 150.
  • the analysis processing program is an example of the “program” of the technology of the present disclosure.
  • the analysis processing program has an analysis processing function, a display control function, and a processing function.
  • the CPU 162 executes the analysis processing program having these functions, the CPU 162 functions as an image processing unit 182, a display control unit 184, and a processing unit 186 as shown in FIG.
  • step 202 the doctor instructs the ophthalmic apparatus 110 to start photographing the fundus of the eye 12 via the input / instruction device 34.
  • step 204 the ophthalmologic apparatus 110 captures the fundus (image 1) of the eye 12 to be examined by the SLO unit 40.
  • step 204 the fixation targets 92U, 92D, 92L, and 92R are not turned on. Therefore, in step 204, as shown in FIGS.
  • the fundus is imaged in a state in which the optical axis of the eye 12 to be examined is coincident with the optical axis of the ophthalmic system 100.
  • the fundus of the eye 12 to be examined is simultaneously photographed with G light and R light, and a first fundus image (R color fundus image) and a second fundus image (G color fundus image) are obtained.
  • the image 1 is obtained as a color fundus image from the first fundus image (R color fundus image) and the second fundus image (G color fundus image).
  • the range from the upper position U0 to the lower position D0 in the up and down direction and the left position L0 to the right position R0 in the left and right direction is taken, and the central image G0 (see FIG. 6A) is taken. 8), the image 1 is acquired.
  • the optical axis in a state where the optical axis of the eye 12 to be examined coincides with the optical axis of the ophthalmic system 100 is an example of the “first line of sight” of the technology of the present disclosure, and the central image G0 It is an example of a “reference image”.
  • the ophthalmologic apparatus 110 transmits the image 1 to the management server 140 in the next step 206.
  • the patient's eye to be examined is positioned so that the patient's eye can be photographed by the ophthalmic apparatus 110.
  • the doctor instructs the ophthalmic apparatus 110 to start photographing via the input / instruction device 34.
  • the ophthalmologic apparatus 110 captures the image 2.
  • the fundus of the eye 12 to be examined is photographed as described above with respect to each of the patient's lines of sight vertically and horizontally. As a result, a tilt image in the left direction (GL (see also FIG. 8)), a tilt image in the upward direction (GU), a tilt image in the right direction (GR), and a tilt image in the downward direction (GD) are obtained.
  • the left-right direction is based on the ophthalmic apparatus 110. Therefore, the tilt image (GL) in the left direction is an image obtained by photographing the fundus in a state of facing the right direction when viewed from the patient, and the tilt image (GR) in the right direction is tilted left when viewed from the patient. It is an image obtained by photographing the fundus while facing the direction.
  • the fixation target 92U is turned on, whereby the patient's line of sight is directed obliquely upward as shown in FIG. 6B.
  • the fundus is photographed. Since the patient's line of sight is directed obliquely upward, the image is taken up to the upper position U1 above the upper position U0. Therefore, in the upward tilt image (GU), there is an image of the surface MU01 that is not in the central image G0.
  • the fixation target 92D is turned on, whereby the patient's line of sight is directed diagonally downward as shown in FIG. 6C.
  • the fundus is photographed. Since the patient's line of sight is directed obliquely downward, the image is taken up to the lower position D1 below the lower position D0. Therefore, in the downward tilt image (GD), there is an image of the surface MD02 that is not in the central image G0.
  • the fixation target 92L is turned on. As a result, as shown in FIG. ). In this state, the fundus is photographed. Since the patient's line of sight is directed diagonally to the left, the left side position L1 on the left side of the left position L0 is photographed. Therefore, in the tilt image (GL) in the left direction, there is an image of the plane ML01 that is not in the central image G0.
  • the fixation target 92R is turned on.
  • the patient's line of sight is diagonally right (leftward from the patient). ).
  • the fundus is photographed. Since the patient's line of sight is directed diagonally to the right, the right side position R1 on the right side of the left position R0 is photographed. Therefore, in the tilt image (GR) in the right direction, there is an image of the plane MR02 that is not in the central image G0.
  • the oblique vertical / horizontal line-of-sight is an example of the “second line of sight” and the “third line of sight” of the present disclosure
  • the tilt image (GL) and the right tilt image (GR) are examples of the “first image” and the “second image” in the technology of the present disclosure.
  • the ophthalmologic apparatus 110 includes an image 2 including an upward tilt image (GU), a downward tilt image (GD), a left tilt image (GL), and a right tilt image (GR). Is transmitted to the management server 140.
  • GUI upward tilt image
  • GD downward tilt image
  • GL left tilt image
  • GR right tilt image
  • step 214 the user (such as an ophthalmologist) instructs the image viewer 150 to perform analysis processing via the input / instruction device 174.
  • step 216 the image viewer 150 instructs the management server 140 to transmit an image.
  • the management server 140 instructed to transmit the image reads the images 1 and 2 in step 218, and transmits the image data of the images 1 and 2 to the image viewer 150 in step 220.
  • the management server 140 to which the image data of the images 1 and 2 has been transmitted displays the images 1 and 2 on the display 172 in step 222. Specifically, with the center image G0 as the center, the upper side image, the lower side, the left side, and the right side of the central image G0, the upward tilt image (GU), the downward tilt image (GD), and the left tilt image. (GL) and a tilt image (GR) in the right direction are arranged.
  • step 224 the doctor determines that the center image G 0, the upward tilt image (GU), the downward tilt image (GD), the left tilt image (GL), and the right tilt image (GR). Corresponding points are indicated in each combination.
  • a user views the central image G0 and the upward tilt image (GU) displayed on the display 172, and each of the central image G0 and the upward tilt image (GU)
  • a plurality of corresponding feature points are indicated via the input / instruction device 174.
  • the feature points are, for example, a branch point of a blood vessel in the fundus and an optic disc.
  • a plurality of (for example, 12) feature points are designated.
  • the image viewer 150 receives a combination of a plurality of (for example, 12 sets) feature points between the central image G0 and the upward tilt image (GU).
  • the user (such as an ophthalmologist) has the center image G0 and the lower side tilt image (GD), the center image G0 and the left side tilt image (GL), and the center image G0 and the right side tilt image (GL).
  • a plurality of feature points are indicated via the input / instruction device 174 in the same manner as described above.
  • the image viewer 150 accepts a plurality (for example, 12 sets) of combinations of feature points for each combination.
  • the instruction of corresponding points in step 224 is not limited to being performed by a user (such as an ophthalmologist), and may be performed automatically based on the image data of the image.
  • the image processing unit 182 includes the center image G0, the upward tilt image (GU), the downward tilt image (GD), the left tilt image (GL), and the right tilt image (GR).
  • the corresponding feature points are specified by performing template matching based on the image data.
  • the image viewer 150 executes analysis processing, which will be described in detail later, in step 226, and displays the analysis result screen 300 (see FIG. 8) on the display 172 in step 228.
  • the analysis result screen 300 will be described later.
  • the analysis processing program is executed.
  • the analysis processing method shown in the flowchart of FIG. 7 is realized.
  • the analysis processing method is an example of the “image processing method” of the technology of the present disclosure.
  • the image processing unit 182 identifies the variable n for the central image G0 based on the position of the combination of the 12 corresponding points specified in the combination of the central image G0 and the tilt image n.
  • a projective transformation matrix of the image n is calculated.
  • the projective transformation matrix is a matrix that performs projective transformation on each pixel of the tilt image n so that the position of each pixel of the tilt image n is located at a corresponding position in the central image G0.
  • the image processing unit 182 performs projective transformation on the tilt image n using the projective transformation matrix calculated in step 248. As a result, a projective transformed tilt image n1 is created.
  • step 250 a reference projection point in which the reference point (for example, the center position) of the central image G0 is projected onto the tilt image n1 subjected to the projective transformation is specified.
  • step 252 the processing unit 186 determines whether or not the variable n is equal to the total number N. If the variable n is not equal to the total number N, since there is a tilt image that has not been subjected to the above processing (steps 246 to 250), the analysis processing returns to step 244. However, if the variable n is equal to the total number N, the above processing (steps 246 to 250) has been performed for all the tilt images, so the analysis processing proceeds to step 254.
  • the left side tilt image (GL), the top side tilt image (GU), the right side tilt image (GR), and the bottom side tilt image (GD) are respectively transferred to the central image G0.
  • Different projection transformation matrices are calculated.
  • Each of the left side tilt image (GL), the top side tilt image (GU), the right side tilt image (GR), and the bottom side tilt image (GD) is converted by the respective projective transformation matrices.
  • a left tilt image (GL1), an upward tilt image (GU1), a right tilt image (GR1), and a lower tilt image (GD1) are created.
  • the reference point of the center image G0 is included in the left-side tilt image (GL1), the upward-direction tilt image (GU1), the right-side tilt image (GR1), and the downward-direction tilt image (GD1).
  • a reference projection point on which (for example, the center position) is projected is specified.
  • the display control unit 184 displays the converted left-side tilt image (GL 1), upward-direction tilt image (GU 1), right-side tilt image (GR 1), and downward-direction tilt image (GD 1). Based on each reference projection point, an assembled montage image is created. Note that each of the left-side tilt image (GL1), the upward-direction tilt image (GU1), the right-side tilt image (GR1), and the downward-direction tilt image (GD1) after conversion is the first fundus image ( An R color fundus image) and a second fundus image (G color fundus image). Therefore, the montage image also includes a first fundus image (R color fundus image) and a second fundus image (G color fundus image).
  • the eye structure is such that the vitreous body is covered with a plurality of layers having different structures.
  • the plurality of layers include the retina, choroid, and sclera from the innermost side to the outer side on the vitreous side.
  • the R light passes through the retina and reaches the choroid. Therefore, the first fundus image (R color fundus image) includes information on blood vessels (retinal blood vessels) existing in the retina and information on blood vessels (choroidal blood vessels) existing in the choroid.
  • G light reaches only the retina. Therefore, the second fundus image (G color fundus image) includes information on blood vessels (retinal blood vessels) existing in the retina.
  • the display control unit 184 creates a choroidal blood vessel image from the montage image.
  • the choroidal blood vessel image is generated as follows.
  • the image processing unit 182 of the management server 140 extracts retinal blood vessels from the second fundus image (G color fundus image) by performing black hat filter processing on the second fundus image (G color fundus image) in the montage image.
  • the image processing unit 182 performs retinal blood vessels by inpainting processing using the retinal blood vessels extracted from the second fundus image (G color fundus image) from the first fundus image (R color fundus image) in the montage image. Remove.
  • processing for filling the retinal blood vessel structure of the first fundus image (R color fundus image) to the same value as the surrounding pixels is performed using the position information of the retinal blood vessels extracted from the second fundus image (G color fundus image). .
  • the image processing unit 182 performs adaptive histogram equalization processing on the first fundus image (R-color fundus image) from which the retinal blood vessel has been removed, thereby performing the first fundus oculi.
  • the choroidal blood vessels are emphasized. Thereby, a choroidal blood vessel image is obtained.
  • the generated choroidal blood vessel image is stored in the memory 164.
  • step 254 the display control unit 184 creates analysis result screen data.
  • FIG. 8 shows an analysis result screen 300.
  • the analysis result screen 300 includes an image display area 302, a patient information display area 304, and a folder display area 306.
  • the patient information display area 304 includes a patient name ID display area 342, a patient name display area 344, an age display area 346, a display area 348 for displaying information (right or left) indicating that each image shows the right eye or left eye, and eye
  • An axial length display area 350 for displaying the axial length, an imaging date display area 352, and a visual acuity display area 354 are provided.
  • the folder display area 306 includes a preprocessing folder 360 and an analysis folder 370.
  • a preprocessing folder 360 an individual display icon 362 and a montage display icon 3642 are provided.
  • the analysis folder 370 is provided with various icons.
  • the image display area 302 includes an area 322 for displaying an image before conversion, and an area 324 for displaying an image after conversion.
  • a region 322 for displaying the image before conversion includes a region 330 for displaying the central image G0, and a left side upward image (GL) centered on the region 330 on the left side, the upper side, the right side, and the lower side of the region 330.
  • Regions 330n1 to 330n4 for displaying an upward tilt image (GU), a right tilt image (GR), and a downward tilt image (GD) are arranged.
  • the left side tilt image (GL) includes an image from the left position L0 to the left side position L1.
  • the upward tilt image (GU) includes images up to the upper position U1 above the upper position U0.
  • the tilt image (GR) in the right direction includes images from the left position R0 to the right side position R1.
  • the downward tilt image (GD) includes an image from the lower position D0 to the lower position D1 below.
  • An area 324 for displaying the converted image includes an area 330 for displaying the central image G0, and a left-side tilt image after conversion on the left side, the upper side, the right side, and the lower side of the area 330 with the area 330 as the center.
  • Regions 340n1 to 340n4 for displaying (GL1), an upward tilt image (GU1), a rightward tilt image (GR1), and a downward tilt image (GD1) are arranged.
  • the left position L1 of the left side tilt image (GL) is located at the position L11 in the converted left direction tilt image (GL1).
  • the upper position U1 of the upward tilt image (GU1) is located at the position U11 in the converted upward tilt image (GU1).
  • the right position R1 of the right side tilt image (GR1) is located at the position R11 in the right side tilt image (GR1) after conversion.
  • the lower position D1 of the downward tilt image (GD1) is located at the position D11 in the converted downward tilt image (GD1).
  • An icon or button for instructing generation of an image to be described later is displayed on the display screen to be described later of the image viewer 150.
  • a user such as an ophthalmologist
  • clicks an icon or the like an instruction signal corresponding to the clicked icon or the like is transmitted from the image viewer 150 to the management server 140.
  • the management server 140 that has received the instruction signal from the image viewer 150 generates an image corresponding to the instruction signal, and transmits the image data of the generated image to the image viewer 150.
  • the image viewer 150 that has received the image data from the management server 140 displays an image on the display based on the received image data.
  • the display screen generation processing in the management server 140 is performed by a display screen generation program operating on the CPU 162.
  • the image display area 302 is changed to the content shown in FIG.
  • the area 322 for displaying the image before conversion in the image display area 302 has the same contents as the area 322 in FIG.
  • the area 324 for displaying the converted image has an area 380 for displaying the montage image G01 created in step 254.
  • the montage image G01 is a center image G0 and a left side tilt image (GL1) after conversion on the left side of the center image G0, except for the center image G0, and an upward tilt image (GU1) and a downward direction image.
  • a portion common to each of the tilt images (GD1) has a portion ML011 separated by a central line of the common portion.
  • the montage image G01 is an upper side tilt image (GU1) after the transformation, except for the center image G0, and the left side tilt image (GL1) and the right side tilt image (GR1).
  • the common part has a part MU011 separated by a central line of the common part.
  • the montage image G01 is a right-side converted tilt image (GR1) on the right side of the center image G0, except for the center image G0, and an upward tilt image (GU1) and a downward tilt image (GD1).
  • the common part has a part MR011 separated by a central line of the common part.
  • the montage image G01 is a lower side tilt image (GD1) after conversion, except the center image G0, and a right side tilt image (GR1) and a left side tilt image (GL1).
  • Each common part has a part MD011 separated by a central line of the common part.
  • the montage image G01 has the part ML011, the part MU011, the part MR011, and the part MD011 around the central image G0.
  • the montage image G01 includes the part ML011, the part MU011, the part MR011, and the part that are not included in the central image G0 obtained by matching the optical axis of the eye 12 with the optical axis of the ophthalmic system 100. Since it has MD011, more information on the fundus can be obtained.
  • FIG. 10 shows a display screen that is displayed when the analysis folder 370 is operated on the analysis result screen 300 of the image viewer 150.
  • the image display area 302 includes an area 382 for displaying an RG image and a choroidal blood vessel image 384.
  • a montage image G02 is displayed as the RG image.
  • the choroidal blood vessel image 384 the choroidal blood vessel image G03 created in step 256 is displayed.
  • a panoramic fundus image synthesizing apparatus and method technology have been disclosed.
  • a wider panoramic image cannot be generated from a plurality of fundus images obtained by photographing a wide range of fundus regions.
  • a wider panoramic image (montage image) can be generated from four fundus images obtained by photographing the fundus while changing the line of sight up, down, left and right.
  • the projective transformation matrix can be calculated, and each pixel of the first image can be projectively transformed using the projective transformation matrix.
  • a wider panoramic image (montage image) is generated from four fundus images obtained by photographing the fundus while changing the line of sight up, down, left and right, but the technology of the present disclosure is limited to this.
  • 4 obtained by photographing the fundus while changing the line of sight in another direction for example, diagonally upward to the right, diagonally upward to the left, diagonally downward to the right, and diagonally downward to the left.
  • a wider panoramic image may be generated from two fundus images.
  • the fundus images obtained by photographing the fundus while changing the line of sight are not limited to four or eight, but are one or more.
  • a choroidal blood vessel image is created (step 256 in FIG. 7), but the technique of the present disclosure is not limited to this.
  • further processing may be executed between step 256 and step 258 of FIG.
  • FIG. 11 shows a flowchart of a VV quantitative value calculation program executed between step 256 and step 258 of FIG. 7 in the second modification.
  • the image processing unit 182 identifies a position of a vortex vein (hereinafter referred to as “VV”) from the choroidal blood vessel image created in step 256.
  • VV vortex vein
  • the image processing unit 182 sets the movement direction (blood vessel running direction) of each choroidal blood vessel in the choroidal blood vessel image G03 in the montage image. Specifically, first, the image processing unit 182 executes the following processing for each pixel of the choroidal blood vessel image G03. In other words, the image processing unit 182 sets an area (cell) centered on the pixel for the pixel, and creates a histogram in the gradient direction of luminance at each pixel in the cell. Next, the image processing unit 182 sets the gradient direction having the smallest count in the histogram in each cell as the movement direction in the pixels in each cell. This gradient direction corresponds to the blood vessel traveling direction. The gradient direction with the smallest count is the blood vessel running direction for the following reason.
  • the luminance gradient is small in the blood vessel traveling direction, while the luminance gradient is large in the other directions (for example, the luminance difference is large between blood vessels and other than blood vessels). Therefore, when the histogram of the luminance gradient of each pixel is created, the count with respect to the blood vessel traveling direction is reduced. With the above processing, the blood vessel traveling direction in each pixel of the choroidal blood vessel image is set.
  • the image processing unit 182 estimates the VV position. Specifically, the image processing unit 182 performs the following processing for each of the L positions. That is, the image processing unit 182 acquires the blood vessel traveling direction at the first position (any of L), moves the particles by a predetermined distance along the acquired blood vessel traveling direction, and again at the moved position, The blood vessel traveling direction is acquired, and the particles are moved by a predetermined distance along the acquired blood vessel traveling direction. In this way, the movement of a predetermined distance along the blood vessel traveling direction is repeated for a preset number of movements. The above processing is executed at all L positions. A point at which a certain number or more of particles are gathered at that time is defined as a VV position.
  • the image processing unit 182 detects the optic disc from the G fundus image in the montage image. Specifically, since the optic disc is the brightest region in the G color fundus image, the image processing unit 182 uses a region of a predetermined number of pixels having the largest pixel value in the read G color fundus image as the optic disc. To detect. The center position of the area including the brightest pixel is calculated as the coordinates where the optic nerve head is located, and stored in the memory 164. In step 272, the image processing unit 182 detects macular.
  • the image processing unit 182 detects a region of a predetermined number of pixels having the smallest pixel value in the read choroidal blood vessel image G03 as a macula.
  • the center position of the area including the darkest pixel is calculated as the coordinates where the macula is located, and stored in the memory 164.
  • step 272 the image processing unit 182 converts the VV position, the position of the optic nerve head, and the position of the macula into the left-side tilt image (GL1), the upward-direction tilt image (GU1), and the right direction.
  • the corresponding position of the tilt image (GR1) and the downward tilt image (GD1) is specified.
  • the image processing unit 182 displays the converted left-side tilt image (GL 1), upward-direction tilt image (GU 1), right-side tilt image (GR 1), and downward-direction tilt image (GD 1). , And project onto a three-dimensional (3D) eye sphere based on each reference projection point.
  • the image processing unit 182 displays the converted left-side tilt image (GL 1), upward-direction tilt image (GU 1), right-side tilt image (GR 1), and downward-direction tilt image (GD 1).
  • a VV quantitative value is calculated from the projected three-dimensional (3D) eye spherical surface.
  • the VV quantitative value calculation processing includes firstly a VV distance calculation processing and secondly a VV angle calculation processing.
  • the VV distance includes firstly the distance between the position of the optic nerve head and the VV position, and secondly, the distance between the position of the macula and the VV position.
  • On the three-dimensional (3D) eye spherical surface first, the distance between the position of the optic nerve head and the VV position, and secondly, the distance between the position of the macula and the VV position is calculated.
  • the VV angle includes an angle formed by the position of the macular-position of the optic nerve head-VV position, and an angle formed by the position of the optic nerve head-position of the macula-VV position.
  • the angle ⁇ formed by the position of the macula, the position of the optic disc, and the VV position is calculated from the equilateral projection method or the spherical trigonometry.
  • the analysis result screen data in step 258 in FIG. 7 in the second modification includes a VV quantitative value. Therefore, the VV fixed value is displayed on the display 172 of the image viewer 150.
  • ⁇ Third Modification> an example in which a fundus image with an internal light irradiation angle of about 200 degrees is acquired by the ophthalmologic apparatus 110 is described.
  • the technology of the present disclosure is not limited thereto, and for example, the internal irradiation angle is 100 degrees or less.
  • the technique of the present disclosure may also be applied to a fundus image captured by the ophthalmologic apparatus.
  • the ophthalmologic apparatus 110 captures the fundus using the SLO.
  • the technology of the present disclosure is not limited to this, and for example, the fundus may be captured by a fundus camera.
  • the ophthalmologic system 100 including the ophthalmologic apparatus 110, the axial length measuring device 120, the management server 140, and the image viewer 150 has been described as an example, but the technology of the present disclosure is not limited thereto.
  • the ocular axial length measuring device 120 may be omitted, and the ophthalmic apparatus 110 may further have the function of the axial axial length measuring device 120.
  • the ophthalmologic apparatus 110 may further have at least one function of the management server 140 and the image viewer 150.
  • the management server 140 can be omitted.
  • the analysis processing program is executed by the ophthalmologic apparatus 110 or the image viewer 150.
  • the image viewer 150 can be omitted.
  • the management server 140 may be omitted, and the image viewer 150 may execute the function of the management server 140.

Abstract

第1の画像の各画素を、射影変換行列を用いて、基準画像に射影変換する。 中央画像G0とあおり画像nとの組み合わせにおいて指定された12個の対応点の組合せの位置に基づいて、中央画像G0へのあおり画像nの射影変換行列を算出する。算出した射影変換行列を用いて、あおり画像nを射影変換する。これにより、射影変換されたあおり画像n1が作成される。

Description

画像処理方法、プログラム、及び画像処理装置
 本開示の技術は、画像処理方法、プログラム、及び画像処理装置に関する。
 特開2009-112617号公報には、パノラマ眼底画像合成装置及び方法技術が開示されている。
 本開示の技術の第1の態様の画像処理方法は、第1の視線で眼底を撮影して得た基準画像と、前記第1の視線とは異なる第2の視線で前記眼底を撮影して得た第1の画像とのそれぞれに対応点を指定するステップと、前記対応点に基づいて、前記第1の画像を、前記基準画像に射影変換する射影変換行列を算出するステップと、前記射影変換行列を用いて、前記第1の画像を射影変換するステップと、を備える。
 本開示の技術の第2の態様のプログラムは、コンピュータに第1の態様の画像処理方法を実行させる。
 本開示の技術の第3の態様の画像処理装置は、第1の視線で眼底を撮影して得た基準画像と、前記第1の視線とは異なる第2の視線で前記眼底を撮影して得た第1の画像とのそれぞれに対応点を指定するするステップと、前記対応点に基づいて、前記第1の画像を、前記基準画像に射影変換する射影変換行列を算出するステップと、前記射影変換行列を用いて、前記第1の画像を射影変換するステップとを実行する画像処理部を備える。
眼科システム100のブロック図である。 眼科装置110の全体構成を示す概略構成図である。 管理サーバ140の電気系の構成のブロック図である。 管理サーバ140のCPU162の機能のブロック図である。 眼科システム100の動作を示すシーケンス図である。 眼科システム100の光軸に被検眼12の光軸が一致した場合の瞳孔及び眼球中心を通る上下方向に平行な面における眼底の撮影範囲を示した図である。 眼科システム100を基準として被検眼12の光軸が斜め上方向に向いた場合の瞳孔及び眼球中心を通る上下方向に平行な面における眼底の撮影範囲を示した図である。 眼科システム100を基準として被検眼12の光軸が斜め下方向に向いた場合の瞳孔及び眼球中心を通る上下方向に平行な面における眼底の撮影範囲を示した図である。 眼科システム100の光軸に被検眼12の光軸が一致した場合の瞳孔及び眼球中心を通る水平方向に平行な面における眼底の撮影範囲を示した図である。 眼科システム100を基準として被検眼12の光軸が斜め左方向に向いた場合の瞳孔及び眼球中心を通る水平方向に平行な面における眼底の撮影範囲を示した図である。 眼科システム100を基準として被検眼12の光軸が斜め右方向に向いた場合の瞳孔及び眼球中心を通る水平方向に平行な面における眼底の撮影範囲を示した図である。 図5のステップ226の解析処理プログラムのフローチャートである。 画像ビューワ150の解析結果画面300において前処理フォルダ360内の個別表示アイコン362が操作された場合に表示される表示画面を示す図である。 画像ビューワ150の解析結果画面300において前処理フォルダ360内のモンタージュ表示アイコン364が操作された場合に表示される表示画面を示す図である。 画像ビューワ150の解析結果画面300において解析フォルダ370が操作された場合に表示される表示画面を示す図である。 第2の変形例における図7のステップ256とステップ258との間で実行するVV定量値算出プログラムのフローチャートである。
 以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、以下では、説明の便宜上、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)を「SLO」と称する。
 図1を参照して、眼科システム100の構成を説明する。図1に示すように、眼科システム100は、眼科装置110と、眼軸長測定器120と、管理サーバ装置(以下、「管理サーバ」という)140と、画像表示装置(以下、「画像ビューワ」という)150と、を備えている。眼科装置110は、眼底画像を取得する。眼軸長測定器120は、患者の眼軸長を測定する。管理サーバ140は、眼科装置110によって複数の患者の眼底が撮影されることにより得られた複数の眼底画像及び眼軸長を、患者のIDに対応して記憶する。画像ビューワ150は、管理サーバ140により取得した眼底画像を表示する。
 画像ビューワ150は、本開示の技術の「画像処理装置」の一例である。
 眼科装置110、眼軸長測定器120、管理サーバ140、画像ビューワ150は、ネットワーク130を介して、相互に接続されている。
 なお、他の眼科機器(視野測定、眼圧測定などの検査機器)や人工知能を用いた画像解析を行う診断支援装置がネットワーク130を介して、眼科装置110、眼軸長測定器120、管理サーバ140、及び画像ビューワ150に接続されていてもよい。
 次に、図2を参照して、眼科装置110の構成を説明する。図2に示すように、眼科装置110は、制御ユニット20、表示/操作ユニット30、及びSLOユニット40を備え、被検眼12の後眼部(眼底)を撮影する。さらに、眼底のOCTデータを取得する図示せぬOCTユニットを備えていてもよい。
 制御ユニット20は、CPU22、メモリ24、及び通信インターフェース(I/F)26等を備えている。表示/操作ユニット30は、撮影されて得られた画像を表示したり、撮影の指示を含む各種指示を受け付けたりするグラフィックユーザインターフェースであり、ディスプレイ32及び入力/指示デバイス34を備えている。
 SLOユニット40は、G光(緑色光:波長530nm)の光源42、R光(赤色光:波長650nm)の光源44、IR光(赤外線(近赤外光):波長800nm)の光源46を備えている。光源42、44、46は、制御ユニット20により命令されて、各光を発する。
 SLOユニット40は、光源42、44、46からの光を、反射又は透過して1つの光路に導く光学系50、52、54、56を備えている。光学系50、56は、ミラーであり、光学系52、54は、ビームスプリッタ―である。G光は、光学系50、54で反射し、R光は、光学系52、54を透過し、IR光は、光学系52、56で反射して、それぞれ1つの光路に導かれる。
 SLOユニット40は、光源42、44、46からの光を、被検眼12の後眼部(眼底)に渡って、2次元状に走査する広角光学系80を備えている。SLOユニット40は、被検眼12の後眼部(眼底)からの光の内、G光を反射し且つG光以外を透過するビームスプリッタ58を備えている。SLOユニット40は、ビームスプリッタ58を透過した光の内、R光を反射し且つR光以外を透過するビームスプリッタ60を備えている。SLOユニット40は、ビームスプリッタ60を透過した光の内、IR光を反射するビームスプリッタ62を備えている。SLOユニット40は、ビームスプリッタ58により反射したG光を検出するG光検出素子72、ビームスプリッタ60により反射したR光を検出するR光検出素子74、及びビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。
 広角光学系80は、光源42、44、46からの光を、X方向に走査するポリゴンミラーで構成されたX方向走査装置82、Y方向に走査するガルバノミラーで構成されたY方向走査装置84、及び、図示しないスリットミラーおよび楕円鏡を含み、走査された光を、広角にする光学系86を備えている。光学系86により、眼底の視野角(FOV:Field of View)を従来の技術より大きな角度とし、従来の技術より広範囲の眼底領域を撮影することができる。具体的には、被検眼12の外部からの外部光照射角で約120度(被検眼12の眼球の中心Oを基準位置として、被検眼12の眼底が走査光により照射されることで実質的に撮影可能な内部光照射角で、200°程度)の広範囲の眼底領域を撮影することができる。光学系86は、スリットミラーおよび楕円鏡に代えて、複数のレンズ群を用いた構成でもよい。X方向走査装置82及びY方向走査装置84の各走査装置はMEMSミラーを用いて構成された二次元スキャナを用いてもよい。
 光学系86としてスリットミラーおよび楕円鏡を含むシステムを用いる場合には、国際出願PCT/JP2014/084619や国際出願PCT/JP2014/084630に記載された楕円鏡を用いたシステムを用いる構成でもよい。2014年12月26日に国際出願された国際出願PCT/JP2014/084619(国際公開WO2016/103484)の開示及び2014年12月26日に国際出願された国際出願PCT/JP2014/084630(国際公開WO2016/103489)の開示の各々は、その全体が参照により本明細書に取り込まれる。
 眼科装置110は、光学系86の周囲で光軸から上下左右にずれた位置に、患者の視線を向かせるように点灯される発光装置(例えば、LED)により構成される固視標92U、92D、92L、92R(図6Aから図6Fも参照)と、制御ユニット20により制御され、固視標92U、92D、92L、92Rを点灯させる固視標制御装置90を備えている。
 なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、被検眼12の前眼部の瞳孔の中心と眼球の中心とを結ぶ方向を「Z方向」とする。従って、X方向、Y方向、およびZ方向は互いに垂直である。
 カラー眼底画像は、G光及びR光で同時に被検眼12の眼底が撮影されることにより、得られる。より詳細には、制御ユニット20が、同時に発光するように光源42、44を制御し、被検眼12の眼底に渡って、広角光学系80によりG光及びR光が走査される。そして、被検眼12の眼底から反射されたG光がG光検出素子72により検出され、第2眼底画像(G色眼底画像)の画像データが画像処理部182で生成される。同様に、被検眼12の眼底から反射されたR光がR光検出素子74により検出され、第1眼底画像(R色眼底画像)の画像データが、眼科装置110のCPU22により生成される。また、IR光が照射された場合は、被検眼12の眼底から反射されたIR光がIR光検出素子76により検出され、IR眼底画像の画像データが眼科装置110のCPU22により生成される。
 図1の眼軸長測定器120は、被検眼12の眼軸方向の長さである眼軸長を測定する第1のモードと第2のモードとの2つのモードを有する。第1のモードは、図示しない光源からの光を被検眼12に導光した後、眼底からの反射光と角膜からの反射光との干渉光を受光し、受光した干渉光を示す干渉信号に基づいて眼軸長を測定する。第2のモードは、図示しない超音波を用いて眼軸長を測定するモードである。眼軸長測定器120は、第1のモード又は第2のモードにより測定された眼軸長を管理サーバ140に送信する。第1のモード及び第2のモードにより眼軸長を測定してもよく、この場合には、双方のモードで測定された眼軸長の平均を眼軸長として管理サーバ140に送信する。
 次に、図3を参照して、管理サーバ140の構成を説明する。図3に示すように、管理サーバ140は、制御ユニット160、及び表示/操作ユニット170を備えている。制御ユニット160は、CPU162を含むコンピュータ、記憶装置であるメモリ164、及び通信インターフェース(I/F)166等を備えている。表示/操作ユニット170は、画像を表示したり、各種指示を受け付けたりするグラフィックユーザインターフェースであり、ディスプレイ172及びタッチパネル等の入力/指示デバイス174を備えて
いる。
 画像ビューワ150の構成は、管理サーバ140と同様であるので、その説明を省略する。画像ビューワ150のメモリ164には、解析処理プログラムが記憶されている。
 解析処理プログラムは、本開示の技術の「プログラム」の一例である。
 次に、図4を参照して、画像ビューワ150のCPU162が解析処理プログラムを実行することで実現される各種機能について説明する。解析処理プログラムは、解析処理機能、表示制御機能、及び処理機能を備えている。CPU162がこの各機能を有する解析処理プログラムを実行することで、CPU162は、図4に示すように、画像処理部182、表示制御部184、及び処理部186として機能する。
 次に、図5を参照して、眼科システム100の動作を説明する。
 患者の被検眼を眼科装置110で撮影できるように、患者の被検眼が位置決めされる。図5に示すように、医者は、ステップ202で、入力/指示デバイス34を介して、眼科装置110に、被検眼12の眼底の撮影の開始を指示する。眼科装置110は、ステップ204で、SLOユニット40により被検眼12の眼底(画像1)を撮影する。ステップ204では、固視標92U、92D、92L、92Rを点灯させない。よって、ステップ204では、図6A及び図6(D)に示すように、眼科システム100の光軸に被検眼12の光軸が一致した状態で、眼底を撮影する。具体的には、上記のように、G光及びR光で同時に被検眼12の眼底を撮影して、第1眼底画像(R色眼底画像)と第2眼底画像(G色眼底画像)とを取得し、第1眼底画像(R色眼底画像)と第2眼底画像(G色眼底画像)とからカラー眼底画像として、画像1を得る。当該撮影により、図6Aに示すように、眼科システム100を基準として、上下方向に上位置U0から下位置D0、左右方向に左位置L0から右位置R0の範囲が撮影され、中央画像G0(図8も参照))として、画像1が取得される。
 眼科システム100の光軸に被検眼12の光軸が一致した状態での当該光軸は、本開示の技術の「第1の視線」の一例であり、中央画像G0は、本開示の技術の「基準画像」の一例である。
 眼科装置110は、画像1の撮影が終了すると、次のステップ206で、画像1を、管理サーバ140に送信する。
 ところで、ステップ204での画像1の撮影の際には、患者名ID、患者名、年齢、各画像が右眼か左眼からの情報、治療前の撮影日時および視力、治療後の撮影日時および視力の各情報も、眼科装置110に入力されている。ステップ206における画像送信の際には、眼科装置110から管理サーバ140に、上記各情報が送信される。
 患者の被検眼を眼科装置110で撮影できるように、患者の被検眼が位置決めされる。医者は、ステップ208で、入力/指示デバイス34を介して、眼科装置110に撮影開始を指示する。眼科装置110は、ステップ210で、画像2の撮影を行う。ステップ210の処理では、患者の視線を上下左右にあおった各々について、上記のように被検眼12の眼底の撮影を行う。これにより、左方向のあおり画像(GL(図8も参照))、上方向のあおり画像(GU)、右方向のあおり画像(GR)、下方向のあおり画像(GD)が得られる。左右方向は、眼科装置110を基準にしている。よって、左方向のあおり画像(GL)は、患者からすると斜め右方向を向いた状態で、眼底が撮影されて得た画像であり、右方向のあおり画像(GR)は、患者からすると斜め左方向を向いた状態で、眼底が撮影されて得た画像である。
 例えば、患者の視線を斜め上方向に向けるために、固視標92Uを点灯させ、これにより、図6Bに示すように、患者の視線が斜め上方向に向けられる。この状態で、眼底を撮影する。患者の視線が斜め上方向に向けられるので、上位置U0よりも上側の上側位置U1までが撮影される。よって、上方向のあおり画像(GU)には、中央画像G0にはない面MU01の画像が存在する。
 患者の視線を斜め下方向に向けるために、固視標92Dを点灯させる、これにより、図6Cに示すように、患者の視線が斜め下方向に向けられる。この状態で、眼底を撮影する。患者の視線が斜め下方向に向けられるので、下位置D0よりも下側の下側位置D1までが撮影される。よって、下方向のあおり画像(GD)には、中央画像G0にはない面MD02の画像が存在する。
 患者の視線を、眼科装置110を基準に斜め左方向に向けるために、固視標92Lを点灯させる、これにより、図6Eに示すように、患者の視線が斜め左方向(患者からすると右方向)に向けられる。この状態で、眼底を撮影する。患者の視線が斜め左方向に向けられるので、左位置L0よりも左側の左側位置L1までが撮影される。よって、左方向のあおり画像(GL)には、中央画像G0にはない面ML01の画像が存在する。
 患者の視線を、眼科装置110を基準に斜め右方向に向けるために、固視標92Rを点灯させる、これにより、図6Fに示すように、患者の視線が斜め右方向(患者からすると左方向)に向けられる。この状態で、眼底を撮影する。患者の視線が斜め右方向に向けられるので、左位置R0よりも右側の右側位置R1までが撮影される。よって、右方向のあおり画像(GR)には、中央画像G0にはない面MR02の画像が存在する。
 斜め上下左右方向の視線は、本開示の「第2の視線」、「第3の視線」の一例であり、上方向のあおり画像(GU)、下方向のあおり画像(GD)、左方向のあおり画像(GL)、及び右方向のあおり画像(GR)は、本開示の技術の「第1の画像」、「第2の画像」の一例である。
 眼科装置110は、ステップ212で、上方向のあおり画像(GU)、下方向のあおり画像(GD)、左方向のあおり画像(GL)、及び右方向のあおり画像(GR)を備えた画像2を、管理サーバ140に送信する。
 ステップ214で、ユーザ(眼科医など)は、入力/指示デバイス174を介して、画像ビューワ150に解析処理を指示する。
 画像ビューワ150は、ステップ216で、画像送信を、管理サーバ140に指示する。画像送信が指示された管理サーバ140は、ステップ218で、画像1、2を読み出し、ステップ220で、画像1、2の画像データを、画像ビューワ150に送信する。
 画像1、2の画像データが送信された管理サーバ140は、ステップ222で、画像1、2をディスプレイ172に表示する。具体的には、中央画像G0を中心に、中央画像G0の上側、下側、左側、及び右側に、上方向のあおり画像(GU)、下方向のあおり画像(GD)、左方向のあおり画像(GL)、及び右方向のあおり画像(GR)を配置する。
 医者は、ステップ224で、中央画像G0と、上方向のあおり画像(GU)、下方向のあおり画像(GD)、左方向のあおり画像(GL)、及び右方向のあおり画像(GR)との各々の組合せにおいて、対応点を指示する。
 例えば、ユーザ(眼科医など)は、ディスプレイ172に表示された中央画像G0と上方向のあおり画像(GU)とを見て、中央画像G0と上方向のあおり画像(GU)とのそれぞれで、対応する複数の特徴点を、入力/指示デバイス174を介して指示する。特徴点は、例えば、眼底の血管の分岐点や視神経乳頭などである。また、特徴点は、複数(例えば、12点)指示する。画像ビューワ150は、中央画像G0と上方向のあおり画像(GU)との間の複数(例えば、12組)の特徴点の組合せを受け付ける。本ステップ224では、ユーザ(眼科医など)は、中央画像G0と下方向のあおり画像(GD)、中央画像G0と左方向のあおり画像(GL)、及び中央画像G0と右方向のあおり画像(GR)との各々の組合せにおいて、上記と同様に、複数の特徴点を、入力/指示デバイス174を介して指示する。画像ビューワ150は、各組合せについての複数(例えば、12組)の特徴点の組合せを受け付ける。
 ステップ224における対応点の指示は、ユーザ(眼科医など)が行うことに限定されず、上記画像の画像データに基づいて自動的に行ってもよい。例えば、画像処理部182は、中央画像G0と、上方向のあおり画像(GU)、下方向のあおり画像(GD)、左方向のあおり画像(GL)、及び右方向のあおり画像(GR)との各々の組合せにおいて、対応する特徴点を、画像データに基づいて、テンプレートマッチングを行うことにより、特定する。
 画像ビューワ150は、ステップ226で、詳細には後述する解析処理を実行し、ステップ228で、解析結果画面300(図8参照)を、ディスプレイ172に表示する。解析結果画面300については後述する。
 次に、解析処理を説明する。上記のように画像1、2の画像データを受信し、表示(ステップ222)した後、ステップ224で、上記各画像の組合せについての複数の特徴点の組合せを受け付けると、画像ビューワ150は、ステップ266で、解析処理プログラムを実行する。画像ビューワ150のCPU162が解析処理プログラムを実行することで、図7のフローチャートに示された解析処理方法が実現される。解析処理方法は、本開示の技術の「画像処理方法」の一例である。
 図7のステップ242で、処理部186は、あおり画像を識別する変数nを0に初期化し、ステップ244で、処理部186は、変数nを1インクリメントする。なお、変数n=1、2、3、4のそれぞれにより、左方向のあおり画像(GL)、上方向のあおり画像(GU)、右方向のあおり画像(GR)、及び下方向のあおり画像(GD)が識別される。変数nの総数Nは4である。
 ステップ246で、画像処理部182は、中央画像G0とあおり画像nとの組み合わせにおいて指定された上記12個の対応点の組合せの位置に基づいて、中央画像G0への変数nで識別されるあおり画像nの射影変換行列を算出する。射影変換行列は、あおり画像nの各画素を、あおり画像nの各画素の位置が中央画像G0における対応する位置に位置するように射影変換する行列である。
 ステップ248で、画像処理部182は、ステップ248で算出した射影変換行列を用いて、あおり画像nを射影変換する。これにより、射影変換されたあおり画像n1が作成される。
 ステップ250で、中央画像G0の基準点(例えば、中心位置)が、射影変換されたあおり画像n1上に射影される基準射影点を特定する。
 ステップ252で、処理部186は、変数nが総数Nに等しいか否かを判断する。変数nが総数Nに等しくない場合には、上記処理(ステップ246から250)がされていないあおり画像があるので、解析処理は、ステップ244に戻る。しかし、変数nが総数Nに等しい場合には、全てのあおり画像について上記処理(ステップ246から250)がされたので、解析処理は、ステップ254に進む。
 以上の処理により、左方向のあおり画像(GL)、上方向のあおり画像(GU)、右方向のあおり画像(GR)、及び下方向のあおり画像(GD)のそれぞれに対し、中央画像G0への互いに異なる射影変換行列が算出される。左方向のあおり画像(GL)、上方向のあおり画像(GU)、右方向のあおり画像(GR)、及び下方向のあおり画像(GD)のそれぞれは、それぞれの射影変換行列により、変換後の左方向のあおり画像(GL1)、上方向のあおり画像(GU1)、右方向のあおり画像(GR1)、及び下方向のあおり画像(GD1)が作成される。そして、変換後の左方向のあおり画像(GL1)、上方向のあおり画像(GU1)、右方向のあおり画像(GR1)、及び下方向のあおり画像(GD1)には、中央画像G0の基準点(例えば、中心位置)が射影される基準射影点が特定されている。
 ステップ254で、表示制御部184は、変換後の左方向のあおり画像(GL1)、上方向のあおり画像(GU1)、右方向のあおり画像(GR1)、及び下方向のあおり画像(GD1)を、各々の基準射影点に基づいて、組み立てたモンタージュ画像を作成する。
 なお、変換後の左方向のあおり画像(GL1)、上方向のあおり画像(GU1)、右方向のあおり画像(GR1)、及び下方向のあおり画像(GD1)の各々は、第1眼底画像(R色眼底画像)及び第2眼底画像(G色眼底画像)を備えている。よって、モンタージュ画像も第1眼底画像(R色眼底画像)及び第2眼底画像(G色眼底画像)を備えている。
 眼の構造は、硝子体を、構造が異なる複数の層が覆うようになっている。複数の層には、硝子体側の最も内側から外側に、網膜、脈絡膜、強膜が含まれる。R光は、網膜を通過して脈絡膜まで到達する。よって、第1眼底画像(R色眼底画像)には、網膜に存在する血管(網膜血管)の情報と脈絡膜に存在する血管(脈絡膜血管)の情報とが含まれる。これに対し、G光は、網膜までしか到達しない。よって、第2眼底画像(G色眼底画像)には、網膜に存在する血管(網膜血管)の情報が含まれる。
 ステップ256で、表示制御部184は、モンタージュ画像から脈絡膜血管画像を作成る。
 脈絡膜血管画像は以下のようにして生成される。管理サーバ140の画像処理部182は、ブラックハットフィルタ処理を、モンタージュ画像における第2眼底画像(G色眼底画像)に施すことにより、第2眼底画像(G色眼底画像)から網膜血管を抽出する。次に、画像処理部182は、モンタージュ画像における第1眼底画像(R色眼底画像)から、第2眼底画像(G色眼底画像)から抽出した網膜血管を用いてインペインティング処理により、網膜血管を除去する。つまり、第2眼底画像(G色眼底画像)から抽出された網膜血管の位置情報を用いて第1眼底画像(R色眼底画像)の網膜血管構造を周囲の画素と同じ値に塗りつぶす処理を行う。そして、画像処理部182は、網膜血管が除去された第1眼底画像(R色眼底画像)の画像データに対し、適応ヒストグラム均等化処理(Contrast Limited Adaptive Histogram Equalization)を施すことにより、第1眼底画像(R色眼底画像)において、脈絡膜血管を強調する。これにより、脈絡膜血管画像が得られる。生成された脈絡膜血管画像はメモリ164に記憶される。
 脈絡膜眼底画像を生成する方法について、2018年3月20日に出願された特願2018-052246の開示は、その全体が参照により、本明細書に取り込まれる。
 ステップ254で、表示制御部184は、解析結果画面データを作成する。
 図8には、解析結果画面300が示されている。図8に示されているように、解析結果画面300は、画像表示領域302、患者情報表示領域304、及びフォルダ表示領域306を有する。
 患者情報表示領域304には、患者名ID表示領域342、患者名表示領域344、年齢表示領域346、各画像が右眼か左眼を示す情報(右又は左)を表示する表示領域348、眼軸長を表示する眼軸長表示領域350、撮影日時表示領域352、および視力表示領域354が設けられている。
 フォルダ表示領域306は、前処理フォルダ360と解析フォルダ370とを有する。前処理フォルダ360には、個別表示アイコン362とモンタージュ表示アイコン3642とが設けられている。解析フォルダ370には、図10に示すように、各種アイコンが設けられている。
 図8の画像表示領域302は、前処理フォルダ360内の個別表示アイコン362が操作された場合に表示される内容が示されている。図8に示すように、画像表示領域302には、変換前の画像を表示する領域322と、変換後の画像を表示する領域324とを有する。変換前の画像を表示する領域322には、中央画像G0を表示する領域330と、領域330を中心に、領域330の左側、上側、右側、及び下側に、左方向のあおり画像(GL)、上方向のあおり画像(GU)、右方向のあおり画像(GR)、及び下方向のあおり画像(GD)を表示する領域330n1から330n4が配置されている。
 左方向のあおり画像(GL)は、左位置L0よりも左側の左側位置L1までの画像が含まれている。上方向のあおり画像(GU)は、上位置U0よりも上側の上側位置U1までの画像が含まれている。右方向のあおり画像(GR)は、左位置R0よりも右側の右側位置R1までの画像が含まれている。下方向のあおり画像(GD)は、下位置D0よりも下側の下側位置D1までの画像が含まれている。
 変換後の画像を表示する領域324には、中央画像G0を表示する領域330と、領域330を中心に、領域330の左側、上側、右側、及び下側に、変換後の左方向のあおり画像(GL1)、上方向のあおり画像(GU1)、右方向のあおり画像(GR1)、及び下方向のあおり画像(GD1)を表示する領域340n1から340n4が配置されている。左方向のあおり画像(GL)の左側位置L1は、変換後の左方向のあおり画像(GL1)において位置L11に位置する。上方向のあおり画像(GU1)の上側位置U1は、変換後の上方向のあおり画像(GU1)において位置U11に位置する。右方向のあおり画像(GR1)の右側位置R1は、変換後の右方向のあおり画像(GR1)において位置R11に位置する。下方向のあおり画像(GD1)の下側位置D1は、変換後の下方向のあおり画像(GD1)において位置D11に位置する。
 画像ビューワ150の後述する表示画面には、後述する画像を生成することを指示するためのアイコンやボタンが表示されている。ビューワ150のユーザ(眼科医など)がアイコン等クリックされると、画像ビューワ150から管理サーバ140に、クリックされたアイコン等に対応する指示信号が送信される。画像ビューワ150からの指示信号を受信した管理サーバ140は、指示信号に対応する画像を生成し、生成した画像の画像データを画像ビューワ150に送信する。管理サーバ140から画像データを受信した画像ビューワ150は、受信した画像データに基づいて画像をディスプレイに表示する。管理サーバ140での表示画面の生成処理は、CPU162で動作する表示画面生成プログラムによって行われる。
 図8の解析結果画面300において、前処理フォルダ360内のモンタージュ表示アイコン364が操作されると、画像表示領域302は、図9に示す内容に変更される。図9に示すように、画像表示領域302の変換前の画像を表示する領域322には、図8の領域322と同様の内容である。一方、変換後の画像を表示する領域324には、ステップ254で作成されたモンタージュ画像G01を表示する領域380を有する。
 モンタージュ画像G01は、中央画像G0と、中央画像G0の左側に、変換後の左方向のあおり画像(GL1)で、中央画像G0を除き、且つ、上方向のあおり画像(GU1)及び下方向のあおり画像(GD1)の各々と共通する部分は共通する部分の中央の線で区切られた部分ML011とを有する。
 モンタージュ画像G01は中央画像G0の上側に、変換後の上方向のあおり画像(GU1)で中央画像G0を除き、且つ、左方向のあおり画像(GL1)及び右方向のあおり画像(GR1)の各々と共通する部分は共通する部分の中央の線で区切られた部分MU011を有する。
 モンタージュ画像G01は中央画像G0の右側に、変換後の右方向のあおり画像(GR1)で中央画像G0を除き、且つ、上方向のあおり画像(GU1)及び下方向のあおり画像(GD1)の各々と共通する部分は共通する部分の中央の線で区切られた部分MR011を有する。
 モンタージュ画像G01は中央画像G0の下側に、変換後の下方向のあおり画像(GD1)で中央画像G0を除き、且つ、右方向のあおり画像(GR1)及び左方向のあおり画像(GL1)の各々と共通する部分は共通する部分の中央の線で区切られた部分MD011を有する。
 このように、モンタージュ画像G01は、中央画像G0の回りに、部分ML011、部分MU011、部分MR011、及び部分MD011を有する。このように、モンタージュ画像G01は、眼科システム100の光軸に被検眼12の光軸を一致させて眼底を撮影して得た中央画像G0にはない部分ML011、部分MU011、部分MR011、及び部分MD011を有するので、眼底のより多い情報を得ることができる。
 図10には、画像ビューワ150の解析結果画面300において解析フォルダ370が操作された場合に表示される表示画面が示されている。図10に示すように、画像表示領域302は、RG画像を表示する領域382と、脈絡膜血管画像384とを有する。RG画像を表示する領域382には、RG画像として、モンタージュ画像G02が表示される。脈絡膜血管画像384は、ステップ256で作成された脈絡膜血管画像G03が表示される。
 従来では、パノラマ眼底画像合成装置及び方法技術が開示されている。従来の技術では、広範囲の眼底領域を撮影して得た複数の眼底画像からより広いパノラマ画像を生成することができない。しかし、本実施の形態では、視線を、上下左右に変えて眼底を撮影して得た4つの眼底画像から、より広いパノラマ画像(モンタージュ画像)を生成することができる。
 このように、従来の技術では、第1の画像の各画素を、第1の画像の各画素の位置が基準画像における対応する位置に位置するように射影変換する射影変換行列を算出することができない。しかし、本実施の形態では、当該射影変換行列を算出し、当該射影変換行列を用いて、第1の画像の各画素を射影変換することができる。
 次に、本開示の技術の種々の変形例を説明する。
<第1の変形例>
 上記実施の形態では、視線を、上下左右に変えて眼底を撮影して得た4つの眼底画像から、より広いパノラマ画像(モンタージュ画像)を生成しているが、本開示の技術がこれに限定されない。例えば、上下左右に代えてまたはこれと共に、別の方向、例えば、右斜め上方向、左斜め上方向、右斜め下方向、及び左斜め下方向に視線を変えて眼底を撮影して得た4つの眼底画像から、より広いパノラマ画像(モンタージュ画像)を生成してもよい。
 なお、視線を変えて眼底を撮影して得る眼底画像は4つ、8つに限定されず、1つ以上である。
<第2の変形例>
 上記実施の形態では、脈絡膜血管画像を作成しているが(図7のステップ256)、本開示の技術がこれに限定されない。例えば、図7のステップ256とステップ258との間で、更に処理を実行するようにしてもよい。図11には、第2の変形例における図7のステップ256とステップ258との間で実行するVV定量値算出プログラムのフローチャートが示されている。
 図11のステップ272で、画像処理部182は、ステップ256で作成された脈絡膜血管画像から、渦静脈(Vortex Vein、以下、VVと称する)位置を特定する。
 画像処理部182は、モンタージュ画像における脈絡膜血管画像G03における各脈絡膜血管の移動方向(血管走行方向)を設定する。具体的には、第1に、画像処理部182は、脈絡膜血管画像G03の各画素について、下記の処理を実行する。即ち、画像処理部182は、画素に対して、当該画素を中心とした領域(セル)を設定し、セル内の各画素における輝度の勾配方向のヒストグラムを作成する。次に、画像処理部182は、各セルにおけるヒストグラムにおいて、最もカウントが少なかった勾配方向を各セルの内の画素における移動方向とする。この勾配方向が、血管走行方向に対応する。なお、最もカウントが少なかった勾配方向が血管走行方向であるとなるのは、次の理由からである。血管走行方向には輝度勾配が小さく、一方、それ以外の方向には輝度勾配が大きい(例えば、血管と血管以外のものでは輝度の差が大きい)。したがって、各画素の輝度勾配のヒストグラムを作成すると、血管走行方向に対するカウントは少なくなる。以上の処理により、脈絡膜血管画像の各画素における血管走行方向が設定される。
 画像処理部182は、M(自然数)×N(自然数)(=L)個の粒子の初期位置を設定する。具体的には、画像処理部182は、脈絡膜血管画像G03上に等間隔に、縦方向にM個、横方向にN個、合計L個の初期位置を設定する。
 画像処理部182は、VV位置を推定する。具体的には、画像処理部182は、L個の各々の位置について以下の処理を行う。即ち、画像処理部182は、最初の位置(L個の何れか)の血管走行方向を取得し、取得した血管走行方向に沿って所定距離だけ、粒子を移動させ、移動した位置において、再度、血管走行方向を取得し、取得した血管走行方向に沿って所定距離だけ、粒子を移動させる。このように血管走行方向に沿って所定距離移動させることを予め設定した移動回数、繰り返す。以上の処理を、L個の全ての位置において実行する。その時点で粒子が一定個数以上集まっている点をVV位置とする。
 本ステップ272では、画像処理部182は、モンタージュ画像におけるG色眼底画像から視神経乳頭を検出する。具体的には、画像処理部182は、視神経乳頭はG色眼底画像においてもっとも明るい領域であるので、上記読み出したG色眼底画像において画素値が最も大きい所定数の画素の領域を、視神経乳頭として検出する。最も明るい画素を含む領域の中心位置を視神経乳頭が位置する座標として算出し、メモリ164に記憶する。
 本ステップ272では、画像処理部182は、黄斑を検出する。具体的には、画像処理部182は、黄斑は脈絡膜血管画像において暗い領域であるので、上記読み出した脈絡膜血管画像G03において画素値が最も小さい所定数の画素の領域を、黄斑として検出する。最も暗い画素を含む領域の中心位置を黄斑が位置する座標として算出し、メモリ164に記憶する。
 そして、本ステップ272では、画像処理部182は、VV位置、視神経乳頭の位置、及び黄斑の位置を、変換後の左方向のあおり画像(GL1)、上方向のあおり画像(GU1)、右方向のあおり画像(GR1)、及び下方向のあおり画像(GD1)の対応する位置に特定する。
 ステップ274で、画像処理部182は、変換後の左方向のあおり画像(GL1)、上方向のあおり画像(GU1)、右方向のあおり画像(GR1)、及び下方向のあおり画像(GD1)を、各々の基準射影点に基づいて、3次元(3D)眼球面上に投影する。
 ステップ276で、画像処理部182は、変換後の左方向のあおり画像(GL1)、上方向のあおり画像(GU1)、右方向のあおり画像(GR1)、及び下方向のあおり画像(GD1)が投影された3次元(3D)眼球面から、VV定量値を算出する。
 VVの定量値の算出処理は、第1に、VV距離の算出処理と、第2に、VV角度の算出処理とがある。
 まず、VV距離の算出処理を説明する。VV距離には、第1に、視神経乳頭の位置とVV位置との距離と、第2に、黄斑の位置とVV位置との距離がある。
 3次元(3D)眼球面上で、第1に、視神経乳頭の位置とVV位置との距離と、第2に、黄斑の位置とVV位置との距離とを算出する。
 次に、VV角度の算出処理を説明する。VV角度には、黄斑の位置-視神経乳頭の位置-VV位置がなす角度と、視神経乳頭の位置-黄斑の位置-VV位置がなす角度とがある。黄斑の位置-視神経乳頭の位置-VV位置がなす角度θの算出方法には、正角図法又は球面三角法から算出する。
 第2の変形例における図7のステップ258の解析結果画面データには、VV定量値が含まれる。よって、画像ビューワ150のディスプレイ172に、VV定量値が表示される。
<第3の変形例>
 上記実施の形態では、眼科装置110により内部光照射角が200度程度の眼底画像を取得する例を説明したが、本開示の技術はこれに限定されず、例えば、内部照射角で100度以下の眼科装置で撮影された眼底画像でも本開示の技術を適用してもよい。
<第4の変形例>
 上記実施の形態では、眼科装置110はSLOを用いて眼底を撮影したが、本開示の技術はこれに限定されず、例えば、眼底カメラで眼底を撮影にしてもよい
<第5の変形例>
 上記実施の形態では、眼科装置110、眼軸長測定器120、管理サーバ140、及び画像ビューワ150を備えた眼科システム100を例として説明したが、本開示の技術はこれに限定されない。例えば、第1の例として、眼軸長測定器120を省略し、眼科装置110が、眼軸長測定器120の機能を更に有してもよい。また、第2の例として、眼科装置110が、管理サーバ140及び画像ビューワ150の少なくとも一方の機能を更に有してもよい。例えば、眼科装置110が管理サーバ140の機能を有する場合、管理サーバ140を省略することができる。この場合、解析処理プログラムは、眼科装置110又は画像ビューワ150が実行する。また、眼科装置110が画像ビューワ150の機能を有する場合、画像ビューワ150を省略することができる。第3の例として、管理サーバ140を省略し、画像ビューワ150が管理サーバ140の機能を実行するようにしてもよい。
<その他の変形例>
 上記実施の形態で説明したデータ処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 また、上記実施の形態では、コンピュータを利用したソフトウェア構成によりデータ処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA又はASIC等のハードウェア構成のみによって、データ処理が実行されるようにしてもよい。データ処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。

Claims (9)

  1.  第1の視線で眼底を撮影して得た基準画像と、前記第1の視線とは異なる第2の視線で前記眼底を撮影して得た第1の画像とのそれぞれに対応点を指定するステップと、
     前記対応点に基づいて、前記第1の画像を、前記基準画像に射影変換する射影変換行列を算出するステップと、
     前記射影変換行列を用いて、前記第1の画像を射影変換するステップと、
     を備える画像処理方法。
  2.  前記基準画像と、射影変換された前記第1の画像を合成するステップと、
    をさらに備えることを特徴とする請求項1に記載の画像処理方法。
  3.  前記対応点は、前記基準画像と前記第1の画像のそれぞれに存在する前記眼底の特徴点であることを特徴とする請求項1または2に記載の画像処理方法。
  4.  前記対応点は、眼底の血管の分岐点、あるいは、視神経乳頭であることを特徴とする請求項1ないし3の何れかに記載の画像処理方法。 
  5.  前記合成により得られた合成画像から脈絡膜血管画像を生成するステップをさらに備えることを特徴とする請求項2に記載の画像処理方法。
  6.  前記脈絡膜血管画像から渦静脈位置を特定するステップをさらに備えたことを特徴とする請求項5に記載の画像処理方法。
  7.  前記基準画像と前記第1の画像は、広角眼底撮影装置で撮影された眼底画像であることを特徴とする請求項1から6に記載の画像処理方法。
  8.  コンピュータに請求項1から請求項7の何れか1項に記載の画像処理方法を実行させるプログラム。
  9.  第1の視線で眼底を撮影して得た基準画像と、前記第1の視線とは異なる第2の視線で前記眼底を撮影して得た第1の画像とのそれぞれに対応点を指定するステップと、
     前記対応点に基づいて、前記第1の画像を、前記基準画像に射影変換する射影変換行列を算出するステップと、
     前記射影変換行列を用いて、前記第1の画像を射影変換するステップと、
     を実行する画像処理部を備える画像処理装置。
PCT/JP2019/016657 2018-04-18 2019-04-18 画像処理方法、プログラム、及び画像処理装置 WO2019203314A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020514441A JPWO2019203314A1 (ja) 2018-04-18 2019-04-18 画像処理方法、プログラム、及び画像処理装置
US17/071,547 US11954872B2 (en) 2018-04-18 2020-10-15 Image processing method, program, and image processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018080278 2018-04-18
JP2018-080278 2018-04-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/071,547 Continuation US11954872B2 (en) 2018-04-18 2020-10-15 Image processing method, program, and image processing device

Publications (1)

Publication Number Publication Date
WO2019203314A1 true WO2019203314A1 (ja) 2019-10-24

Family

ID=68239628

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/016657 WO2019203314A1 (ja) 2018-04-18 2019-04-18 画像処理方法、プログラム、及び画像処理装置

Country Status (3)

Country Link
US (1) US11954872B2 (ja)
JP (1) JPWO2019203314A1 (ja)
WO (1) WO2019203314A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04336677A (ja) * 1991-05-14 1992-11-24 Canon Inc 画像処理方法及びこれを用いたシステム
JPH06243232A (ja) * 1993-02-19 1994-09-02 Canon Inc 画像処理装置及び方法
JPH07146305A (ja) * 1993-07-02 1995-06-06 Heidelberg Eng Opt Messsyst Gmbh 特に血液の流速を測定する方法と装置
JPH07152895A (ja) * 1993-11-29 1995-06-16 Canon Inc 画像処理方法及び装置
JP2002034925A (ja) * 2000-07-21 2002-02-05 Tohoku Techno Arch Co Ltd 多方向から撮影した眼底画像の重合せによる眼底3次元パターンの復元法及び装置
JP2006061196A (ja) * 2004-08-24 2006-03-09 Institute Of Physical & Chemical Research 3次元眼底画像の構築・表示装置
US20110279776A1 (en) * 2010-03-05 2011-11-17 Spaide Richard R Systems and methods for widefield mapping of the retina
US20170316565A1 (en) * 2016-04-29 2017-11-02 Carl Zeiss Meditec, Inc. Montaging of wide-field fundus images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5620000A (en) 1993-07-02 1997-04-15 Heidelberg Engineering, Optische Messsysteme Gmbh Method and apparatus for measuring flow rate, particularly of blood
JP5080944B2 (ja) 2007-11-08 2012-11-21 興和株式会社 パノラマ眼底画像合成装置及び方法
CN103439801B (zh) * 2013-08-22 2016-10-26 北京智谷睿拓技术服务有限公司 视力保护成像装置及方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04336677A (ja) * 1991-05-14 1992-11-24 Canon Inc 画像処理方法及びこれを用いたシステム
JPH06243232A (ja) * 1993-02-19 1994-09-02 Canon Inc 画像処理装置及び方法
JPH07146305A (ja) * 1993-07-02 1995-06-06 Heidelberg Eng Opt Messsyst Gmbh 特に血液の流速を測定する方法と装置
JPH07152895A (ja) * 1993-11-29 1995-06-16 Canon Inc 画像処理方法及び装置
JP2002034925A (ja) * 2000-07-21 2002-02-05 Tohoku Techno Arch Co Ltd 多方向から撮影した眼底画像の重合せによる眼底3次元パターンの復元法及び装置
JP2006061196A (ja) * 2004-08-24 2006-03-09 Institute Of Physical & Chemical Research 3次元眼底画像の構築・表示装置
US20110279776A1 (en) * 2010-03-05 2011-11-17 Spaide Richard R Systems and methods for widefield mapping of the retina
US20170316565A1 (en) * 2016-04-29 2017-11-02 Carl Zeiss Meditec, Inc. Montaging of wide-field fundus images

Also Published As

Publication number Publication date
JPWO2019203314A1 (ja) 2021-04-30
US11954872B2 (en) 2024-04-09
US20210027476A1 (en) 2021-01-28

Similar Documents

Publication Publication Date Title
JP2023009530A (ja) 画像処理方法、画像処理装置、及びプログラム
JP7441783B2 (ja) 画像処理方法、プログラム、眼科装置、及び脈絡膜血管画像生成方法
JP7279711B2 (ja) 画像処理方法、プログラム、画像処理装置、及び眼科システム
WO2017155015A1 (ja) 情報処理装置
JPWO2019203311A1 (ja) 画像処理方法、プログラム、及び画像処理装置
JP2022184979A (ja) 眼科装置
JP2023120308A (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
WO2021075062A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP2023158161A (ja) 画像処理方法、プログラム、画像処理装置、及び眼科システム
CN111989030B (zh) 图像处理方法、程序及图像处理装置
WO2021074960A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム
JP2020048857A (ja) 眼測定装置及び方法
WO2019203314A1 (ja) 画像処理方法、プログラム、及び画像処理装置
CN111885954B (zh) 图像处理方法、存储介质及眼科装置
WO2021111840A1 (ja) 画像処理方法、画像処理装置、及びプログラム
JP7416083B2 (ja) 画像処理方法、画像処理装置、およびプログラム
JP7472914B2 (ja) 画像処理方法、画像処理装置、及びプログラム
WO2023282339A1 (ja) 画像処理方法、画像処理プログラム、画像処理装置及び眼科装置
WO2021210281A1 (ja) 画像処理方法、画像処理装置、及び画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19789356

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020514441

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19789356

Country of ref document: EP

Kind code of ref document: A1