WO2023074517A1 - 眼底情報取得方法及び眼底情報取得装置 - Google Patents

眼底情報取得方法及び眼底情報取得装置 Download PDF

Info

Publication number
WO2023074517A1
WO2023074517A1 PCT/JP2022/039052 JP2022039052W WO2023074517A1 WO 2023074517 A1 WO2023074517 A1 WO 2023074517A1 JP 2022039052 W JP2022039052 W JP 2022039052W WO 2023074517 A1 WO2023074517 A1 WO 2023074517A1
Authority
WO
WIPO (PCT)
Prior art keywords
fundus
image
subject eye
eye
subject
Prior art date
Application number
PCT/JP2022/039052
Other languages
English (en)
French (fr)
Inventor
秀徳 高橋
Original Assignee
DeepEyeVision株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeepEyeVision株式会社 filed Critical DeepEyeVision株式会社
Priority to CN202280039449.1A priority Critical patent/CN117460447A/zh
Publication of WO2023074517A1 publication Critical patent/WO2023074517A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography

Definitions

  • the present disclosure relates to a fundus information acquisition method and a fundus information acquisition device.
  • the eyeball has a cornea and a lens, which are convex lenses with a high refractive index. Therefore, the examiner cannot directly observe the fundus of the subject's eye even if he/she looks into the subject's eye. For this reason, in fundus observation, it is common to use either a direct image mirror optical system or an inverted image mirror optical system.
  • the fundus is observed by canceling out the refraction of the cornea and lens with a concave lens so that the fundus is in focus.
  • the examiner needs to bring his/her own eye closer to the subject's eye, so the examiner can only observe the inside of the eyeball at an angle of about 10 degrees beyond the pupil.
  • the examiner observes the fundus of the subject's eye by using a convex lens to generate an intermediate inverse image of the fundus.
  • the range that can be observed by the examiner is about 50 degrees inside the eyeball beyond the pupil.
  • the examiner should slightly incline the angle between the projected light and the visual axis of the eye to be examined by 1 to 2 degrees, or project the light using a ring-shaped light, etc., while avoiding corneal reflection. It is common to observe the fundus of the subject eye.
  • the fundus camera is a kind of indirect mirror optical system, and is a development of the conventional indirect mirror optical system.
  • the Scanning Laser Ophthalmoscope (SLO) is also a type of system that is a further development of the indirect mirror optical system. It is a specification that adds complicated improvements to the observation method using a conventional inverted mirror, such as using a concave mirror instead of a convex mirror.
  • Patent Literature 1 describes a light source and a camera lens for photographing, which aims to enable easy photographing of both the anterior segment and the fundus by attaching to a mobile terminal such as a smartphone. and a predetermined member.
  • a mobile fundus camera needs to shoot at a very close distance to the subject's eye.
  • a fundus camera using an LED light such as a smartphone, performs observation and photography while illuminating the fundus of the subject's eye with the light emitted from the light.
  • the observation by the examiner becomes difficult due to the fact that the examiner
  • a method of observation using a mydriatic drug has been studied, but in this observation method, the examination of the anterior segment of the eye is insufficient, and the narrow angle eye (the cornea and lens of the subject eye If the distance is short and the pupil is mydriatic, the iris, which moves to the periphery, comes in contact with the cornea and blocks the outlet of the fluid in the eye, causing a sudden increase in intraocular pressure and blindness. dangerous to the environment, making deployment in developing countries particularly risky.
  • the examiner needs to project the observation light onto the pupil of the subject's eye by aligning all of them within an error of 1 mm on the xyz axis, which poses a problem that accurate alignment is difficult. .
  • an objective lens of about 20D (D is the reciprocal of the focal length (m)) at a position several cm from the eyeball, making it difficult to shoot from a distance of 10cm or more.
  • D is the reciprocal of the focal length (m)
  • the method of placing the objective lens at a position several centimeters from the eyeball parts that fix the irradiation unit and imaging unit in advance from the subject eye to the appropriate position are manufactured all over the world. There is no difference in that alignment is required. Furthermore, it can be said that it has not been possible to photograph the fundus of the subject's eye naturally in daily life without being conscious of it.
  • the present disclosure has been made in view of the above problems, and due to a simple optical system configuration, there is no need for accurate alignment of the imaging unit with respect to the subject eye, and when the distance from the subject eye is sufficiently far It is an object of the present invention to provide a fundus information acquisition method that enables observation and photographing even in
  • the cornea of the subject eye and a portion of the crystalline lens defined by at least the range of the pupil of the subject eye are used as an objective lens facing the fundus of the subject eye.
  • a fundus oculi information acquisition method is characterized in that a portion of the cornea and the lens of the same subject eye defined by at least the range of the pupil of the subject eye is placed as an object facing the fundus of the subject eye.
  • An infinity correction optical system that is used as a lens and forms an image as part of the fundus image of the subject's eye by an imaging section that is arranged opposite to the objective lens, the light passing through the objective lens, and the subject eye and the imaging section.
  • the position of the fundus image on the fundus may be specified based on the characteristic portion that is derived from the constituent parts of the subject's eye and appears in the fundus image.
  • the characteristic portion appearing in the fundus image is the first reflection from the portion including the corneal vertex of the subject eye and the second reflection from the anterior lens capsule of the subject eye, and the position information specifying step Then, the position of the fundus image on the fundus may be specified based on the positional relationship between the bright spots of the first reflection and the bright spots of the second reflection.
  • the fundus image synthesizing step when the plurality of fundus images acquired in the fundus image continuous acquisition step do not correspond to the entire region of the fundus of the subject eye, machine learning or deep learning Using the trained mathematical model, an eyeball position corresponding to a region not acquired in the continuous fundus image acquisition step is specified, and the continuous fundus image acquisition step is performed at the eyeball position, so that the non-acquisition area in the continuous fundus image acquisition step is identified.
  • a fundus image corresponding to the region may be acquired.
  • a plurality of fundus images acquired in the fundus image continuous acquisition step may be used as training data for the mathematical model.
  • one or more super-resolution techniques are used for each of the plurality of fundus images acquired in the fundus image continuous acquisition step and/or the synthetic fundus image of the subject eye. may be used for focus correction.
  • the synthesized fundus image by inputting the synthesized fundus image into a mathematical model trained by machine learning or deep learning as training data with image data related to retinal disease, information related to estimation of the presence or absence of an abnormal site and abnormal site It may further include an abnormal site estimation information acquisition step of acquiring information related to estimation of the position of the .
  • the above fundus information acquisition method may further include a display step of displaying the synthesized fundus image on the display unit of the imaging unit.
  • the imaging unit may be a camera of a mobile terminal.
  • the imaging unit may be a camera of a stationary device.
  • the fundus information acquiring apparatus uses the cornea of the subject eye and a portion of the crystalline lens defined by at least the range of the pupil of the subject eye as an objective lens facing the fundus of the subject eye. based on an infinity correction optical system that causes the light that has passed through the objective lens to be imaged as a part of the fundus image of the subject's eye by an imaging section that is arranged opposite to the objective lens. An image of the subject eye is obtained, including a fundus image within the pupil of the eye.
  • a simple optical system configuration eliminates the need for accurate alignment of the imaging unit with respect to the subject's eye, and enables observation and imaging even when the distance from the subject's eye is sufficiently distant.
  • FIG. 1 is a schematic diagram of an infinity correction optical system
  • FIG. FIG. 4 is a diagram showing an example of a subject eye image including a fundus image acquired in a fundus image acquiring step
  • FIG. 10 is an example of diagrams showing a change in the scenery reflected on the subject's eye, a change in the corneal limbus of the subject's eye, a movement of the pupil center within the corneal limbus, or a change in the pupillary limbus according to an embodiment.
  • FIG. 10 is an example of a diagram in which a plurality of fundus images are arranged
  • 1 is a schematic diagram of a synthetic fundus image according to one embodiment
  • FIG. 4 is a schematic diagram showing an example of using a mobile terminal as a fundus information acquisition device 4.
  • FIG. 4 is a schematic diagram showing an example of using a stationary device as a fundus information acquisition device 4.
  • FIG. 4 is a flow chart of implementation of a fundus information acquisition device according to an embodiment.
  • 1 is a hardware configuration of a fundus information acquisition device according to an embodiment;
  • 1 is a functional block configuration of a fundus information acquisition device according to an embodiment;
  • FIG. 1 is a diagram showing an example of a fundus information acquisition device 4 that acquires an image of a subject's eye based on an infinity correction optical system 10.
  • the fundus information acquiring apparatus 4 of the present embodiment transfers a portion of the cornea 23 and the lens 22 of the same subject eye defined by at least the range of the pupil 24 of the subject eye 20 to the fundus 21 of the subject eye 20.
  • An infinity correcting optical system 10 used as an opposing objective lens and forming an image of the reflected light 31 that has passed through the objective lens as a part of the fundus image of the subject eye 20 by an imaging unit 40 arranged opposite to the objective lens.
  • the imaging unit 40 acquires an image of the subject eye 20 including a fundus image captured within the range of the pupil 24 of the subject eye 20 based on.
  • FIG. 9 is a diagram showing an example of the hardware configuration of the fundus information acquisition device 4.
  • the fundus information acquisition device 4 includes a processor 11 such as a CPU (Central Processing Unit) or a GPU (Graphical Processing Unit), a memory, a storage device 12 such as a HDD (Hard Disk Drive) and/or an SSD (Solid State Drive), a wired or It has a communication IF (Interface) 13 for wireless communication, an input device 14 for receiving input operations, and an output device 15 for outputting information.
  • the input device 14 is, for example, a keyboard, touch panel, mouse and/or microphone.
  • the output device 15 is, for example, a display, touch panel and/or speaker.
  • the imaging unit 40 may be configured to be included in the input device 14, or may be configured to be included in an external device of the fundus information acquiring apparatus 10, and may be configured to be included in an external device of the fundus information acquiring apparatus 10. It may be configured such that the fundus image acquired by the imaging unit 40 is input from the input device 14 .
  • FIG. 10 is a diagram showing an example of the functional block configuration of the fundus information acquisition device 4.
  • the fundus information acquisition device 4 includes a storage section 110 and a control section 120 .
  • the storage unit 110 can be implemented using the storage device 12 included in the fundus information acquisition device 4 .
  • the control unit 120 can be implemented by the processor 11 of the fundus information acquisition device 4 executing a program stored in the storage device 12 .
  • the program can be stored in a storage medium.
  • the storage medium storing the program may be a non-transitory computer readable medium.
  • the non-temporary storage medium is not particularly limited, but may be a storage medium such as a USB memory or CD-ROM, for example.
  • FIG. 8 is a flow chart showing each process related to implementation of the fundus information acquisition device 4 according to an embodiment of the present disclosure, and each process is executed by the control unit 120 of the fundus information acquisition device 4 . Each step will be described in detail below with reference to FIG.
  • the fundus information acquisition device 4 includes an infinity correction step S101 and a fundus image acquisition step S102, and acquires fundus information of the subject eye 20 by performing these steps. Further, the fundus information acquisition device 4 may include a position information specifying step S103, a fundus image synthesizing step S104, and a display step S105. Furthermore, the fundus information acquisition device 4 may include other steps as necessary.
  • the infinity correction step S101 is a step for configuring the infinity correction optical system 10.
  • the infinity correcting optical system means one constructed so that the light passing through the objective lens forms a parallel light beam.
  • the reflected light 31 emitted from the fundus 21 of the subject's eye 20, which is the object to be observed is reflected by the crystalline lens 22 and the cornea 23, which are objective lenses.
  • it enters the image forming lens 41 of the imaging unit 40 as a parallel light beam 32 at infinity without forming an image, and the image forming lens 41 forms an image on the image pickup device 42 .
  • the fundus information acquisition device 4 acquires an image of the subject eye 20 including a fundus image within the range of the pupil of the subject eye in the imaging unit 40 .
  • the imaging lens is aligned with the position of the intermediate image formed via the objective lens, like the conventional inverting mirror optical system. Since there is no need to adjust the positions of the objective lens, the imaging lens, etc., the distances of the objective lens and the imaging lens can be adjusted freely, and the fundus can be observed easily. In addition, since the eye 20 to be examined can be secured at a sufficient distance from the imaging unit 40, it can be used simply and safely.
  • the means for urging the subject to look at infinity is not particularly limited, but for example, the fundus information acquisition device 4 may include fixation target projection means. Accordingly, the fundus information acquisition device 4 has a fixation light that emits visible light, and by turning on the fixation light, presents the subject with a fixation target and directs the subject's eye to look in the direction of infinity. can be induced.
  • infinity in this embodiment does not necessarily mean that the light emitted from the fundus 21 becomes a parallel light flux in a strict sense after passing through the lens 22 and the cornea 23 .
  • the light exiting the fundus 21 and passing through the crystalline lens 22 and the cornea 23 forms a parallel beam when the subject strictly sees infinity, but the minimum practical requirement is It suffices if the parallel light flux is approximated to the extent that the subject's eye 20 can be observed with a certain degree of accuracy that is satisfactory.
  • a certain degree of accuracy that satisfies minimum practical requirements is sufficient if at least information about the color of the fundus 21 of the subject's eye 20 can be obtained.
  • the fundus information obtained in this embodiment has at least information about the color of the fundus 21, it can be used for diagnosing glaucoma and optic nerve atrophy. Further, if information about the shape of the fundus 21 is available, it can be used for further diagnosis of retinal diseases and the like.
  • two or more image forming lenses that form an imaging lens 41 as a system may be used as necessary.
  • a lens may be used.
  • the lens that forms an image on the imaging device 42 is called the first imaging lens, and the other lens is called the second imaging lens.
  • the second imaging lens may form an intermediate image.
  • the site 51 defined by at least the range of the pupil 24 of the subject eye 20 of the cornea 23 and the lens 22 of the subject eye 20 is used as an objective lens facing the fundus 21 of the subject eye 20.
  • the objective lens may be configured so that the reflected light 31 emitted from the fundus 21 becomes a parallel light beam 32 when the subject looks at infinity.
  • the objective lens means an optical system integrally comprising a portion of the cornea 23 and the crystalline lens 22 of the subject eye 20 defined by at least the range of the pupil 24 of the subject eye 20, and spectacles. .
  • the pupil is the hole enclosed by the iris of the eye and changes its diameter according to the amount of light. A change in pupil diameter contributes to the adjustment of the amount of light projected onto the retina. Therefore, when the subject's eye 20 is irradiated with strong light, the pupil 24 contracts and the pupil diameter becomes smaller, which tends to narrow the range in which the fundus 21 can be observed. Therefore, in the present embodiment, it is preferable to acquire the fundus image in a state where the environmental light is made as dark as possible.
  • the crystalline lens is a transparent convex lens-like substance in the front of the eyeball that refracts light from the outside and forms an image on the retina.
  • the crystalline lens 22 is automatically adjusted so that it becomes thicker when the human sees near and thins when the human sees far, so that the person can focus on the distance.
  • the thickness of the crystalline lens 22 is adjusted so as to focus on infinity by making the subject look at infinity.
  • the cornea is a transparent membrane that covers the front surface of the eyeball, and functions like a convex lens together with the crystalline lens.
  • the imaging unit 40 includes an imaging lens 41 and an imaging element 42 for forming an image of the parallel light flux 32 that has passed through the crystalline lens 22 and the cornea 23, which are objective lenses.
  • the imaging lens 41 may have a desired refractive index.
  • the imaging element 42 has sensitivity to at least visible light and infrared light.
  • the image pickup device 42 is not particularly limited, but preferably has a viewing function for collectively processing several adjacent photoelectric conversion devices as one pixel. As a result, the imaging element 42 can exhibit sensitivity that does not interfere with obtaining a fundus image even for the reflected light 31 from the fundus 21 of the subject's eye 20 with a small amount of light.
  • FIG. 6 is a schematic diagram showing an example of using a mobile terminal as the fundus information acquisition device 4.
  • the camera of the mobile terminal is used as the imaging unit 40 .
  • mobile terminals include, but are not limited to, information processing devices such as smart phones, tablet computers, notebook computers, and workstation computers.
  • a simple optical system using the mobile terminal can be configured, and fundus information can be easily obtained.
  • a terminal means a device that is connected to a line or a network and that can be the subject of communication with other devices.
  • FIG. 7 is a schematic diagram showing an example of using a stationary device as the fundus information acquisition device 4.
  • a stationary camera is used as the imaging unit 40 .
  • the relative position between the eye 20 to be examined and the imaging unit 40 can be easily changed by moving the subject while facing the stationary device. be able to.
  • the fundus image acquiring step S102 in this embodiment can be continuously performed for a certain period of time without any operation by the subject.
  • the distance between the subject's eye 20 and the imaging unit 40 tends to be greater than when a mobile terminal is used as the imaging unit 40.
  • the resulting fundus image tends to have lower resolution. Therefore, it is preferable to obtain fundus information while further increasing the resolution by further including a second imaging lens that forms an intermediate image of the fundus image of the subject's eye 20 .
  • the second imaging lens means a lens that forms an intermediate image, and does not mean a lens that forms an image on the imaging device 42 .
  • the stationary device may be a smart mirror.
  • a smart mirror By using a smart mirror, subjects can take pictures naturally without being conscious of it in their daily lives.
  • a smart mirror means a mirror-type terminal equipped with a mirror capable of connecting to the Internet, etc. and capable of reflecting the subject's own image, and a camera capable of photographing the subject's subject's eye.
  • the imaging unit 40 is provided with a first imaging lens, a light provided around the first imaging lens, and a polarizing plate provided in front of the first imaging lens, if necessary. good too.
  • a polarizing plate provided in front of the first imaging lens, if necessary. good too.
  • the light provided around the first imaging lens may be a ring-shaped light arranged around the outer periphery of the first imaging lens.
  • the lights provided around the first imaging lens may be lights built into the mobile terminal or the stationary device. By doing so, the fundus image information can be obtained more easily.
  • the fundus image obtaining step S102 is a step of obtaining a fundus image.
  • Conventionally known means can be used as a means for acquiring a fundus image.
  • the image acquisition means is not particularly limited, but can be acquired, for example, by photographing with a photographing means such as a camera.
  • the image acquiring means preferably acquires an image of the subject's eye based on the light returned from the subject's eye by including light irradiation means. With such a light irradiation means, it is possible to improve the accuracy of information, particularly regarding the color of the fundus.
  • the fundus image acquisition step S102 includes a continuous fundus image acquisition step as one aspect thereof.
  • the fundus image continuous acquisition process is a process for successively acquiring a plurality of fundus images while changing the relative positions of the subject eye 20 and the imaging unit 40 . A detailed description will be given below.
  • Means for Changing the Relative Position Between the Subject Eye 20 and the Imaging Unit 40 As means for varying the relative position between the subject eye 20 and the imaging unit 40, a conventionally known method can be used. The method is not particularly limited, but for example, it may be changed by changing the direction in which the subject looks at infinity without changing the position of the imaging unit 40, or the imaging unit 40 may be changed without changing the position of the subject. It may be varied by changing the position of 40 .
  • the means for changing the direction in which the subject sees infinity is not particularly limited, but for example, using a fixation target projection means that presents a plurality of fixation targets can be used.
  • the fixation target projection means has a fixation lamp that emits visible light, and by turning on the fixation lamp, presents a plurality of fixation targets to the subject and directs the subject's eye 20 to look in a plurality of directions. can be induced.
  • the number of acquired images is not particularly limited because it is used in the fundus image synthesizing step S104, but for example, it is preferably 30 or more, more preferably 100 or more, and even more preferably 300 or more.
  • the position information specifying step S103 is a step of specifying the position of the fundus image on the fundus 21 based on the information obtained from the image of the subject eye. This step is preferably performed by specifying the position of the fundus image on the fundus 21 based on the characteristic portions that appear in the image of the subject's eye derived from the constituent parts of the subject's eye 20 . Thereby, the accuracy of the fundus information that can be acquired can be improved.
  • FIG. 2 is a diagram showing an example of a subject eye image including a fundus image acquired by a fundus image acquiring means.
  • FIG. 4 is an example of a diagram in which a plurality of fundus images are arranged.
  • the characteristic portion is a first reflection from a portion including the corneal vertex of the subject eye 20, and a second reflection from the anterior lens capsule of the subject eye 20.
  • the reflection includes specifying the position of the fundus image on the fundus 21 based on the positional relationship between the luminescent point 52 of the first reflection and the luminescent point 53 of the second reflection.
  • the distance between the center point 61 of the subject eye 20 and the fundus image is specified based on the distance between 52 and 53 , and the fundus image is determined so that a straight line passing through 52 and 53 passes through the eyeball center point 61 .
  • the orientation of the subject's eye 20 from the center point 61 with respect to the fundus image is specified.
  • FIG. 3 shows changes in the scenery reflected in the subject eye such as movement of the scenery reflected in the pupil of the subject eye, changes in the corneal limbus of the subject eye, movement of the pupil center within the corneal limbus, or changes in the pupil limbus.
  • 1 is an example of a diagram representing .
  • the test eye 20 caused to correspond to the eyeball rotational movement 59 of the test eye
  • detecting changes 56 in the corneal limbus induced in response to rotational movement 59 of the eye such as deforming to , to determine the distance between the center point 61 of the subject eye 20 and the fundus image;
  • a method of specifying the distance between the center point 61 of the subject eye 20 and the fundus image is detected by detecting a change in the pupillary ring portion 57 caused by the movement of the eye, and a combination of these specifying methods is more preferable.
  • conventionally known means for specifying the position of the fundus image on the fundus 21 can be used, and is not particularly limited. and means for simultaneously storing the feature quantity and coordinate data of the detected feature points.
  • the acquired fundus images are the fundus images of the same test eye 20
  • the plurality of fundus images include an image in which a common fundus region and feature points are captured.
  • Position information of other fundus images can be specified based on one fundus image. More specifically, for example, the intersection of blood vessels displayed in each fundus image is extracted as a feature point, and correlation matching is performed on the image data around the intersection of the blood vessels between the two fundus images to determine the common intersection point.
  • Positional information can be specified by finding a pair and superimposing two fundus images on the basis of the position of the found intersection pair.
  • the fundus image synthesizing step S104 is a step of arranging a plurality of fundus images based on the positions specified in the position information specifying step S103 to generate a synthetic fundus image of the subject eye 20. be.
  • the range of the fundus 21 reflected in the fundus image is narrower than that of the indirect mirror optical system.
  • a synthetic fundus image for observing the fundus 21 can be generated.
  • the fundus image synthesizing step S104 Furthermore, by including the fundus image synthesizing step S104, accurate alignment of the imaging unit 40 with respect to the subject eye 20 is not required, and even when the distance between the imaging unit 40 and the subject eye 20 is relatively long, finer images can be obtained. It becomes possible to observe and photograph.
  • FIG. 5 is an example of a synthetic fundus image.
  • the synthesized fundus image is not particularly limited. It can be generated by stitching regions together in an overlapping fashion.
  • the fundus image 72 corresponding to the non-obtained region in the fundus image acquisition step S102 can be captured, and performing the fundus image acquisition step S102 at the eyeball position.
  • the fundus image 72 corresponding to the non-acquired region in the fundus image acquisition step S102 can be complemented.
  • the fundus image 72 corresponding to the region not acquired in the fundus image acquisition step S102 is obtained from the entire fundus of the subject eye 20 by a mathematical model trained by machine learning or deep learning.
  • a standard image can be used to match and interpolate the non-acquired regions.
  • a standard image means a fundus image or the like obtained by a conventionally known image obtaining method.
  • Conventionally known standard image acquisition methods include, but are not particularly limited to, fundus photography using a wide-angle scanning ophthalmoscope.
  • the plurality of fundus images 72 acquired in the fundus image acquisition step S102 can be used as the training data for the mathematical model in the first and second embodiments.
  • the third embodiment as a method of complementing the fundus image 72 corresponding to the region not acquired in the fundus image acquisition step S102, the plurality of fundus images 72 acquired in the fundus image acquisition step S102 are By using it as training data for the mathematical model, it is possible to generate and complement the fundus image 72 corresponding to the region not acquired in the fundus image acquisition step S102. As a result, although the number of computations by the computer is increased, it is not necessary to prepare the standard image of the fundus 21 of the subject, so fundus observation can be performed easily.
  • a learning model trained by machine learning is an example of a mathematical model.
  • a machine learning model is a model that has a predetermined model structure and parameters that vary depending on the learning process, and whose processing parameters are optimized based on experience obtained from training data, thereby improving recognition accuracy. include. That is, the machine learning model is a model that learns optimal processing parameters through learning processing.
  • the algorithm of the machine learning model can be, for example, support vector machine, logistic regression, random forest, neural network, etc., and the type is not particularly limited, but the viewpoint of acquiring a synthetic fundus image even when training data is small. Therefore, it is preferable to use a neural network.
  • Machine learning models that perform the learning include those that have already performed some learning with training data and those that have not yet learned.
  • each of the plurality of fundus images 72 acquired in the fundus image acquiring step S102 and/or the synthesized fundus image of the subject eye 20 is subjected to one or more super-resolution images.
  • Focus correction is preferably performed using techniques. Thereby, the resolution of the fundus image can be improved.
  • super-resolution technology is a technology that converts an existing low-resolution (LR) image into a high-resolution (HR) image using a software algorithm using an image processing method. It is a technology that enhances
  • the display step S105 is a step of displaying the synthesized fundus image.
  • the fundus information acquisition device 4 in this embodiment preferably has a display step S105. As a result, the subject's fundus information can be confirmed more easily.
  • the first implementation can be performed when the plurality of fundus images 72 acquired in the fundus image acquisition step S102 do not correspond to all areas of the fundus 21 of the subject eye 20.
  • a mathematical model trained by machine learning or deep learning is used to identify an eyeball position where the fundus image 72 corresponding to the region not acquired in the fundus image acquisition step S102 can be captured, and the fundus image is obtained at the eyeball position.
  • the subject can be guided to look in the desired direction more easily.
  • the fundus information acquisition device 4 may include other steps as necessary in addition to the above-described steps.
  • Other steps include, but are not particularly limited to, an abnormal site estimation information acquisition step.
  • an abnormal site estimation information acquisition step by inputting the synthetic fundus image into a mathematical model trained by machine learning or deep learning using image data related to retinal disease as training data, information regarding the estimation of the presence or absence of an abnormal site and an abnormal site and an abnormal site estimation information acquiring step of acquiring information about the estimated position of the. As a result, it can be used for early and easy detection of retinal diseases and the like.
  • the fundus information acquisition method according to the present disclosure can be constructed at a very low cost without using special parts or the like, compared to the fundus observation method using a slit lamp microscope or a hand-held slit lamp microscope. Therefore, it can be widely used all over the world.
  • Clinical use is also possible. Specifically, in an examination by an ophthalmologist, a table-mounted fundus camera is used to observe and diagnose the subject eye. requires skill. However, in the present disclosure, regardless of the subject's posture, it is possible to very easily take a fundus image using a mobile terminal or the like simply by making the subject look at infinity. It is possible to use for observation/diagnosis by generating a synthetic fundus image by the synthetic image acquiring means. Therefore, it can be expected to be used for remote medical care in rural areas and support for developing countries.
  • the present disclosure can be similarly used for fundus observation and imaging of animals.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

簡便な光学系の構成により、被験眼に対する撮像部の正確な位置合わせが必要なく、被験眼からの距離が離れている場合においても観察及び撮影が可能な眼底情報取得方法を提供すること。 同一の被験眼の角膜、及び、水晶体のうち少なくとも該被験眼の瞳孔の範囲によって画定される部位を、前記被験眼の眼底に対向する対物レンズとして用いて、該対物レンズを経た光を、該対物レンズに対向配置された撮像部により、前記被験眼の眼底画像の一部として結像させる無限遠補正光学系を備える、 眼底情報取得方法。

Description

眼底情報取得方法及び眼底情報取得装置 関連出願の相互参照
 本出願は、2021年10月29日に出願された日本特許出願番号2021-178241号に基づくもので、ここにその記載内容を援用する。
 本開示は、眼底情報取得方法及び眼底情報取得装置に関する。
 眼底観察において、眼球は角膜と水晶体を備えており、それらは屈折率が高い凸レンズであることから、眼底を出た光は角膜と水晶体で強く屈折し、眼球に非常に近い距離で結像するため、検者が被験者の目をのぞき込む形で観察しても被験眼の眼底を直接観察することは出来ない。そのため、眼底観察においては、直像鏡光学系または倒像鏡光学系のいずれかの観察方法が用いられることが一般的である。
 直像鏡光学系においては、凹レンズで角膜及び水晶体の屈折を打ち消して眼底にピントが合うようにして眼底を観察する。その際、検者は自身の目を被験眼の目に近づける必要があるため、検者は瞳孔の先の眼球内の角度10度程度しか観察することはできない。
 倒像鏡光学系においては、検者は凸レンズを用いることによりの眼底の倒像の中間像を生成させることを通じて、被験眼の眼底を観察する。検者が観察することができる範囲は瞳孔の先の眼球内の角度50度程度である。その際、投射光が被験眼の視軸と同じ場合は角膜反射により眼底を見ることができず、また、投射光が被験眼の視軸から数度傾いてしまうと観察する眼底部分と投射光が照射される眼底部分が異なってしまうため、観察することができなくなる。そのため、検者は投射光と被験眼の視軸と投射光の角度を1~2度とわずかに傾けるか、又はリング状のライト等を用いて光を投射することにより、角膜反射を避けながら被験眼の眼底を観察することが一般的である。
 次に、眼底撮影方法としては、いわゆる台上設置型の眼底カメラが一般的に用いられている。該眼底カメラは倒像鏡光学系の一種であり、従来の倒像鏡光学系を発展させたものである。また、Scanning Laser Ophthalmoscope (SLO)も倒像鏡光学系をさらに発展させた系の一種であり、眼底観察にレーザーを用いるため、度が強い凸レンズを用いると反射を起こしやすくなるため、一部の凸面鏡の代わりに凹面鏡を用いるなど従来型の倒像鏡による観察法に複雑な改良を加えた仕様となっている。
 近年、特に先進国においては高齢化や糖尿病増加に伴い加齢黄斑変性や糖尿病性網膜症などの失明につながる網膜疾患が増加しており、それらを簡便に早期発見する方法として、いわゆるモバイル型眼底カメラの製造販売が注目されている。また、このようなモバイル型眼底カメラは、通常の眼底カメラの普及率が低い発展途上国においても、強く必要とされている。
 上記を踏まえ、近年では、スマートフォンなどと組み合わせて使用することができることを特徴とするモバイル型眼底カメラが製造販売されている。たとえば、特許文献1には、スマートフォン等の移動体端末に取り付けることにより、容易に前眼部の撮影と眼底の撮影との両方の撮影を可能とすることを課題として、光源と撮影用カメラレンズと所定の部材とを備える移動体端末に着脱可能に装着される近接撮影用装置を解決手段として用いることが記載されている。
国際公開第2019/146792号
 しかしながら、このようなモバイル型眼底カメラは、被験眼に非常に近い距離で撮影を行う必要がある。特にスマートフォン等のLEDライトを利用した眼底カメラは、そのライトから照射される光によって被験眼の眼底を照らしながら観察及び撮影を行うため、まぶしさにより被験眼の瞳孔は非常に収縮する(縮瞳する)こと等により、検者による観察が困難になるという問題がある。
 そのため、例えば、散瞳薬を用いて観察する方法が検討されているが、該観察方法においては、前眼部の検査が不十分であって、狭隅角眼(被験眼の角膜と水晶体の距離が短く、散瞳すると周辺に移動した虹彩が角膜と接触して眼内の液の出口を塞いでしまい、眼内の圧力が急上昇して失明してしまうこと)を見過ごしてしまう場合は非常に危険であり、そのため途上国での展開は特にリスクが高い。その上、検者は観察光を被験眼の瞳孔に対して、位置座標をxyz軸としてその全てを誤差1mm以内に合わせて光を投射する必要があり、正確な位置合わせが難しいという問題がある。
 加えて、対物レンズ20D程度(Dは焦点距離(m)の逆数を指す)を眼球から数cmの位置に置く必要があり、10cm以上の距離からの撮影は困難であるという問題がある。対物レンズを眼球から数cmの位置に置く方法については、予め照射部と撮像部を被験眼から適切な位置に固定する部品が世界中で作られているが、被験眼とスマートフォン等の正確な位置合わせが必要となる点において変わりはない。さらに、日常生活の中で被験眼が眼底を撮影されていることを意識しないように自然に撮影することは全くできていないといえる。
 本開示は、上記の問題点に鑑みてなされたものであり、簡便な光学系の構成により、被験眼に対する撮像部の正確な位置合わせが必要なく、被験眼からの距離が十分離れている場合においても観察及び撮影が可能な眼底情報取得方法を提供することを目的とする。
 本発明者らは、上記課題を解決するために鋭意検討した。その結果、無限遠補正光学系を備える眼底情報取得方法により、上記課題を解決できることを見出し、本発明を完成するに至った。
 すなわち、本開示の一態様に係る眼底情報取得方法は、被験眼の角膜、及び、水晶体のうち少なくとも該被験眼の瞳孔の範囲によって画定される部位を、被験眼の眼底に対向する対物レンズとして用いて、該対物レンズを経た光を、該対物レンズに対向配置された撮像部により、前記被験眼の眼底画像の一部として結像させる無限遠補正光学系を備え、撮像部において、被験眼の瞳孔の範囲内に写る眼底画像を含む被験眼の画像を取得する眼底画像取得工程を備える。
 本開示の他の一態様に係る眼底情報取得方法は、同一の被験眼の角膜、及び、水晶体のうち少なくとも該被験眼の瞳孔の範囲によって画定される部位を、被験眼の眼底に対向する対物レンズとして用いて、該対物レンズを経た光を、該対物レンズに対向配置された撮像部により、被験眼の眼底画像の一部として結像させる無限遠補正光学系を備え、被験眼と撮像部との相対的位置を変化させながら、被験眼の瞳孔の範囲内に写る眼底画像を含む被験眼の画像を複数枚取得する眼底画像連続取得工程と、眼底画像から得られる情報に基づいて、眼底画像の眼底における位置を特定する位置情報特定工程と、眼底画像に対して特定された眼底における位置に基づいて、複数枚の眼底画像を配置して被験眼についての合成眼底画像を生成する眼底画像合成工程と、を備える。
 上記眼底情報取得方法において、位置情報特定工程では、被験眼の構成部分に由来して眼底画像に現れた特徴部分に基づいて眼底画像の眼底における位置を特定してもよい。
 上記眼底情報取得方法において、眼底画像に現れた特徴部分は、被験眼の角膜頂点を含む部分からの第1反射、及び、被験眼の水晶体前嚢からの第2反射であり、位置情報特定工程では、第1反射の輝点と第2反射の輝点との位置関係に基づいて、眼底画像の眼底における位置を特定してもよい。
 上記眼底情報取得方法において、眼底画像合成工程では、眼底画像連続取得工程において取得した複数枚の眼底画像が、被験眼の眼底の全ての領域に対応していないときに、機械学習又はディープラーニングによって訓練された数理モデルにより、眼底画像連続取得工程において非取得の領域に対応する眼球位置を特定し、該眼球位置において眼底画像連続取得工程を実施することにより、眼底画像連続取得工程において非取得の領域に対応する眼底画像を取得してもよい。
 上記眼底情報取得方法において、眼底画像合成工程では、眼底画像連続取得工程において取得した複数枚の眼底画像が、被験眼の眼底の全ての領域に対応していないときに、機械学習又はディープラーニングによって訓練された数理モデルにより、眼底画像連続取得工程において非取得の領域に対応する眼底画像を、被験眼の眼底全体の標準画像を用いて補完してもよい。
 上記眼底情報取得方法において、数理モデルの訓練データとして、眼底画像連続取得工程において取得した複数枚の眼底画像を用いてもよい。
 上記眼底情報取得方法において、眼底画像合成工程では、眼底画像連続取得工程において取得した複数枚の眼底画像のそれぞれ、及び/又は、被験眼についての合成眼底画像について、1つ以上の超解像技術を用いて焦点補正を行うものとしてよい。
 上記眼底情報取得方法において、合成眼底画像を、網膜疾患に係る画像データを訓練データとして機械学習又はディープラーニングによって訓練された数理モデルに入力することにより、異常部位の有無の推定に関する情報及び異常部位の位置の推定に関する情報を取得する異常部位推定情報取得工程、をさらに備えてもよい。
 上記眼底情報取得方法において、合成眼底画像を撮像部の表示部に表示する表示工程、をさらに備えてもよい。
 上記眼底情報取得方法において、撮像部は、モバイル端末のカメラであってもよい。
 上記眼底情報取得方法において、撮像部は、定置型装置のカメラであってもよい。
 また、本開示の一態様に係る眼底情報取得装置は、被験眼の角膜、及び、水晶体のうち少なくとも該被験眼の瞳孔の範囲によって画定される部位を、被験眼の眼底に対向する対物レンズとして用いて、該対物レンズを経た光を、該対物レンズに対向配置された撮像部により、被験眼の眼底画像の一部として結像させる無限遠補正光学系に基づいて、撮像部において、前記被験眼の瞳孔の範囲内に写る眼底画像を含む被験眼の画像を取得する。
 本開示によれば、簡便な光学系の構成により、被験眼に対する撮像部の正確な位置合わせが必要なく、被験眼からの距離が十分離れている場合においても観察及び撮影を行うことができる。
無限遠補正光学系の概略図である。 眼底画像取得工程において取得する眼底画像を含む被験眼画像の一例を示す図である。 一実施形態に係る被験眼に映る景色の変化、被験眼の角膜輪部の変化、角膜輪部の中での瞳孔中心の移動、又は瞳孔輪部の変化を表す図の一例である。 複数枚の眼底画像を配置した図の一例である 一実施形態に係る合成眼底画像の概略図である。 モバイル端末を眼底情報取得装置4として用いる一例を示す概略図である。 定置型装置を眼底情報取得装置4として用いる一例を示す概略図である。 一実施形態に係る眼底情報取得装置の実施に係るフローチャートである。 一実施形態に係る眼底情報取得装置のハードウェア構成である。 一実施形態に係る眼底情報取得装置の機能ブロック構成である。
 添付図面を参照して、本開示の概要について説明する。なお、以下の実施形態は、本開示の理解を容易にするためのものであり、本開示を限定して解釈するためのものではない。また、本開示は、その要旨を逸脱しない限り、さまざまな変形が可能である。さらに、当業者であれば、以下に述べる各要素を均等なものに置換した実施形態を採用することが可能であり、係る実施形態も本開示の範囲に含まれる。
 1.眼底情報取得装置4
 図1は、無限遠補正光学系10に基づいて被験眼の画像を取得する眼底情報取得装置4の一例を示す図である。本実施形態の眼底情報取得装置4は、同一の被験眼の角膜23、及び、水晶体22のうち少なくとも該被験眼20の瞳孔24の範囲によって画定される部位を、前記被験眼20の眼底21に対向する対物レンズとして用い、該対物レンズを経た反射光31を、該対物レンズに対向配置された撮像部40により、前記被験眼20の眼底画像の一部として結像させる無限遠補正光学系10に基づいて、前記撮像部40において、前記被験眼20の瞳孔24の範囲内に写る眼底画像を含む被験眼20の画像を取得する装置である。
<ハードウェア構成>
 図9は、眼底情報取得装置4のハードウェア構成の一例を示す図である。眼底情報取得装置4は、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)等のプロセッサ11、メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)等の記憶装置12、有線又は無線通信を行う通信IF(Interface)13、入力操作を受け付ける入力デバイス14、及び情報の出力を行う出力デバイス15を有する。入力デバイス14は、例えば、キーボード、タッチパネル、マウス及び/又はマイク等である。出力デバイス15は、例えば、ディスプレイ、タッチパネル及び/又はスピーカ等である。
 本実施形態においては、撮像部40は、入力デバイス14に含まれるように構成されてもよく、また、眼底情報取得装置10の外部機器に含まれるように構成され、通信回線等を経由して撮像部40により取得した眼底画像が入力デバイス14から入力されるように構成されていてもよい。
 <機能ブロック構成>
 図10は、眼底情報取得装置4の機能ブロック構成の一例を示す図である。眼底情報取得装置4は、記憶部110と、制御部120とを含む。記憶部110は、眼底情報取得装置4が備える記憶装置12を用いて実現することができる。また、制御部120は、眼底情報取得装置4のプロセッサ11が、記憶装置12に記憶されたプログラムを実行することにより実現することができる。また、当該プログラムは、記憶媒体に格納することができる。当該プログラムを格納した記憶媒体は、コンピュータ読み取り可能な非一時的な記憶媒体(Non-transitory computer readable medium)であってもよい。非一時的な記憶媒体は特に限定されないが、例えば、USBメモリ又はCD-ROM等の記憶媒体であってもよい。
 図8は、本開示の一実施形態に係る眼底情報取得装置4の実施に係る各工程を示すフローチャートであり、該各工程は、該眼底情報取得装置4の制御部120により実行される。以下、各工程について図8を用いて詳細に説明する。
 眼底情報取得装置4は、無限遠補正工程S101及び眼底画像取得工程S102を備えており、それらを実施することにより、被験眼20の眼底情報を取得する。また、眼底情報取得装置4は、位置情報特定工程S103、眼底画像合成工程S104、及び表示工程S105を備えてもよい。さらに、眼底情報取得装置4は必要に応じて、その他の工程を含んでいてもよい。
1.1.無限遠補正工程S101
 図8に示すように、無限遠補正工程S101は、無限遠補正光学系10を構成するための工程である。ここで、無限遠補正光学系とは、対物レンズを通過した光が平行光束を形成するように構成したものをいう。本実施形態においては、図1に示すように、無限遠補正光学系10において、観察される対象である被験眼20の眼底21を出た反射光31は、対物レンズである水晶体22及び角膜23では結像せずに、無限遠の平行光束32として撮像部40の結像レンズ41に入り、結像レンズ41により撮像素子42に像を結ぶ。眼底情報取得装置4は、撮像部40において、被験眼の瞳孔の範囲内に写る眼底画像を含む被験眼20の画像を取得する。
 従来の技術として用いられている倒像鏡光学系を用いた眼底観察及び眼底撮影においては被験眼に対する撮像部の正確な位置合わせが必要であった。また、同様に従来の技術として用いられている直像鏡光学系を用いた眼底撮影は、被験眼に対する撮像部の正確な位置合わせが必要であることに加えて、被験眼に非常に近い距離で撮影を行う必要があることから、近距離で光を照射すること等により危険性を伴う場合があった。
 一方で、本実施形態においては、無限遠補正光学系10を構成することにより、従来の倒像鏡光学系のように、対物レンズを経て結像される中間像の位置に合わせて結像レンズ等の位置を調整する必要がないことから、対物レンズ及び結像レンズ等の距離を自在に調整することができ、簡便に眼底観察等を行うことができる。また、被験眼20は、撮像部40から十分離れた距離を確保することができることから、簡便かつ安全に使用することができる。
 本実施形態において、被験者が無限遠を見るように仕向けるための手段としては、特に限定されないが、例えば、眼底情報取得装置4が固視標投影手段を備える態様が挙げられる。それにより、眼底情報取得装置4は、可視光を発する固視灯を有し、固視灯を点灯することによって、被験者に固視標を呈示し、無限遠の方向を見るように被験眼を誘導することができる。
 ここで、本実施形態における無限遠とは、眼底21から出た光が水晶体22及び角膜23を通過した後、厳密な意味での平行光束になることを必須とするものではない。被験者が厳密に無限遠を見ることにより、眼底21を出て水晶体22及び角膜23を通過した光が、平行光束を構成することが好ましいことはいうまでもないが、最低限実用的な要請を満足する一定の精度を以て被験眼20を観察することができる程度に平行光束に近似していれば足りる。最低限実用的な要請を満足する一定の精度としては、少なくとも被験眼20の眼底21の色についての情報を得ることができればよい。
 本実施形態において得られた眼底情報が、少なくとも眼底21の色についての情報を有していれば、緑内障や視神経萎縮の診断に用いることができる。また、眼底21の形状についての情報を有していれば、さらなる網膜疾患等の診断に用いることができる。
 また、無限遠補正光学系10に基づいて被験眼20の画像を取得する眼底情報取得装置4の撮像部40においては、必要に応じて、結像レンズ41を系として構成する2以上の結像レンズを用いてもよい。2以上の結像レンズを用いる場合、撮像素子42に結像するレンズを第1結像レンズ、もう一方のレンズを第2結像レンズという。第2結像レンズは、中間像を形成してもよい。
1.1.1.対物レンズ
 本実施形態においては、被験眼20の角膜23及び水晶体22のうち少なくとも該被験眼20の瞳孔24の範囲によって画定される部位51を、前記被験眼20の眼底21に対向する対物レンズとして用いる。該対物レンズは、被験者が無限遠を見た際に眼底21から出た反射光31が平行光束32となるように構成されていればよく、被験者が眼鏡等を使用している場合においては、前記対物レンズは、被験眼20の角膜23及び水晶体22のうち少なくとも該被験眼20の瞳孔24の範囲によって画定される部位と、眼鏡と、を一体として構成される光学系を意味するものとする。
1.1.1.1.瞳孔24
 瞳孔とは、眼の虹彩によって囲まれた孔であり、光量に応じて、その径を変化させる。瞳孔径の変化は、網膜に投射される光量の調整に寄与する。そのため、被験眼20に対して強い光を照射すると瞳孔24の収縮が生じ、瞳孔径は小さくなる結果、眼底21を観察することができる範囲が狭くなる傾向にある。そのため、本実施形態においては環境光に関しては極力暗くした状態で眼底画像取得を行うことが好ましい。
1.1.1.2.水晶体22
 水晶体とは、眼球内の前方にある透明な凸レンズ状の物質であり、外部からの光を屈折して網膜上に像を結ばせるものをいう。水晶体22は、ヒトが近くを見るときは厚くなり、遠くを見るときは薄くなるように自動的に調節されることにより、遠近にピントを合わせることができる。
 本実施形態においては被験者が無限遠を見るように仕向けることにより、無限遠にピントを合わせる様に水晶体22の厚みが調整される。
1.1.1.3.角膜23
 角膜とは、眼球の前面を覆う透明な膜であり、水晶体と一体として凸レンズ様の役割を果たすものである。
1.1.2.撮像部40
 本実施形態において、撮像部40は対物レンズである水晶体22及び角膜23を通過した平行光束32を結像するための結像レンズ41及び撮像素子42を備える。結像レンズ41は、所望の屈折率を有するものであればよい。
 撮像素子42は、少なくとも可視光及び赤外光に感度を有する。撮像素子42は、特に限定されないが、例えば、隣り合ういくつかの光電変換素子をまとめて1画素として処理するビジング機能が備わっていることが好ましい。それにより、撮像素子42は、光量が少ない被験眼20の眼底21からの反射光31においても、眼底画像を得るのに支障が無い感度を発揮することが可能である。
 図6は、モバイル端末を眼底情報取得装置4として用いる一例を示す概略図である。例えば、撮像部40として、該モバイル端末のカメラが用いられる。モバイル端末としては、特に限定されないが、例えば、スマートフォン、タブレットコンピュータ、ノートパソコン、又はワークステーションコンピュータなどの情報処理装置が挙げられる。撮像部40としてモバイル端末のカメラを用いることにより、図6に示すように、モバイル端末を用いた簡便な光学系を構成することができ、簡便に眼底情報取得を行うことができる。ここで、端末とは、回線やネットワークに接続され、他の機器と通信を行う主体となることができる機器のことを意味する。
 図7は、定置型装置を眼底情報取得装置4として用いる一例を示す概略図である。例えば、撮像部40として、定置型装置のカメラが用いられる。眼底情報取得装置として定置型装置を用いる場合、図7に示すように、定置型装置に対向した状態で被験者が動くことにより、被験眼20と撮像部40との相対的位置を簡便に変化させることができる。また、被験者が何ら操作をすることなく一定時間、本実施形態における眼底画像取得工程S102を連続して行うことができる。
 ここで、撮像部40として、定置型装置を用いる場合は、撮像部40としてモバイル端末を用いる場合と比較して、被験眼20と撮像部40との距離が大きくなる傾向にあり、それに伴い得られる眼底画像の解像度が下がる傾向にある。そのため、被験眼20の眼底画像の中間像を結像させる第2結像レンズをさらに有することにより、より解像度を高めつつ眼底情報取得を行うことが好ましい。なお、本実施形態において、第2結像レンズとは、中間像を形成するレンズを意味し、撮像素子42に結像するレンズを意味しない。
 また、該定置型装置は、スマートミラーであってよい。スマートミラーを用いることにより、被験者が日常生活の中で意識せず自然に撮影することができる。ここで、スマートミラーとは、インターネット接続等ができ、かつ被験者自身の姿を映し出すことができる鏡と、被験者の被験眼を撮影可能なカメラとを備えるミラー型端末を意味する。
 撮像部40は、必要に応じて、第1結像レンズ、該第1結像レンズの周囲に設けられたライト、及び、前記第1結像レンズの前段に設けられた偏光板を備えていてもよい。光照射手段であるライトを備えることにより、被験眼20からの戻り光に基づいて、眼底情報の精度を向上させることができる。また、偏光板を設けることにより、被験眼20以外の物体からの光の表面反射を除去することができ、特に得られる眼底画像の色彩を鮮やかにすることができる。
 第1結像レンズの周囲に設けられたライトは、第1結像レンズの外周に配置されたリング状ライトであってもよい。そのようなライトを用いることにより、被験眼20に対してライトから照射された光がより均一に照射されることができ、高精度の眼底画像を得ることができる。
 撮像部40としてモバイル端末又は定置型装置のカメラを用いる場合、該第1結像レンズの周囲に設けられたライトはモバイル端末又は定置型装置に内蔵されたライトであってもよい。このようにすることにより、より簡便に眼底画像情報を取得することができる。
1.2.眼底画像取得工程S102
 図8に示すように、眼底画像取得工程S102は眼底画像を取得する工程である。眼底画像を取得する手段としては、従来公知の手段を用いることができる。画像取得手段は、特に限定されないが、例えば、カメラ等の撮影手段によって撮影することにより取得することができる。該画像取得手段においては、光照射手段を備えることにより、被験眼からの戻り光に基づいて、被験眼の画像を取得することが好ましい。このような光照射手段より、特に眼底の色についての情報精度を向上させることができる。
 また、眼底画像取得工程S102は、その一の態様として眼底画像連続取得工程を含む。眼底画像連続取得工程は、被験眼20と撮像部40との相対的位置を変化させながら、複数枚の眼底画像を連続して取得するための工程である。以下、詳細に説明する。
1.2.1.被験眼20と撮像部40との相対的位置を変化させる手段
 被験眼20と撮像部40との相対的位置を変化させる手段は、従来公知の方法を用いることができる。該方法としては、特に限定されないが、例えば、撮像部40の位置を変えずに被験者が無限遠を見る方向を変えさせることにより変化させてもよく、また、被験者の位置を変えずに撮像部40の位置を変えることにより変化させてもよい。
 被験者が無限遠を見る方向を変化させる手段としては、特に限定されないが、例えば、複数の固視標を提示するような固視標投影手段を用いることが挙げられる。該固視標投影手段は、可視光を発する固視灯を有し、固視灯を点灯することによって、被験者に複数の固視標を呈示し、複数の方向を見るように被験眼20を誘導することができる。
 画像取得枚数については、眼底画像合成工程S104に用いるため、特に限定されないが、例えば、30以上が好ましく、100枚以上がより好ましく、300枚以上がさらに好ましい。
1.3.位置情報特定工程S103
 図8に示すように、位置情報特定工程S103は、被験眼画像から得られる情報に基づいて、該眼底画像の眼底21における位置を特定する工程である。該工程は、被験眼20の構成部分に由来して前記被験眼画像に現れた特徴部分に基づいて、前記眼底画像の前記眼底21における位置を特定するようにして行うことが好ましい。それにより、取得できる眼底情報の精度を高めることができる。
 図2は、眼底画像取得手段により取得する眼底画像を含む被験眼画像の一例を示す図である。また、図4は、複数枚の眼底画像を配置した図の一例である。まず、該工程における一の実施形態として、該特徴部分を、前記被験眼20の角膜頂点を含む部分からの反射を第1反射、及び、前記被験眼20の水晶体前嚢からの反射を第2反射として、該第1反射の輝点52と該第2反射の輝点53との位置関係に基づいて、該眼底画像の該眼底21における位置を特定することが挙げられる。具体的には、52と53との距離に基づいて被験眼20の中心点61と眼底画像との距離を特定し、さらに、52と53とを通る直線が眼球中心点61を通るように眼底画像を配置することで、眼底画像に対する被験眼20の中心点61からの方位を特定する。このような特定方法により、合成眼底画像生成におけるコンピュータによる演算処理数を削減することができ、迅速かつ簡便に眼底情報を取得することが可能になる。
 図3は、被験眼の瞳に映る景色の移動等の被験眼に映る景色の変化、被験眼の角膜輪部の変化、角膜輪部の中での瞳孔中心の移動、又は瞳孔輪部の変化を表す図の一例である。特に、環境光のみを用いる場合のように入射光が十分ではない無限遠補正光学系10においては、該工程における実施形態として、被験眼の眼球回転移動59に対応して引き起こされる被験眼20に映る景色54の変化を検知することにより、被験眼20の中心点61と眼底画像との距離を特定する方法や、該眼球の回転移動59に対応して角膜輪部55が円形から略楕円形へ変形するといった、該眼球の回転移動59に対応して引き起こされる角膜輪部の変化56を検出して被験眼20の中心点61と眼底画像との距離を特定する方法、該眼球の回転移動59に対応して引き起こされる角膜輪部の中での瞳孔中心の移動58を検出して被験眼20の中心点61と眼底画像との距離を特定する方法、又は該眼球の回転移動59に対応して引き起こされる瞳孔輪部57の変化を検出することにより、被験眼20の中心点61と眼底画像との距離を特定する方法が挙げられ、これらの特定方法を組み合わせることがより好ましい。
 また、該工程におけるその他の実施形態として、眼底画像の眼底21における位置を特定するための従来公知の手段を用いることができ、特に限定されないが、例えば、画像の特徴点を検出する特徴点検出手段と、前記検出された特徴点の特徴量及び座標データを同時に保存する手段とを備える実施形態が挙げられる。ここで、取得された眼底画像は、同一の被験眼20についての眼底画像であるので、複数の眼底画像の中には、共通の眼底領域及び特徴点が撮影されている画像が存在するため、一の眼底画像を基準にして他の眼底画像の位置情報を特定することができる。より具体的には、例えば、各眼底画像に表示されている血管の交点等を特徴点として抽出し、2枚の眼底画像間で血管の交点周辺の画像データの相関マッチングを行って共通する交点ペアを見つけ出し、見つけ出した交点ペアの位置を基準にして2枚の眼底画像を重ね合わせることにより位置情報を特定することができる。
 ここで、「複数の眼底画像の中には、共通の眼底領域及び特徴点が撮影されている画像が存在する」とは、同一の被験眼20についての全ての眼底画像に、共通の眼底領域及び特徴点が撮影されていることを意味するのではなく、必ずしも同一の眼底領域とは限らないものの、取得された複数の眼底画像の間で、互いに共通の眼底領域及び特徴点を写した画像があるという意味である。
1.4.眼底画像合成工程S104
 図8に示すとおり、眼底画像合成工程S104は、位置情報特定工程S103により特定された位置に基づいて、複数枚の眼底画像を配置して、被験眼20についての合成眼底画像を生成する工程である。
 本実施形態においては、無限遠補正光学系10を用いるため倒像鏡光学系と比較して眼底画像に写る眼底21の範囲が狭くなるところ、該眼底画像合成工程S104を備えることにより、広範囲における眼底21を観察するための合成眼底画像を生成することができる。
 さらに、眼底画像合成工程S104を備えることにより、被験眼20に対する撮像部40の正確な位置合わせが必要なく、撮像部40と被験眼20との距離が比較的離れている場合においてもより精細な観察及び撮影をすることが可能となる。
 図5は、合成眼底画像の一例である。合成眼底画像は、特に限定されないが、例えば、位置情報特定工程S103において特定した位置情報に基づいて眼底画像72を配置した後、各眼底画像72で写し込まれた血管71等を含む共通の眼底領域を重ね合わせる形で互いにつなぎ合わせることにより生成することができる。
 ここで、前記眼底画像取得工程S102において取得した複数枚の眼底画像72が、前記被験眼20の眼底21の全ての領域に対応していない場合について、第1の実施形態として、機械学習又はディープラーニングによって訓練された数理モデルにより、前記眼底画像取得工程S102において非取得の領域に対応する眼底画像72を撮像可能な眼球位置を特定し、該眼球位置において前記眼底画像取得工程S102を実施することにより、前記眼底画像取得工程S102において非取得の領域に対応する眼底画像72を補完することができる。
 また、上記第2の実施形態として、機械学習又はディープラーニングによって訓練された数理モデルにより、前記眼底画像取得工程S102において非取得の領域に対応する眼底画像72を、前記被験眼20の眼底全体の標準画像を用いて非取得の領域に対応させ、補完することができる。標準画像とは、従来公知の画像取得方法により取得した眼底画像等を意味する。従来公知の標準画像取得方法としては、特に限定されないが、例えば、広角走査型検眼鏡による眼底撮影等が挙げられる。
 ここで、上記第1の実施形態及び第2の実施形態における数理モデルの訓練データとしては、前記眼底画像取得工程S102において取得した複数枚の眼底画像72を用いることができる。
 さらに、上記第3の実施形態として、前記眼底画像取得工程S102において非取得の領域に対応する眼底画像72を補完する方法として、前記眼底画像取得工程S102において取得した複数枚の眼底画像72を、前記数理モデルの訓練データとして用いることにより、前記眼底画像取得工程S102において非取得の領域に対応する眼底画像72を生成し、補完することができる。これにより、コンピュータによる演算数は増えることになるが被験者の眼底21についての前記標準画像を用意する必要がないため、簡便に眼底観察を行うことができる。
 ここで、機械学習によって訓練された学習モデル(以下、機械学習モデル、とする)は、数理モデルの一例である。機械学習モデルとは、所定のモデル構造と、学習処理によって変動するパラメータとを有し、訓練データから得られる経験に基づいてその処理パラメータが最適化されることで、識別精度が向上するモデルを含む。すなわち、機械学習モデルは、学習処理によって最適な処理パラメータを学習するモデルである。機械学習モデルのアルゴリズムは、例えば、サポートベクターマシン、ロジスティック回帰、ランダムフォレスト、ニューラルネットワーク等を用いることができ、その種類は特に限定されないが、訓練データが少ない場合においても合成眼底画像を取得する観点からは、ニューラルネットワークを用いることが好ましい。当該学習を行う機械学習モデルには、訓練データによりすでに何らかの学習を行っているものもあれば、学習前のものも含む。
 前記眼底画像合成工程S104は、さらに、前記眼底画像取得工程S102において取得した複数枚の眼底画像72のそれぞれ、及び/又は、前記被験眼20についての合成眼底画像について、1つ以上の超解像技術を用いて焦点補正を行うことが好ましい。これにより、眼底画像の解像度を向上させることができる。なお、超解像技術とは、画像処理の方法によって、ソフトウェアアルゴリズムの方式で既存の低解像度(LR)画像を高解像度(HR)画像に変換する技術であり、わかりやすく言えば画素ずらしにより解像度を高める技術である。
1.5.表示工程S105
 図8に示すとおり、表示工程S105は、合成眼底画像を表示する工程である。本実施形態における眼底情報取得装置4は、表示工程S105を有していることが好ましい。それにより、より簡便に被験者の眼底情報を確認することができる。
 また、表示工程S105を備えることにより、前記眼底画像取得工程S102において取得した複数枚の眼底画像72が、前記被験眼20の眼底21の全ての領域に対応していない場合における、第1の実施形態として、機械学習又はディープラーニングによって訓練された数理モデルにより、前記眼底画像取得工程S102において非取得の領域に対応する眼底画像72を撮像可能な眼球位置を特定し、該眼球位置において前記眼底画像取得工程S102を実施する際に、被験者に所望の方向を見させるための誘導をより簡便にすることができる。
1.6.その他の工程
 本実施形態における眼底情報取得装置4においては、上述の工程に加えて、必要に応じてその他の工程を備えていてもよい。その他の工程としては、特に限定されないが、例えば、異常部位推定情報取得工程が挙げられる。本実施形態においては、前記合成眼底画像を、網膜疾患に係る画像データを訓練データとして機械学習又はディープラーニングによって訓練された数理モデルに入力することにより、異常部位の有無の推定に関する情報及び異常部位の推定位置に関する情報を取得する異常部位推定情報取得工程、をさらに備えていてもよい。これにより、網膜疾患等を早期に簡便に発見することに用いることできる。
 本開示により、特に限定されないが、例えば、スマートフォンをはじめとするモバイル端末等を用いて、眼科的診察に用いるための静止画像や動画を取得することが可能である。そして、本開示にかかる眼底情報取得方法は、細隙灯顕微鏡や手持ち細隙灯顕微鏡を用いた眼底観察法と比較して特別な部品等を用いることがなく非常に安価で構築することができるため、世界中で広く普及することができると思われる。
 また、臨床利用も可能である。具体的には、眼科医による診察においては、台上設置型の眼底カメラを用いて被験眼の観察・診断が行われるが、小児や寝たきりの高齢者に対する診察には困難性を伴い、熟練的技術を要する。しかし、本開示においては、被験者の姿勢にかかわらず、無限遠を見させる様に仕向けるだけで、モバイル端末等を用いて非常に容易に眼底画像を撮影することができ、その後、一般的に用いられる合成画像取得手段により合成眼底画像を生成することを通じて観察・診断に用いることが可能となる。そのため、地方の遠隔診療や、途上国支援に利用されることが期待できる。
 さらに、本開示は動物の眼底観察及び撮影に対しても同様に利用可能である。特にペット等の愛玩動物や、被験眼に対する撮像部の位置合わせが特に難しい動物園での大型飼育動物の眼の静止画像及び動画を撮影することが可能であり、上記動物の眼科的所見を取得することができる。
 さらにはビッグデータとしてAIにより解析を行い、眼科医の診断精度を向上させることが期待できる。最終的には、被験者の自己診断ツールとして使用され、眼科診療自体をより発展させることが可能となる。
4…眼底情報取得装置、10…無限遠補正光学系、20…被験眼、21…眼底、22…水晶体、23…角膜、24…瞳孔、25…網膜、26…視神経乳頭、31…光、32…平行光束、40…撮像部、41…結像レンズ、42…撮像素子、51…瞳孔の範囲によって画定される部位、52…第1反射の輝点、53…第2反射の輝点、54…被験眼に映る景色、55…角膜輪部、56…角膜輪部の変化、57…瞳孔輪部、58…角膜輪部の中での瞳孔中心の移動、59…眼球の回転移動、61…眼球中心点、71…血管、72…眼底画像、11…プロセッサ、12…記憶装置、13…通信IF、14…入力デバイス、15…出力デバイス、110…記憶部、120…制御部
 

Claims (15)

  1.  被験眼の角膜、及び、水晶体のうち少なくとも該被験眼の瞳孔の範囲によって画定される部位を、前記被験眼の眼底に対向する対物レンズとして用いて、該対物レンズを経た光を、該対物レンズに対向配置された撮像部により、前記被験眼の眼底画像の一部として結像させる無限遠補正光学系を備え、
     前記撮像部において、前記被験眼の瞳孔の範囲内に写る眼底画像を含む被験眼の画像を取得する眼底画像取得工程、
     を備える眼底情報取得方法。
  2.  同一の被験眼の角膜、及び、水晶体のうち少なくとも該被験眼の瞳孔の範囲によって画定される部位を、前記被験眼の眼底に対向する対物レンズとして用いて、該対物レンズを経た光を、該対物レンズに対向配置された撮像部により、前記被験眼の眼底画像の一部として結像させる無限遠補正光学系を備え、
     前記被験眼と前記撮像部との相対的位置を変化させながら、前記被験眼の瞳孔の範囲内に写る眼底画像を含む被験眼画像を複数枚取得する眼底画像連続取得工程と、
     前記被験眼画像から得られる情報に基づいて、前記眼底画像の前記眼底における位置を特定する位置情報特定工程と、
     前記眼底画像に対して特定された前記眼底における位置に基づいて、複数枚の前記眼底画像を配置して前記被験眼についての合成眼底画像を生成する眼底画像合成工程と、
     を備える眼底情報取得方法。
  3.  前記位置情報特定工程では、前記被験眼の構成部分に由来して前記被験眼画像に現れた特徴部分に基づいて前記眼底画像の前記眼底における位置を特定する、
     請求項2に記載の眼底情報取得方法。
  4.  前記被験眼画像に現れた特徴部分は、前記被験眼の角膜頂点を含む部分からの第1反射、及び、前記被験眼の水晶体前嚢からの第2反射であり、
     前記位置情報特定工程では、前記第1反射の輝点と前記第2反射の輝点との位置関係に基づいて、前記眼底画像の前記眼底における位置を特定する、
     請求項3に記載の眼底情報取得方法。
  5.  前記被験眼画像に現れた特徴部分は、前記被験眼に映る景色であり、
     前記位置情報特定工程では、前記被験眼に映る景色の変化に基づいて、前記眼底画像の前記眼底における位置を特定する、
     請求項3に記載の眼底情報取得方法。
  6.  前記被験眼画像に現れた特徴部分は、前記被験眼の角膜輪部、前記角膜輪部の中での瞳孔中心、又は瞳孔輪部であり、
     前記位置情報特定工程では、前記被験眼の角膜輪部、前記角膜輪部の中での瞳孔中心の移動、又は前記瞳孔輪部の変化に基づいて、前記眼底画像の前記眼底における位置を特定する、
     請求項3に記載の眼底情報取得方法。
  7.  前記眼底画像合成工程では、前記眼底画像連続取得工程において取得した複数枚の眼底画像が、前記被験眼の眼底の全ての領域に対応していないときに、機械学習又はディープラーニングによって訓練された数理モデルにより、前記眼底画像連続取得工程において非取得の領域に対応する眼球位置を特定し、該眼球位置において前記眼底画像連続取得工程を実施することにより、前記眼底画像連続取得工程において非取得の領域に対応する眼底画像を補完する、
     請求項2に記載の眼底情報取得方法。
  8.  前記眼底画像合成工程では、前記眼底画像連続取得工程において取得した複数枚の眼底画像が、前記被験眼の眼底の全ての領域に対応していないときに、機械学習又はディープラーニングによって訓練された数理モデルにより、前記眼底画像連続取得工程において非取得の領域に対応する眼底画像を、前記被験眼の眼底全体の標準画像を用いて補完する、
     請求項2に記載の眼底情報取得方法。
  9.  前記数理モデルの訓練データとして、前記眼底画像連続取得工程において取得した複数枚の眼底画像を用いる、
     請求項7又は8に記載の眼底情報取得方法。
  10.  前記眼底画像合成工程では、前記眼底画像連続取得工程において取得した複数枚の眼底画像のそれぞれ、及び/又は、前記被験眼についての合成眼底画像について、1つ以上の超解像技術を用いて焦点補正を行う、
     請求項2に記載の眼底情報取得方法。
  11.  前記合成眼底画像を、網膜疾患に係る画像データを訓練データとして機械学習又はディープラーニングによって訓練された数理モデルに入力することにより、異常部位の有無の推定に関する情報及び異常部位の位置の推定に関する情報を取得する異常部位推定情報取得工程、をさらに備える、
     請求項2に記載の眼底情報取得方法。
  12.  前記合成眼底画像を表示する表示工程、をさらに備える、
     請求項2に記載の眼底情報取得方法。
  13.  前記撮像部は、モバイル端末のカメラである、
     請求項1又は2に記載の眼底情報取得方法。
  14.  前記撮像部は、定置型装置のカメラである、
     請求項1又は2に記載の眼底情報取得方法。
  15.  被験眼の角膜、及び、水晶体のうち少なくとも該被験眼の瞳孔の範囲によって画定される部位を、前記被験眼の眼底に対向する対物レンズとして用いて、該対物レンズを経た光を、該対物レンズに対向配置された撮像部により、前記被験眼の眼底画像の一部として結像させる無限遠補正光学系に基づいて、
     前記撮像部において、前記被験眼の瞳孔の範囲内に写る眼底画像を含む被験眼の画像を取得する、眼底情報取得装置。
     
PCT/JP2022/039052 2021-10-29 2022-10-20 眼底情報取得方法及び眼底情報取得装置 WO2023074517A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280039449.1A CN117460447A (zh) 2021-10-29 2022-10-20 眼底信息获取方法及眼底信息获取装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-178241 2021-10-29
JP2021178241A JP2023067207A (ja) 2021-10-29 2021-10-29 眼底情報取得方法及び眼底情報取得装置

Publications (1)

Publication Number Publication Date
WO2023074517A1 true WO2023074517A1 (ja) 2023-05-04

Family

ID=86159427

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/039052 WO2023074517A1 (ja) 2021-10-29 2022-10-20 眼底情報取得方法及び眼底情報取得装置

Country Status (3)

Country Link
JP (1) JP2023067207A (ja)
CN (1) CN117460447A (ja)
WO (1) WO2023074517A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130258281A1 (en) * 2010-09-24 2013-10-03 Tufts University Imaging adaptor for camera
US20140085604A1 (en) * 2012-09-27 2014-03-27 Wavetec Vision Systems, Inc. Geometric optical power measurement device
JP2016526984A (ja) * 2013-07-02 2016-09-08 マサチューセッツ インスティテュート オブ テクノロジー 眼の処方を判定するための装置および方法
US20190038132A1 (en) * 2017-08-04 2019-02-07 Ho Wa LAI Adaptor for an image capture device for fundus photography
WO2019146792A1 (ja) * 2018-01-26 2019-08-01 株式会社Oui 近接撮影用装置
US10531794B1 (en) * 2018-08-10 2020-01-14 Alexander Reis Photorefractive flash device and system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130258281A1 (en) * 2010-09-24 2013-10-03 Tufts University Imaging adaptor for camera
US20140085604A1 (en) * 2012-09-27 2014-03-27 Wavetec Vision Systems, Inc. Geometric optical power measurement device
JP2016526984A (ja) * 2013-07-02 2016-09-08 マサチューセッツ インスティテュート オブ テクノロジー 眼の処方を判定するための装置および方法
US20190038132A1 (en) * 2017-08-04 2019-02-07 Ho Wa LAI Adaptor for an image capture device for fundus photography
WO2019146792A1 (ja) * 2018-01-26 2019-08-01 株式会社Oui 近接撮影用装置
US10531794B1 (en) * 2018-08-10 2020-01-14 Alexander Reis Photorefractive flash device and system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IQBAL USAMA: "Smartphone fundus photography: a narrative review", INTERNATIONAL JOURNAL OF RETINA AND VITREOUS, vol. 7, no. 1, 1 December 2021 (2021-12-01), XP093060808, DOI: 10.1186/s40942-021-00313-9 *
SUTO, SHIN.: "Smartphones change! Ophthalmic examination Utilization of smartphones in posterior ocular care", GRAPHIC JOURNAL OF OPHTHALMOLOGY, vol. 5, no. 5, 10 October 2016 (2016-10-10), pages 420 - 425, XP009545751 *

Also Published As

Publication number Publication date
JP2023067207A (ja) 2023-05-16
CN117460447A (zh) 2024-01-26

Similar Documents

Publication Publication Date Title
JP5651119B2 (ja) 眼の画像化装置及び方法
EP2549913B1 (en) Apparatus and method for imaging an eye
JP7304780B2 (ja) 眼科装置
CN111885954B (zh) 图像处理方法、存储介质及眼科装置
US11013400B2 (en) Ophthalmic apparatus
WO2021029231A1 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
US10881294B2 (en) Ophthalmic apparatus
JP7381671B2 (ja) スリットランプ顕微鏡
JP7345594B2 (ja) スリットランプ顕微鏡及び眼科システム
JP2022050738A (ja) スリットランプ顕微鏡システム
JP7266375B2 (ja) 眼科装置及びその作動方法
JP2021097989A (ja) 眼科装置、眼科装置の制御方法、及びプログラム
WO2023074517A1 (ja) 眼底情報取得方法及び眼底情報取得装置
WO2022145129A1 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
US20220022743A1 (en) Portable device for visual function testing
US11219363B2 (en) Ophthalmic apparatus and ophthalmic optical coherence tomography method
EP3440990A1 (en) System for imaging a fundus of an eye
JP7434729B2 (ja) 眼科装置、および眼科装置制御プログラム
JP7314020B2 (ja) 撮影装置、撮影装置の制御方法、及びプログラム
JP7423912B2 (ja) 眼科装置、および眼科装置制御プログラム
JP7491218B2 (ja) 眼科装置、および眼科装置制御プログラム
JP2022075732A (ja) 眼科装置、及び眼科情報処理プログラム
EP3440989A1 (en) System for imaging an eye
CN116829049A (zh) 眼科信息处理装置、眼科装置、眼科信息处理方法以及程序
JP2018166631A (ja) 眼科撮影装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22886845

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280039449.1

Country of ref document: CN