WO2022215648A1 - ドライアイ分類に関する方法及びそれを用いた眼科装置、並びに学習器 - Google Patents

ドライアイ分類に関する方法及びそれを用いた眼科装置、並びに学習器 Download PDF

Info

Publication number
WO2022215648A1
WO2022215648A1 PCT/JP2022/016580 JP2022016580W WO2022215648A1 WO 2022215648 A1 WO2022215648 A1 WO 2022215648A1 JP 2022016580 W JP2022016580 W JP 2022016580W WO 2022215648 A1 WO2022215648 A1 WO 2022215648A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
blur
eye
dry eye
classification
Prior art date
Application number
PCT/JP2022/016580
Other languages
English (en)
French (fr)
Inventor
則彦 横井
淳 川井
玲二 吉岡
健一 吉田
大地 山本
Original Assignee
京都府公立大学法人
株式会社レクザム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京都府公立大学法人, 株式会社レクザム filed Critical 京都府公立大学法人
Priority to KR1020237037639A priority Critical patent/KR20230165812A/ko
Publication of WO2022215648A1 publication Critical patent/WO2022215648A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/101Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the tear film
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/107Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining the shape or measuring the curvature of the cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography

Definitions

  • the present invention relates to an ophthalmic device that measures the state of the tear film on the corneal surface of an eye to be examined and classifies dry eye.
  • treatment strategies are determined by classifying dry eye by cause.
  • a method for classifying such dry eye a method has been proposed in which the eye to be examined is dyed with a fluorescent substance, fluorescein, and the tear film breakdown pattern is observed with a slit lamp, whereby the doctor qualitatively classifies the eye. (For example, see Non-Patent Document 1).
  • a device has also been proposed to improve the reliability of the classification of tear film breakdown patterns (see Patent Document 1, for example).
  • Patent Document 1 also describes a device for improving reliability by a non-invasive method, it is necessary to specify the destruction area even in that device, and it is necessary to specify the destruction region.
  • a threshold value is used to determine whether or not the area is a destruction area. Therefore, there is a problem that the information of the portion smaller than the threshold is not used for classification, and the accuracy of classification may be lowered.
  • the present invention has been made to solve the above problems, and an object of the present invention is to provide an ophthalmologic apparatus and the like that can classify dry eye with higher accuracy by a non-invasive and objective technique.
  • an ophthalmic apparatus is an ophthalmic apparatus that measures the state of the tear film on the corneal surface of an eye to be examined and classifies dry eye using the measurement results,
  • Light projecting means for projecting a predetermined pattern onto the corneal surface, photographing means for repeatedly photographing the reflected image of the pattern reflected from the corneal surface, and a maximum portion of the luminance value of the reflected image for each of the plurality of photographed reflected images.
  • acquisition means for acquiring blur information according to a value indicating the degree of blur; training input information that is a plurality of pieces of blur information in time series; and dry eye classification results corresponding to the training input information.
  • Classification means for acquiring a dry eye classification result by applying a plurality of time-series blur information acquired by the acquisition means to a learner trained using a plurality of pairs of training output information; and output means for outputting the classification results obtained by the classification means.
  • the blur information is an image displaying a plurality of values indicating the degree of blur corresponding to a plurality of measurement points on the corneal surface of the subject's eye, or a plurality of values indicating the degree of blur corresponding to the plurality of measurement points. may be a numeric sequence in which are arranged in a predetermined order.
  • the calculation means calculates the severity information, which is a value corresponding to the sum in the time direction of the values indicating the degree of blurring of the maximum portion of the luminance value of the reflected image repeatedly photographed. and the output means may also output severity information.
  • the classification result is any one selected from tear-deficient type, water-wettable type, evaporative type, and combination type of evaporative type and water-wettable type. may be
  • the learning device includes a set of training input information, which is a plurality of time-series blur information, and training output information, which is a dry eye classification result corresponding to the training input information.
  • the blur information is information corresponding to the degree of blur of the maximum part of the brightness value of the reflection image of the predetermined pattern reflected on the corneal surface of the eye to be examined.
  • a method relating to dry eye classification is a method relating to dry eye classification in which the state of the tear film on the corneal surface of an eye to be examined is measured, and dry eye is classified using the measurement results.
  • a step of projecting a predetermined pattern onto the corneal surface a step of repeatedly photographing a reflected image of the pattern reflected from the corneal surface; a step of acquiring blur information according to a value indicating the degree of , training input information that is a plurality of pieces of blur information along a time series, and training output that is a dry eye classification result corresponding to the training input information acquiring a dry eye classification result by applying a plurality of time-series blur information acquired in the step of acquiring blur information to a learner trained using a plurality of pairs of information; and outputting the classification result obtained in the step of obtaining the dry eye classification result.
  • dry eye can be classified non-invasively and objectively. Also, by applying the blur information to the learning device, it becomes possible to realize classification with higher accuracy.
  • FIG. 3 Schematic diagram showing the configuration of an ophthalmologic apparatus according to an embodiment of the present invention.
  • 3 is a flow chart showing the operation of the ophthalmologic apparatus according to the same embodiment;
  • FIG. 4 is a diagram showing an example of an eye to be inspected, etc. on which pattern light is projected according to the same embodiment;
  • FIG. 4 is a diagram showing an example of an eye to be inspected, etc. on which pattern light is projected according to the same embodiment;
  • FIG. 4 is a diagram showing an example of changes in luminance values in the radial direction of the subject's eye in the same embodiment;
  • FIG. 4 is a diagram showing an example of luminance in a direction perpendicular to the ring pattern in the same embodiment; A diagram for explaining an example of each layer of a learning device according to the same embodiment. A diagram for explaining the correct answer rate of the classification result in the experiment of the same embodiment.
  • the ophthalmologic apparatus calculates blur information according to a value indicating the degree of blur of the maximum part of the luminance value of the reflected image of the pattern projected onto the corneal surface, and calculates the blur information according to the calculated time series. It classifies dry eye by applying multiple blur information to a learner.
  • FIG. 1 is a schematic diagram showing the configuration of an ophthalmologic apparatus 1 according to this embodiment.
  • the ophthalmologic apparatus 1 measures the state of the tear film on the corneal surface of the subject's eye 2 and classifies dry eye using the measurement results.
  • Configuration of an optical system having an aperture (pinhole) 5 and an imaging lens 6, an illumination light source 7, a light projecting means 13, an imaging means 14, an acquisition means 15, a storage means 16, and a classification means 17 , calculation means 18 , output means 19 , and control means 20 .
  • the ophthalmologic device 1 may measure the state of the tear film to classify dry eye, or may have a function such as a keratometer.
  • the light projecting means 13 projects a predetermined pattern onto the corneal surface of the eye 2 to be examined.
  • the predetermined pattern may be, for example, a linear pattern, a dotted pattern, or a combination thereof.
  • a linear pattern may be, for example, a pattern having a plurality of lines.
  • the line may be curved or straight, for example.
  • the curvilinear pattern may be, for example, a multiple ring pattern having a plurality of concentric rings.
  • the dotted pattern may be, for example, a pattern having a plurality of points.
  • the pattern having a plurality of points may be, for example, a pattern of regularly arranged points or a pattern of randomly arranged points.
  • the pattern of multiple points may be, for example, a set of multiple points arranged at grid points such as a square grid, a rectangular grid, or a triangular grid. It is preferable that the lines included in the predetermined pattern have the same width and the points have the same diameter. Also, the pattern is preferably projected over the entire cornea of the eye 2 to be examined.
  • the light projecting means 13 has the placido dome 11 and the measurement light source 12, and the predetermined pattern is a plurality of concentric circular patterns formed by the placide dome 11, that is, a multiple ring pattern ( The case of a platyd ring) will be mainly described.
  • the placido dome 11 is a dome-shaped optical mask having a plurality of concentric ring-shaped openings, and a plurality of concentric circular patterns are formed on the anterior ocular segment of the eye 2 to be examined by measuring light emitted from the measurement light source 12 .
  • a ring pattern is projected.
  • the wavelength of the measurement light emitted from the measurement light source 12 does not matter.
  • the measurement light may be, for example, visible light, near-infrared light, or the like. When the measurement light is visible light, its wavelength may be, for example, 650 nm or 750 nm. Any method of projecting the ring pattern onto the eye 2 to be examined may be used. Also, the projection of the ring pattern onto the subject's eye 2 is already known, and detailed description thereof will be omitted.
  • the illuminating light source 7 is a light source for illuminating the eye 2 to be examined, and irradiates the eye 2 to be examined so that the examiner can check the condition of the eyelids of the subject.
  • the illumination light emitted from the illumination light source 7 may be, for example, near-infrared light. Note that the illumination light source 7 and the measurement light source 12 may each be arranged annularly around the optical axis of the optical system.
  • the ring pattern projected onto the corneal surface of the subject's eye 2 is reflected on the corneal surface.
  • the reflected pattern forms an image through the eyepiece lens 3, the field lens 4, the diaphragm 5, and the imaging lens 6.
  • FIG. A photographing means 14 photographs a reflected image of the pattern.
  • the photographing means 14 may be, for example, a CCD image sensor, a CMOS image sensor, or the like.
  • the photographing means 14 repeatedly photographs the reflected image of the pattern. This repeated imaging may be performed at predetermined time intervals. By repeating photographing in this way, it is possible to acquire information about the subject's eye 2 in time series.
  • the acquisition means 15 calculates a value indicating the degree of blurring of the maximum luminance value in the reflected image captured by the imaging means 14 . If the predetermined pattern has lines, the obtaining means 15 may calculate a value indicating the degree of blurring of the maximum luminance value in the direction perpendicular to the line of the photographed reflected image. Further, when the predetermined pattern has points, the obtaining means 15 may calculate a value indicating the degree of blurring of the maximum luminance value in any direction passing through the points of the photographed reflected image. Note that the value indicating the degree of blur for a point is preferably a value indicating the degree of blur on a straight line passing through the center of the point of the reflected image.
  • the acquiring means 15 may specify the center position of the reflected image of the ring pattern. Identification of the center position may be performed, for example, by identifying the center of the smallest diameter ring included in the multiple ring pattern. Then, the acquisition unit 15 may calculate a value indicating the degree of blur at the intersection of the ring pattern and the straight line extending radially from the specified center position at every predetermined angle.
  • the acquiring unit 15 may use luminance values in the vicinity at the same distance from the center position.
  • the neighboring brightness values may be, for example, brightness values for each ⁇ from the angle ⁇ n ⁇ to the angle ⁇ +n ⁇ extending in the radial direction from the central position.
  • n is an integer of 1 or more
  • is a positive real number.
  • the acquisition unit 15 acquires data in a straight line extending radially from the specified center position at angular intervals ⁇ , it is preferable that n ⁇ /2.
  • is not particularly limited, it may be, for example, 5 degrees, 10 degrees, 15 degrees, or the like.
  • is 10 degrees
  • luminance values on 36 straight lines radially extending from the central position are sampled.
  • the obtaining means 15 obtains the angles ⁇ n ⁇ , ⁇ (n ⁇ 1) ⁇ , . ) ⁇ and ⁇ +n ⁇ , the representative value of 2n+1 luminance values may be acquired as the luminance value of the angle ⁇ .
  • the representative value may be, for example, an average value, a median value, a maximum value, or the like.
  • the obtaining means 15 obtains the luminance value on the straight line of the angle ⁇ + ⁇ , the luminance value on the straight line of the angle ⁇ +2 ⁇ , the luminance value on the straight line of the angle ⁇
  • a luminance value on a straight line of the angle ⁇ -2 ⁇ may also be used.
  • the obtaining means 15 may obtain the luminance values on the straight line corresponding to the angle ⁇ as representative values of the plurality of luminance values in order from the center side.
  • the acquiring unit 15 may sequentially sample luminance value data on a straight line with an angle ⁇ from the center side.
  • the acquisition unit 15 may acquire the luminance value on the straight line extending in the radial direction for each straight line extending in the radial direction from the specified center position at every ⁇ .
  • FIG. 3 is a diagram showing an example of a photographed image of the subject's eye 2 in which the tear layer on the corneal surface is not destroyed
  • FIG. 4 is a view of the subject's eye 2 in which the tear layer on the corneal surface is destroyed. It is a figure which shows an example of a picked-up image. More specifically, FIGS. 3(a) and 4(a) are photographed images of the ring pattern reflected on the corneal surface, and FIGS. 3(b) and 4(b) are taken from the center position. 3(c) and 4(c) are diagrams in which straight lines extending in the radial direction are superimposed on a photographed image at predetermined angles, and colors are superimposed according to the calculated value indicating the degree of blur. It is a photographed image displayed by pressing.
  • FIG. 5 shows the relationship between the distance from the center of the reflected image of the ring pattern and the luminance value for a given angular direction.
  • the luminance values shown in FIG. 5 are, for example, sampled as described above from the photographed image of the subject's eye.
  • the dashed line shows the change in luminance value for an image in which the ring is not collapsed, that is, an image of the subject's eye in which the tear film is not destroyed.
  • the solid line shows the change in the luminance value of the image of the subject's eye in which .
  • the brightness value peaks at the position of the ring of the reflected image.
  • the shape of the luminance value peak for the subject eye in which the tear film has been destroyed is duller than the shape of the luminance value peak for the subject eye in which the tear film has not been destroyed. , and it can be seen that the image is blurred.
  • the shape of the luminance value peak for the eye without tear film disruption is sharper than the shape of the luminance value peak for the eye with tear film disruption. It has a shape.
  • the value indicating the degree of blurring may be, for example, a measurement result regarding the state of the tear film on the corneal surface of the subject's eye 2 . It should be noted that the value indicating the degree of blur calculated by the acquisition unit 15 can be any value as long as the degree of blur of the maximum luminance value (peak) of the reflected image of the pattern can be known as a result. can be anything.
  • the value indicating the degree of blurring may be, for example, a degree of blurring that increases as the degree of blurring increases, or a kurtosis degree that decreases as the degree of blurring increases. In this embodiment, a case where the value indicating the degree of blur is the degree of blur will be mainly described.
  • the acquisition means 15 acquires blur information corresponding to a value indicating the degree of blur calculated using a certain captured image. Since the acquisition unit 15 normally calculates a plurality of values indicating the degree of blur from the captured image, the blur information indicates the degree of blur of the maximum luminance value at a plurality of positions of the reflected image of the pattern. It becomes information according to multiple values.
  • the plurality of positions are preferably a plurality of measurement points over the entire cornea of the subject's eye 2 . This is because classification can be performed using information on the entire cornea of the subject's eye 2 .
  • This blur information may be, for example, information containing a plurality of values indicating the degree of blur. As shown in FIGS.
  • the plurality of values indicating the degree of blur are displayed. It may be an image, or other information according to multiple values indicating the degree of blurring.
  • the image displaying the value indicating the degree of blur may display the value indicating the degree of blur in grayscale or color, for example.
  • one piece of blur information is acquired from one captured image. Therefore, blur information is acquired for each of the plurality of photographed reflected images in response to repeatedly photographing the reflected images of the pattern.
  • a plurality of pieces of blur information obtained in this manner are in time series.
  • the acquisition unit 15 acquires blur information, which is an image displaying a value indicating the degree of blur.
  • FIG. 6 is a diagram showing the relationship between the luminance value for one peak and the distance from the center, which is obtained in the linear direction of the angle ⁇ .
  • each circular figure shows the relationship between the luminance value for the sampling point and the distance from the center.
  • the sampling point M p corresponds to the maximum value, and the suffix increases or decreases as the distance from the sampling point M p increases or decreases.
  • the acquisition unit 15 may calculate the degree of blur B for a certain peak using the following equation.
  • the luminance value of sampling point M p+d is defined as I p+d .
  • d is any integer.
  • I p is the luminance value that is the local maximum.
  • a and b are positive real number constants, and k is an integer of 1 or more.
  • the method for calculating the degree of blur B is an example, and the degree of blur may be calculated by other methods.
  • the degree of blur may be calculated using the gradients of a plurality of luminance values on the central side of the peak and the gradients of a plurality of luminance values on the outer side of the peak.
  • the degree of blur B is a value relating to one peak of the luminance value, but as shown in FIG. , and such a straight line exists for every angle of ⁇ . Therefore, the acquiring unit 15 may calculate the degree of blur for each luminance value peak on each straight line radially extending from the central position of the reflected image of the multiple ring pattern at every predetermined angle. In this way, the degree of blur can be calculated for each measurement point on the entire cornea of the eye 2 to be examined.
  • the position of each measurement point is the position of the intersection of a straight line radially extending from the center position of the reflected image at equal intervals and each ring of the multiple ring pattern.
  • the acquisition unit 15 may calculate the degree of blur for a predetermined range or region of the cornea of the eye 2 to be examined, for example. Further, when the photographing of the reflected image of the pattern is repeated, the acquisition unit 15 may calculate a plurality of degrees of blur at each measurement point of the cornea for each reflected image of the repeatedly photographed images. . Acquisition of the degree of blur is already known, and detailed description thereof will be omitted. For obtaining the degree of blur, see, for example, JP-A-2020-18475. Note that the degree of blurring in this embodiment corresponds to the dullness degree in Japanese Patent Application Laid-Open No. 2020-18475. The obtaining unit 15 may start obtaining the blur information using the photographed image from the time when the eyelid 2 is detected to be open. For example, the time point when the reflected image of the pattern comes to be included in the captured image may be the time point when the open eyelid is detected.
  • a learning device is stored in the storage means 16 .
  • This learning device is learned using a plurality of sets of training input information, which is a plurality of time-series blur information, and training output information, which is a dry eye classification result corresponding to the training input information. It is a thing. This learning device will be described later.
  • the process by which the learning device is stored in the storage means 16 does not matter.
  • the learning device may be stored in the storage means 16 via a recording medium, or the learning device transmitted via a communication line or the like may be stored in the storage means 16 .
  • the storage means 16 is preferably implemented by a non-volatile recording medium, but may be implemented by a volatile recording medium.
  • the recording medium may be, for example, a semiconductor memory, a magnetic disk, an optical disk, or the like.
  • the classification means 17 acquires dry eye classification results by applying a plurality of time-series blur information calculated by the acquisition means 15 to the learning device stored in the storage means 16 .
  • This classification result may be, for example, any one selected from tear-deficient type, poor wettability type, evaporative type, and combined type of evaporative type and poor wettability type.
  • the classification result may include normal, ie, not dry eye.
  • the classification result may be any one selected from, for example, tear-deficient type, water wettability type, evaporative type, combined type of evaporative type and water wettability type, and normal. good.
  • the calculation means 18 calculates the severity information, which is a value corresponding to the sum in the time direction of the values indicating the degree of blurring of the maximum luminance value of the repeatedly photographed reflected image.
  • the severity information is a value calculated using the sum in the time direction of the values indicating the degree of blurring of the maximum luminance value of the reflected image. For example, the value increases as the sum increases. There may be.
  • the severity information may be, for example, the sum of the values indicating the degree of blur in the time direction, that is, the sum of the values indicating the degree of blur during the measurement period, or the value indicating the degree of blur per unit time, that is, It may be a value obtained by dividing the sum of the values indicating the degree of blur in the time direction by the measurement time.
  • the measurement period may be, for example, a period from the start of acquisition of blur information until a predetermined measurement time (for example, 10 seconds) elapses.
  • the value indicating the degree of blur to be summed is usually a value corresponding to one piece of blur information.
  • the value indicating the degree of blur may be, for example, a value calculated using the captured image by the obtaining unit 15, or a value obtained from blur information.
  • a representative value of a plurality of values for example, degree of blur
  • the representative value may be, for example, an average value, a median value, a maximum value, or the like.
  • the number of values indicating the degree of blur obtained from each captured image may differ, so it is preferable to use the representative value in this manner.
  • the severity information may be an index that indicates the degree of severity as a result.
  • the severity information may be, for example, information that the severity increases as the value increases, or information that the severity decreases as the value increases.
  • the target of the sum is the degree of blur
  • the former is used
  • the target of the sum is the kurtosis
  • the latter is used.
  • the output means 19 outputs the classification result acquired by the classification means 17 and the severity information calculated by the calculation means 18 . From this output, it is possible to know the dry eye classification result of the subject's eye 2 and its severity.
  • this output may be displayed on a display device (for example, a liquid crystal display or an organic EL display), may be transmitted to a predetermined device via a communication line, may be printed by a printer, or may be output by a speaker. It may be audio output, may be stored in a recording medium, or may be handed over to another component.
  • the output means 19 may or may not include an output device (for example, a display device, a printer, etc.).
  • the output means 19 may be realized by hardware, or may be realized by software such as a driver for driving those devices.
  • the control means 20 turns on/off the light source 12 for measurement, photographs by the imaging means 14, acquires blur information by the acquisition means 15, classifies dry eye by the classification means 17, and calculates and outputs severity information by the calculation means 18. It controls the timing of processing related to the output by the means 19, and the like.
  • the learner is trained using multiple pairs of training input information and training output information, as described above.
  • a set of input information for training and output information for training is sometimes called training information.
  • the learner may be, for example, the learning result of a neural network (NN) or the learning result of other machine learning.
  • the neural network may be, for example, a convolutional neural network (CNN: Convolutional Neural Network), or may be another neural network (for example, a neural network composed of fully connected layers, etc.).
  • a convolutional neural network is a neural network that has one or more convolutional layers. Also, when a neural network has at least one intermediate layer (hidden layer), learning of the neural network may be considered as deep learning.
  • the information input to the learning device is a plurality of pieces of blur information in time series.
  • the blur information may be, for example, a two-dimensional image, or may be a numerical sequence in which a plurality of values indicating the degree of blur are arranged in a predetermined order.
  • the input to the learning machine is such blur information arranged along the time series.
  • the input to the learning device is three-dimensional information in which the spatial direction is two-dimensional and the temporal direction is one-dimensional.
  • the input to the learning device is information in which such numerical strings are arranged in time series. In this embodiment, the case where the input to the learning device is three-dimensional information in which two-dimensional images are arranged in time series will be mainly described.
  • information such as parameters necessary for constructing the learning device may be stored. This is because, even in the latter case, the learning device can be configured using information such as the parameters, so it can be considered that the learning device is substantially stored in the storage means 16 .
  • the case where the learning device itself is stored in the storage means 16 will be mainly described.
  • a learner is generated by learning a plurality of training information, as described above.
  • the training input information may be, for example, measurement results regarding the subject's eye, that is, a plurality of time-series blur information obtained by the obtaining means 15 .
  • the training output information may be, for example, dry eye classification results classified by an expert such as a doctor for the subject's eye for which the training input information paired with the training output information is acquired.
  • the training output information is the same as the classification result by the classification means 17 .
  • the training output information may be any one selected from, for example, tear-reduced type, wettability-reduced type, evaporative type, and combined type of evaporative type and wettability-reduced type, It may be any one selected from tear-deficient type, water wettability type, evaporative type, combined type of evaporative type and water wettability type, and normal. Also, if another classification is performed by the classification means 17, the training output information may correspond accordingly.
  • a learner is generated by learning a plurality of sets of such training input information and training output information.
  • This learning machine performs machine learning on a plurality of sets of training input information, which is a plurality of pieces of time-series blur information, and training output information, which is dry eye classification results corresponding to the training input information. This is the result. Therefore, when a plurality of pieces of blur information along the time series of the subject's eye 2 to be classified are applied to this learning device, dry eye classification results for the subject's eye 2 to be classified can be obtained.
  • the input information for training and the plurality of pieces of blur information along the time series of the subject's eye 2 to be classified are preferably the same information. That is, it is preferable that the time interval between the blur information of both pieces of information, the number of blur information, the number of pixels of one piece of blur information, the number of information, and the like are the same.
  • the neural network of the learner may be, for example, a neural network for classifying multiple images in time series (that is, three-dimensional information), and classifying multiple numerical sequences in time series. It may be a neural network for A 3D-CNN, for example, is known as a neural network used to classify three-dimensional information including the temporal direction like the former. As the latter, for example, a neural network having a fully connected layer may be used as a neural network for classifying a plurality of numerical sequences in time series. In this embodiment, a case where the learner is the learning result of 3D-CNN will be mainly described.
  • each layer of the 3D-CNN is not particularly limited, but for example, the configuration shown in FIG. 7 may be used.
  • the input size and the output size respectively indicate (the number of information in the time direction, the number of pixels in the X-axis direction, the number of pixels in the Y-axis direction, and the number of channels). That is, information in which 100 pieces of blur information, which are 150 ⁇ 150 images, are arranged in the time direction is input to the learning device.
  • This blur information may be, for example, an image showing the degree of blur in 8-bit (256 levels) grayscale, as in FIG. 3C and FIG. 4C.
  • the size and stride are (the number of information in the time direction, the number of pixels in the X-axis direction, and the number of pixels in the Y-axis direction). Since the number of pieces of information in the time direction of size and stride is "1", convolution and pooling are performed only in the direction of the two-dimensional image, that is, in the spatial direction.
  • the neural network shown in FIG. 7 has three consecutive sets of convolutional layers and pooling layers. Since no processing is performed in the temporal direction in these layers, the processing is the same as in CNN for normal images.
  • the filter 7 has a pooling layer 4 for performing global max pooling and an output layer after these layers.
  • this pooling layer 4 processing is also performed in the time direction, and information for 64 channels is output.
  • normalization is performed by a softmax function after processing in the fully connected layer. Therefore, the sum of the final four outputs is one.
  • the dry eye classification corresponding to the output with the maximum value is acquired as the classification result of the subject's eye 2 .
  • the four outputs may correspond to tear deficient, wettability, evaporative, and combined evaporative and wettability, respectively.
  • the classification means 17 acquires "tear-deficient type" as the dry eye classification result corresponding to the eye 2 to be examined. become.
  • each layer of the neural network shown in FIG. 7 performs padding as appropriate.
  • This padding may be, for example, zero padding, padding for extrapolating pixel values on the outermost periphery of the image, or padding for pixel values folded at each side of the image.
  • FIG. 7 shows an example in which padding is performed, but padding may not be performed.
  • the filter and pooling sizes and stride values are not limited to those shown in FIG.
  • processing in the spatial direction is first performed, and then processing in the temporal direction is performed.
  • a (2+1)D-CNN is known as a CNN that performs processing in such order. Therefore, the learner according to this embodiment may be the learning result of (2+1)D-CNN.
  • convolution is performed in the spatial direction and pooling is performed in the temporal direction, but convolution may be performed in the temporal direction as well.
  • the learning device of the present embodiment for example, other learning results of 3D-CNN may be used, and learning results of other neural networks may be used.
  • the neural network shown in FIG. 7 may have, for example, a batch regularization layer and an activation layer after the pooling layer. In this way, various types of neural networks can be used as learning devices as long as they can classify a plurality of pieces of blur information in time series.
  • bias may or may not be used in each layer of the neural network of the learner. Whether or not to use a bias may be determined independently for each layer.
  • the bias may be, for example, a layer-by-layer bias or a filter-by-filter bias. In the former case, one via will be used in each layer, and in the latter case, one or more (as many as filters) vias will be used in each layer.
  • bias is used in the convolution layer, the result of adding the bias to the result of multiplying each pixel value by the parameter of the filter is input to the activation function.
  • the activation function may be, for example, a ReLU (normalized linear function), a sigmoid function, or any other activation function.
  • an error backpropagation method or a mini-batch method may be used.
  • the loss function (error function) may be the mean squared error.
  • the number of epochs (the number of parameter updates) is not particularly limited, but it is preferable to select the number of epochs that does not result in overfitting. Dropouts may also be performed between certain layers to prevent overfitting.
  • a learning method in machine learning a known method can be used, and detailed description thereof will be omitted.
  • an experiment was conducted to classify dry eye of the subject's eye 2 using a learner.
  • this experiment using a neural network similar to the neural network in FIG. classified into one.
  • the number of pieces of training information (teacher data) used for machine learning of the learning device used in this experiment is as follows.
  • the training output information included in the training information the expert's classification results were used.
  • FIG. 8 is a diagram showing the classification results in this experiment and their correctness/incorrectness. For example, as shown in FIG. 8, of the eyes judged to be aqueous-deficient by the expert, 18 were correctly classified and 1 was incorrectly classified. In FIG. 8, portions where correct classification is performed are shaded. In this experiment, 47 out of 56 objects to be classified were classified correctly, so it can be seen that the overall correct answer rate is about 84%. It is considered that this correct answer rate can be further improved by increasing the number of pieces of training information.
  • the operation of the ophthalmologic apparatus 1 will be described using the flowchart of FIG. Note that the illumination light source 7 may be turned on during the measurement period regarding the blur information. Also, in this flow chart, it is assumed that the acquisition unit 15 acquires one piece of blur information from one shot image.
  • Step S101 Alignment is performed so that the subject's eye 2 and the optical system of the ophthalmologic apparatus 1 are aligned in an appropriate positional relationship. This alignment process may be performed manually or automatically.
  • Step S102 The control means 20 determines whether the alignment has been completed. Then, when the alignment is completed, the process proceeds to step S103, otherwise, the process returns to step S101. The determination may be made using, for example, the photographed image acquired by the photographing means 14 .
  • Step S103 The control means 20 turns on the light source 12 for measurement. As a result, a ring pattern is projected onto the corneal surface of the eye 2 to be examined. Further, the control means 20 controls the photographing means 14 so as to photograph the reflected image of the ring pattern at predetermined time intervals over a predetermined period (for example, 10 seconds or 15 seconds). As a result, the photographed image of the reflected image is repeatedly obtained by the photographing means 14 . Note that the number of shots per second may be, for example, 5 times or 10 times. A plurality of acquired captured images may be stored in a recording medium (not shown).
  • Step S104 The control means 20 calculates the degree of blur for a plurality of captured images and instructs the acquisition means 15 to acquire blur information.
  • the acquisition unit 15 calculates a plurality of degrees of blur for each captured image.
  • the acquisition unit 15 may or may not specify the central position of the reflected image of the ring pattern for each captured image, for example. In the latter case, the center position specified in the first captured image may also be used as the center position in other captured images.
  • the acquiring unit 15 acquires blur information corresponding to a plurality of degrees of blur for each photographed image. In this way, a plurality of pieces of blur information along time series are acquired.
  • the obtaining unit 15 may start calculating the degree of blur and obtaining blur information from the time when the eyelid of the subject's eye 2 is detected in the captured image, for example.
  • Step S105 The control means 20 instructs the classification means 17 to classify dry eye.
  • the classification means 17 acquires classification results by applying a plurality of time-series blur information to the learning device stored in the storage means 16 . Applying a plurality of pieces of blur information to the learning device may mean inputting a plurality of pieces of blur information to the learning device. Acquisition of the classification result may be performed using the output from the learning device.
  • Step S106 The control means 20 instructs the calculation means 18 to calculate severity information.
  • the calculation means 18 calculates severity information corresponding to the sum of the values indicating the degree of blur in the time direction.
  • Step S107 The control means 20 instructs the output means 19 to output the classification result and severity information.
  • the output means 19 outputs the classification result of dry eye acquired by the classification means 17 and the severity information calculated by the calculation means 18 . Then, a series of processes such as classification of dry eye of the eye 2 to be examined, acquisition of severity information, and output thereof are completed.
  • the order of processing in the flowchart of FIG. 2 is an example, and the order of each step may be changed as long as the same result can be obtained.
  • the state of the tear film on the corneal surface of the subject's eye 2 is measured, and the measurement results are used to Dry eye of the eye 2 to be examined can be classified.
  • the measurement is performed using a reflection image of a predetermined pattern reflected by the corneal surface of the eye 2 to be examined, the eye 2 to be examined does not need to be dyed, and noninvasive measurement can be realized. can be done.
  • objective classification can be realized by applying a plurality of time-series blur information to the learning device.
  • classification can be performed using information on areas other than the destruction area, so that more accurate classification can be achieved.
  • by calculating the severity information it becomes possible to know the severity of dry eye in each classification result.
  • the ophthalmologic apparatus 1 may not have the calculation means 18, and the output means 19 may not output the severity information.
  • the classification using the learning device is mainly performed by the ophthalmologic apparatus 1
  • the classification process may be performed by an apparatus other than the ophthalmologic apparatus.
  • a plurality of pieces of blur information along the time series of the subject eye to be classified may be applied to the learning device, thereby obtaining the dry eye classification result of the subject eye.
  • the ophthalmologic apparatus 1 measures the state of the tear film on the corneal surface of the subject's eye to acquire blurring information and severity information.
  • the ophthalmologic apparatus 1 according to the present embodiment is used to acquire blurring information about the tear layer on the surface of a contact lens such as a soft contact lens attached to the subject's eye, and to obtain brightness values of reflected images repeatedly photographed.
  • a value (that is, information similar to the severity information) may be calculated according to the temporal sum of the values indicating the degree of blurring of the maximum portion. Then, whether or not the contact lens attached to the subject's eye is appropriate may be confirmed by using the acquired blurring information about the contact lens.
  • each process or function may be implemented by centralized processing by a single device or single system, or may be implemented by distributed processing by multiple devices or multiple systems. It may be realized by
  • information related to processing executed by each component for example, information received, acquired, selected, generated, transmitted, or received by each component
  • information such as thresholds, formulas, addresses, etc. used by each component in processing may be stored temporarily or for a long period of time in a recording medium (not shown), even if not specified in the above description.
  • each component or an accumulation section may accumulate information in the recording medium (not shown).
  • each component or a reading unit may read information from the recording medium (not shown).
  • the information used in each component etc. for example, information such as thresholds, addresses and various set values used in processing by each component may be changed by the user, the above The user may or may not be able to change such information as appropriate, even if not explicitly stated in the description.
  • the change is realized by, for example, a reception unit (not shown) that receives a change instruction from the user and a change unit (not shown) that changes the information according to the change instruction.
  • the reception of the change instruction by the reception unit (not shown) may be, for example, reception from an input device, reception of information transmitted via a communication line, or reception of information read from a predetermined recording medium. .
  • each component may be configured by dedicated hardware, or components that can be realized by software may be realized by executing a program.
  • each component can be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU.
  • the program execution unit may execute the program while accessing the storage unit or recording medium.
  • This program may be executed by being downloaded from a server or the like, and is executed by reading a program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, etc.).
  • this program may be used as a program constituting a program product.
  • the number of computers executing this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
  • the effect of being able to non-invasively and objectively classify dry eye is obtained, and it is useful as an ophthalmic apparatus and the like for classifying dry eye.

Abstract

【課題】非侵襲的、かつ、客観的にドライアイを分類できる眼科装置等を提供する。 【解決手段】被検眼の角膜表面の涙液層の状態に関する測定を行い、測定結果を用いてドライアイを分類する眼科装置1は、角膜表面に所定のパターンを投光する投光手段13と、角膜表面で反射したパターンの反射像を繰り返し撮影する撮影手段14と、撮影された複数の反射像ごとに、反射像の輝度値の極大部分のぼやけの程度を示す値に応じたぼやけ情報を取得する取得手段15と、時系列に沿った複数のぼやけ情報である訓練用入力情報と、その訓練用入力情報に対応するドライアイの分類結果である訓練用出力情報との組を複数用いて学習された学習器に、取得された時系列に沿った複数のぼやけ情報を適用することによってドライアイの分類結果を取得する分類手段17と、分類結果を出力する出力手段19とを備える。

Description

ドライアイ分類に関する方法及びそれを用いた眼科装置、並びに学習器
 本発明は、被検眼の角膜表面の涙液層の状態に関する測定を行い、ドライアイを分類する眼科装置等に関する。
 従来、ドライアイを原因別に分類することによって治療方針を決定することが行われている。そのようなドライアイの分類方法として、蛍光物質であるフルオレセインで被検眼を染色し、スリットランプにて涙液層の破壊パターンを観察することにより、医師が定性的に分類する方法が提唱されている(例えば、非特許文献1参照)。
 また、涙液層の破壊パターンの分類に関する信頼性を向上させるための装置も提案されている(例えば、特許文献1参照)。
特開2018-47083号公報
横井則彦、「TFOD and TFOT Expert Lecture ドライアイ診療のパラダイムシフト」、株式会社メディカルレビュー社、2020年3月
 しかしながら、スリットランプによる涙液層の観察には、フルオレセインによる染色が必要であり、侵襲的な検査となる。また、染色の仕方を統一することが難しく、所見の解釈も検査者によって異なる可能性がある。そのようなことから、非侵襲的、かつ、より客観的な検査方法が求められている。
 なお、上記特許文献1には、非侵襲的な手法によって信頼性の向上を図るための装置についても記載されているが、その装置でも破壊領域を特定する必要があり、その破壊領域の特定に破壊領域か否かを判別するための閾値を用いている。したがって、閾値より小さい箇所の情報は分類に用いられず、分類の精度が低下する可能性があるという問題があった。
 本発明は、上記課題を解決するためになされたものであり、非侵襲的、かつ客観的な手法によって、より高精度なドライアイの分類を行うことができる眼科装置等を提供することを目的とする。
 上記目的を達成するため、本発明の一態様による眼科装置は、被検眼の角膜表面の涙液層の状態に関する測定を行い、測定の結果を用いてドライアイを分類する眼科装置であって、角膜表面に所定のパターンを投光する投光手段と、角膜表面で反射したパターンの反射像を繰り返し撮影する撮影手段と、撮影された複数の反射像ごとに、反射像の輝度値の極大部分のぼやけの程度を示す値に応じたぼやけ情報を取得する取得手段と、時系列に沿った複数のぼやけ情報である訓練用入力情報と、訓練用入力情報に対応するドライアイの分類結果である訓練用出力情報との組を複数用いて学習された学習器に、取得手段によって取得された時系列に沿った複数のぼやけ情報を適用することによってドライアイの分類結果を取得する分類手段と、分類手段によって取得された分類結果を出力する出力手段と、を備えたものである。
 このような構成により、角膜表面で反射した所定のパターンの反射像を用いて測定を行うため、非侵襲的な測定を実現できることになる。また、その測定結果を学習器に適用することによってドライアイを分類するため、より客観的な分類を実現することもできる。また、ぼやけ情報を学習器に適用することによって、より精度の高い分類を実現することができるようになる。なお、ぼやけ情報は、被検眼の角膜表面における複数の測定点に対応するぼやけの程度を示す複数の値を表示する画像、または、その複数の測定点に対応するぼやけの程度を示す複数の値をあらかじめ決められた順番で並べた数値列であってもよい。
 また、本発明の一態様による眼科装置では、繰り返し撮影された反射像の輝度値の極大部分のぼやけの程度を示す値の時間方向の総和に応じた値である重症度情報を算出する算出手段をさらに備え、出力手段は、重症度情報も出力してもよい。
 このような構成により、分類結果におけるドライアイの重症度についても知ることができるようになる。
 また、本発明の一態様による眼科装置では、分類結果は、涙液減少型、水濡れ性低下型、蒸発亢進型、及び、蒸発亢進型と水濡れ性低下型の複合型から選ばれるいずれかであってもよい。
 また、本発明の一態様による学習器は、時系列に沿った複数のぼやけ情報である訓練用入力情報と、訓練用入力情報に対応するドライアイの分類結果である訓練用出力情報との組を複数用いて学習された学習器であって、ぼやけ情報は、被検眼の角膜表面で反射した所定のパターンの反射像の輝度値の極大部分のぼやけの程度を示す値に応じた情報であり、分類対象の被検眼の時系列に沿った複数のぼやけ情報が適用されると、分類対象の被検眼に関するドライアイの分類結果を取得することができる、ものである。
 このような構成により、この学習器を用いることによって、非侵襲的、かつ客観的にドライアイを分類することができるようになる。また、ぼやけ情報を学習器に適用することによって、より精度の高い分類を実現することができるようになる。
 また、本発明の一態様によるドライアイ分類に関する方法は、被検眼の角膜表面の涙液層の状態に関する測定を行い、測定の結果を用いてドライアイを分類するドライアイ分類に関する方法であって、角膜表面に所定のパターンを投光するステップと、角膜表面で反射したパターンの反射像を繰り返し撮影するステップと、撮影された複数の反射像ごとに、反射像の輝度値の極大部分のぼやけの程度を示す値に応じたぼやけ情報を取得するステップと、時系列に沿った複数のぼやけ情報である訓練用入力情報と、訓練用入力情報に対応するドライアイの分類結果である訓練用出力情報との組を複数用いて学習された学習器に、ぼやけ情報を取得するステップで取得された時系列に沿った複数のぼやけ情報を適用することによってドライアイの分類結果を取得するステップと、ドライアイの分類結果を取得するステップで取得された分類結果を出力するステップと、を備えたものである。
 本発明の一態様による眼科装置等によれば、非侵襲的、かつ客観的にドライアイを分類することができるようになる。また、ぼやけ情報を学習器に適用することによって、より精度の高い分類を実現することができるようになる。
本発明の実施の形態による眼科装置の構成を示す模式図 同実施の形態による眼科装置の動作を示すフローチャート 同実施の形態におけるパターンの投光された被検眼等の一例を示す図 同実施の形態におけるパターンの投光された被検眼等の一例を示す図 同実施の形態における被検眼の半径方向の輝度値の変化の一例を示す図 同実施の形態におけるリングパターンに直交する方向における輝度の一例を示す図 同実施の形態における学習器の各層の一例について説明するための図 同実施の形態の実験における分類結果の正答率について説明するための図
 以下、本発明によるドライアイ分類に関する方法及びそれを用いた眼科装置について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による眼科装置は、角膜表面に投光されたパターンの反射像の輝度値の極大部分のぼやけの程度を示す値に応じたぼやけ情報を算出し、その算出した時系列に沿った複数のぼやけ情報を学習器に適用することによってドライアイを分類するものである。
 図1は、本実施の形態による眼科装置1の構成を示す模式図である。本実施の形態による眼科装置1は、被検眼2の角膜表面の涙液層の状態に関する測定を行い、その測定結果を用いてドライアイを分類するものであり、接眼レンズ3、フィールドレンズ4、絞り(ピンホール)5、及び結像レンズ6を有する光学系の構成と、照明用光源7と、投光手段13と、撮影手段14と、取得手段15と、記憶手段16と、分類手段17と、算出手段18と、出力手段19と、制御手段20とを備える。なお、眼科装置1は、例えば、涙液層の状態に関する測定を行ってドライアイを分類するものであってもよく、または、ケラトメータ等の機能を有するものであってもよい。
 投光手段13は、被検眼2の角膜表面に所定のパターンを投光する。所定のパターンは、例えば、線状のパターンであってもよく、点状のパターンであってもよく、それらの組み合わせであってもよい。線状のパターンは、例えば、複数のラインを有するパターンであってもよい。そのラインは、例えば、曲線であってもよく、直線であってもよい。曲線のパターンは、例えば、複数のリングを同心円状に有する多重のリングパターンであってもよい。点状のパターンは、例えば、複数の点(ポイント)を有するパターンであってもよい。複数のポイントを有するパターンは、例えば、規則的に配置されている複数のポイントのパターンであってもよく、ランダムに配置されている複数のポイントのパターンであってもよい。前者の場合には、複数のポイントのパターンは、例えば、正方格子や矩形格子、三角格子などの格子点に配置された複数のポイントの集合であってもよい。なお、所定のパターンに含まれる複数のラインの幅は同じであり、複数のポイントの直径は同じであることが好適である。また、パターンは、被検眼2の角膜の全体にわたって投光されることが好適である。本実施の形態では、投光手段13が、プラチドドーム11と、測定用光源12とを有しており、所定のパターンが、プラチドドーム11による複数の同心円状のパターン、すなわち多重のリングパターン(プラチドリング)である場合について主に説明する。プラチドドーム11は、同心の複数のリング状の開口を有するドーム状の光学マスクであり、測定用光源12から発せられた測定光によって、被検眼2の前眼部に、複数の同心円状のパターンであるリングパターンを投光する。測定用光源12から発せられる測定光の波長は問わない。測定光は、例えば、可視光であってもよく、近赤外光などであってもよい。測定光が可視光である場合に、その波長は、例えば、650nmや750nm等であってもよい。なお、被検眼2にリングパターンを投光する方法は問わない。また、被検眼2へのリングパターンの投光はすでに公知であり、その詳細な説明を省略する。
 照明用光源7は、被検眼2の照明用の光源であり、被検者の瞼の状態等を検者が確認するなどのために被検眼2に照射されるものである。照明用光源7から発せられる照明光は、例えば、近赤外の光であってもよい。なお、照明用光源7及び測定用光源12はそれぞれ、光学系の光軸を中心として環状に配列されていてもよい。
 被検眼2の角膜表面に投光されたリングパターンは、角膜表面で反射する。そして、反射したパターンは、接眼レンズ3、フィールドレンズ4、絞り5、結像レンズ6を介して結像する。撮影手段14は、そのパターンの反射像を撮影する。撮影手段14は、例えば、CCDイメージセンサやCMOSイメージセンサ等であってもよい。撮影手段14は、パターンの反射像を繰り返し撮影する。この繰り返しての撮影は、所定の時間間隔ごとに行われてもよい。このように撮影が繰り返されることによって、被検眼2について時系列に沿った情報を取得することができる。
 取得手段15は、撮影手段14によって撮影された反射像における輝度値の極大部分のぼやけの程度を示す値を算出する。所定のパターンがラインを有する場合に、取得手段15は、撮影された反射像のラインに直交する方向における輝度値の極大部分のぼやけの程度を示す値を算出してもよい。また、所定のパターンがポイントを有する場合に、取得手段15は、撮影された反射像のポイントを通過する任意の方向における輝度値の極大部分のぼやけの程度を示す値を算出してもよい。なお、ポイントに関するぼやけの程度を示す値は、反射像のポイントの中心を通過する直線におけるぼやけの程度を示す値であることが好適である。リングパターンの反射像が撮影される場合には、反射像のラインはリングとなる。したがって、リングパターンの反射像が撮影される場合には、取得手段15は、そのリングパターンの反射像において、中心位置を特定してもよい。その中心位置の特定は、例えば、多重のリングパターンに含まれる最も直径の小さいリングの中心を特定することによって行われてもよい。そして、取得手段15は、その特定した中心位置から、所定の角度ごとに半径方向に延びる直線と、リングパターンとの交点におけるぼやけの程度を示す値をそれぞれ算出してもよい。
 ここで、取得手段15が特定した中心位置からの半径方向に延びる直線方向におけるデータを取得する方法について説明する。取得手段15は、特定した中心位置から、半径方向に延びる角度θの直線上の輝度値をサンプリングする際に、中心位置からの距離が同じである近傍の輝度値を用いてもよい。近傍の輝度値とは、例えば、中心位置から半径方向に延びる、角度θ-n×δから角度θ+n×δまでのδごとの輝度値であってもよい。なお、nは1以上の整数であり、δは正の実数である。また、取得手段15が、特定した中心位置から半径方向に延びる直線方向におけるデータの取得を、角度間隔Δθで行う場合には、n×δ<Δθ/2となることが好適である。Δθは特に限定されるものではないが、例えば、5度、10度、15度等であってもよい。Δθが10度である場合には、中心位置から放射状に延びる36個の直線上の輝度値がサンプリングされることになる。上記のように角度θの輝度値の取得を行う場合には、取得手段15は、角度θ-n×δ、θ-(n-1)×δ、…、θ、…、θ+(n-1)×δ、θ+n×δの2n+1個の輝度値の代表値を、角度θの輝度値として取得してもよい。代表値は、例えば、平均値や中央値、最大値等であってもよい。具体的には、取得手段15は、角度θの直線上の輝度値を取得する際に、角度θ+δの直線上の輝度値、角度θ+2δの直線上の輝度値、角度θ-δの直線上の輝度値、角度θ-2δの直線上の輝度値をも用いてもよい。同様に、取得手段15は、角度θに対応する直線上の輝度値を、中心側から順番に、それぞれ複数の輝度値の代表値として取得してもよい。このようなデータの取得を行うことによって、例えば、リングパターンの反射像が途切れている角度であっても、近傍の角度から反射像のデータを取得することができ、半径方向に延びる直線とリングとの交点の位置を特定することができるようになる。なお、ここでは、取得手段15が、ある角度θの直線について、近傍の輝度値を含めた複数の輝度値の代表値として輝度値を取得する場合について説明したが、そうでなくてもよい。例えば、取得手段15は、角度θの直線上の輝度値データを、中心側から順番にサンプリングしてもよい。また、取得手段15は、半径方向に延びる直線上の輝度値の取得を、特定した中心位置から半径方向に延びるΔθごとの直線について行ってもよい。
 図3は、角膜表面の涙液層に破壊が生じていない被検眼2の撮影画像の一例を示す図であり、図4は、角膜表面の涙液層に破壊が生じている被検眼2の撮影画像の一例を示す図である。より詳細には、図3(a)、図4(a)は、角膜表面で反射したリングパターンの反射像の撮影画像であり、図3(b)、図4(b)は、中心位置から所定の角度ごとに半径方向に延びる直線を撮影画像に重ねて示した図であり、図3(c)、図4(c)は、算出されたぼやけの程度を示す値に応じた色を重ねて表示した撮影画像である。
 図3(a)、図4(a)を比較すれば明らかなように、涙液層に破壊が生じていない場合には、反射像における多重のリングパターンの各リングが崩れていないが、涙液層に破壊が生じている場合には、反射像における多重のリングパターンの各リングが崩れている。また、所定の角度方向について、リングパターンの反射像の中心からの距離と、輝度値との関係を示すと、図5で示されるようになる。図5で示される輝度値は、例えば、被検眼の撮影画像から上記のようにしてサンプリングされたものである。図5において、リングが崩れていない画像、すなわち涙液層に破壊が生じていない被検眼の画像に関する輝度値の変化を破線で示しており、リングが崩れている画像、すなわち涙液層に破壊が生じている被検眼の画像に関する輝度値の変化を実線で示している。図5では、反射像のリングの位置において、輝度値がピークとなっている。図5から明らかなように、涙液層に破壊が生じている被検眼に関する輝度値のピークの形状が、涙液層に破壊が生じていない被検眼に関する輝度値のピークの形状よりも鈍っており、ぼやけていることが分かる。逆に言えば、涙液層に破壊が生じていない被検眼に関する輝度値のピークの形状の方が、涙液層に破壊が生じている被検眼に関する輝度値のピークの形状よりも鋭く尖った形状になっている。したがって、輝度値のピーク形状のぼやけの程度を示す値を算出することによって、涙液層に破壊が生じている程度を知ることができるようになるため、そのぼやけの程度を示す値を取得手段15によって算出する。そのぼやけの程度を示す値が、例えば、被検眼2の角膜表面の涙液層の状態に関する測定結果であってもよい。なお、取得手段15によって算出されるぼやけの程度を示す値は、結果として、パターンの反射像の輝度値の極大部分(ピーク)のぼやけの程度を知ることができるものであれば、どのようなものであってもよい。ぼやけの程度を示す値は、例えば、ぼやけの程度が大きくなるほど大きい値となるぼやけ度であってもよく、ぼやけの程度が大きくなるほど小さい値となる尖り度であってもよい。本実施の形態では、ぼやけの程度を示す値がぼやけ度である場合について主に説明する。
 取得手段15は、ある撮影画像を用いて算出したぼやけの程度を示す値に応じたぼやけ情報を取得する。なお、取得手段15は、通常、撮影画像からぼやけの程度を示す複数の値を算出するため、ぼやけ情報は、パターンの反射像の複数の位置における輝度値の極大部分のぼやけの程度をそれぞれ示す複数の値に応じた情報になる。その複数の位置は、被検眼2の角膜の全域における複数の測定点であることが好適である。被検眼2の角膜の全域の情報を用いて分類を行うことができるようになるからである。このぼやけ情報は、例えば、ぼやけの程度を示す複数の値を含む情報であってもよく、図3(c)、図4(c)のように、ぼやけの程度を示す複数の値を表示する画像であってもよく、ぼやけの程度を示す複数の値に応じたその他の情報であってもよい。ぼやけの程度を示す値を表示する画像は、例えば、ぼやけの程度を示す値をグレースケールやカラーで表示してもよい。通常、1個の撮影画像から1個のぼやけ情報が取得されることになる。したがって、パターンの反射像が繰り返し撮影されることに応じて、撮影された複数の反射像ごとにぼやけ情報が取得される。このようにして取得された複数のぼやけ情報は、時系列に沿ったものである。本実施の形態では、取得手段15が、ぼやけの程度を示す値を表示する画像であるぼやけ情報を取得する場合について主に説明する。
 次に、取得手段15がぼやけ度を算出する方法について説明する。図6は、角度θの直線方向について取得された、一つのピークに関する輝度値と、中心からの距離との関係を示す図である。図6において、円状の各図形が、サンプリング点に関する輝度値と、中心からの距離との関係を示している。なお、サンプリング点Mpが極大値に対応するようにしており、サンプリング点Mpから離れるにつれて、添え字が大きく、または小さくなるようにしている。取得手段15は、あるピークに関するぼやけ度Bを、次式によって算出してもよい。
Figure JPOXMLDOC01-appb-M000001
 ここで、サンプリング点Mp+dの輝度値をIp+dとしている。dは任意の整数である。したがって、例えばIpは極大値である輝度値である。また、a,bはそれぞれ正の実数の定数であり、kは1以上の整数である。なお、aの値を変更することによって、輝度値のピークの形状がぼやけ度に与える影響(感度)を変更することができる。上式の総和の部分は、輝度値のピークの形状が尖っているほど大きな値となるため、aを大きい値にすることによって、感度を上げることができ、また、aを小さい値にすることによって、感度を下げることができる。また、定数bは、例えば、ぼやけ度Bが正の値となるように適宜、決定されることが好適である。また、kは、角度θの直線における輝度値のサンプリング点の間隔に応じて、輝度値のピークの形状が適切に含まれる値に設定されることが好適である。例えば、図6で示される場合には、k=2に設定されてもよい。
 なお、ぼやけ度Bの算出方法は一例であって、他の方法によってぼやけ度を算出してもよい。例えば、ピークから中心側の複数の輝度値の傾きと、ピークから外側の複数の輝度値の傾きとを用いて、ぼやけ度を算出するようにしてもよい。
 また、ぼやけ度Bは、輝度値の一つのピークに関する値であるが、図5で示されるように、多重のリングパターンの反射像の中心位置から半径方向に延びるある角度の直線上には複数のピークが存在し、さらにそのような直線が、Δθの角度ごとに存在することになる。したがって、取得手段15は、多重のリングパターンの反射像の中心位置から所定の角度ごとに半径方向に延びる各直線上において、輝度値のピークごとのぼやけ度を算出してもよい。このようにして、被検眼2の角膜の全域における各測定点について、ぼやけ度を算出することができるようになる。各測定点の位置は、反射像の中心位置から放射状に等間隔で延びる直線と、多重のリングパターンの各リングとの交点の位置となる。なお、取得手段15は、例えば、被検眼2の角膜のあらかじめ決められた範囲や領域についてぼやけ度を算出してもよい。また、パターンの反射像の撮影が繰り返された場合には、取得手段15は、繰り返し撮影された撮影画像の各反射像について、角膜の各測定点における複数のぼやけ度の算出を行ってもよい。なお、ぼやけ度の取得についてはすでに公知であり、詳細な説明を省略する。ぼやけ度の取得については、例えば、特開2020-18475号公報を参照されたい。なお、本実施の形態のぼやけ度は、特開2020-18475号公報における鈍り度に相当している。取得手段15は、被検眼2の開瞼を検出した時点から、撮影画像を用いたぼやけ情報の取得を開始してもよい。例えば、撮影画像にパターンの反射像が含まれるようになった時点が、開瞼の検出時点であってもよい。
 記憶手段16では、学習器が記憶される。この学習器は、時系列に沿った複数のぼやけ情報である訓練用入力情報と、その訓練用入力情報に対応するドライアイの分類結果である訓練用出力情報との組を複数用いて学習されたものである。この学習器については後述する。記憶手段16に学習器が記憶される過程は問わない。例えば、記録媒体を介して学習器が記憶手段16で記憶されるようになってもよく、通信回線等を介して送信された学習器が記憶手段16で記憶されるようになってもよい。記憶手段16は、不揮発性の記録媒体によって実現されることが好適であるが、揮発性の記録媒体によって実現されてもよい。記録媒体は、例えば、半導体メモリや磁気ディスク、光ディスクなどであってもよい。
 分類手段17は、記憶手段16で記憶されている学習器に、取得手段15によって算出された時系列に沿った複数のぼやけ情報を適用することによってドライアイの分類結果を取得する。この分類結果は、例えば、涙液減少型、水濡れ性低下型、蒸発亢進型、及び、蒸発亢進型と水濡れ性低下型の複合型から選ばれるいずれかであってもよい。また、分類結果に正常、すなわちドライアイでない旨が含まれてもよい。この場合には、分類結果は、例えば、涙液減少型、水濡れ性低下型、蒸発亢進型、蒸発亢進型と水濡れ性低下型の複合型、及び正常から選ばれるいずれかであってもよい。なお、これらのドライアイの分類についてはすでに公知であり、詳細な説明を省略する。また、ドライアイの分類がこれらに限定されないことは言うまでもない。
 算出手段18は、繰り返し撮影された反射像の輝度値の極大部分のぼやけの程度を示す値の時間方向の総和に応じた値である重症度情報を算出する。重症度情報は、このように反射像の輝度値の極大部分のぼやけの程度を示す値の時間方向の総和を用いて算出される値であり、例えば、その総和が大きくなるほど、大きくなる値であってもよい。重症度情報は、例えば、ぼやけの程度を示す値の時間方向の総和、すなわちぼやけの程度を示す値の測定期間における合計値であってもよく、単位時間当たりのぼやけの程度を示す値、すなわちぼやけの程度を示す値の時間方向の総和を測定時間で割った値であってもよく、ぼやけの程度を示す値の平均値、すなわちぼやけの程度を示す値の時間方向の総和をぼやけ情報の個数で除算した値であってもよい。測定期間は、例えば、ぼやけ情報の取得の開始時点から、あらかじめ決められた測定時間(例えば、10秒間など)が経過するまでの期間であってもよい。ここで、総和の対象になるぼやけの程度を示す値は、通常、1個のぼやけ情報に対応する値である。このぼやけの程度を示す値は、例えば、取得手段15によって撮影画像を用いて算出された値であってもよく、ぼやけ情報から取得された値であってもよい。また、このぼやけの程度を示す値としては、例えば、1個の撮影画像や1個のぼやけ情報に対応するぼやけの程度を示す複数の値(例えば、ぼやけ度など)の代表値が用いられてもよい。代表値は、例えば、平均値や中央値、最大値等であってもよい。例えば、撮影画像ごとに、その撮影画像から取得されるぼやけの程度を示す値の個数が異なることがあり得るため、このように代表値が用いられることが好適である。上記したように、涙液層に破壊が生じているドライアイの場合には、パターンの反射像のぼやけの程度が大きくなる。そして、そのぼやけの程度が大きいほど、ドライアイがより重症であることになる。したがって、ぼやけの程度を示す値の時間方向の総和に応じた重症度情報を算出することによって、ドライアイの重症度を示す値を得ることができることになる。また、重症度情報は、結果として重症度がわかる指標であればよい。したがって、重症度情報は、例えば、値が大きくなるほど重症度が重くなる情報であってもよく、値が大きくなるほど重症度が軽くなる情報であってもよい。例えば、総和の対象がぼやけ度である場合には前者となり、総和の対象が尖り度である場合には後者となる。
 出力手段19は、分類手段17によって取得された分類結果、及び算出手段18によって算出された重症度情報を出力する。この出力によって、被検眼2のドライアイの分類結果と、その重症度とを知ることができるようになる。ここで、この出力は、例えば、表示デバイス(例えば、液晶ディスプレイや有機ELディスプレイなど)への表示でもよく、所定の機器への通信回線を介した送信でもよく、プリンタによる印刷でもよく、スピーカによる音声出力でもよく、記録媒体への蓄積でもよく、他の構成要素への引き渡しでもよい。なお、出力手段19は、出力を行うデバイス(例えば、表示デバイスやプリンタなど)を含んでもよく、または含まなくてもよい。また、出力手段19は、ハードウェアによって実現されてもよく、または、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
 制御手段20は、測定用光源12のオン/オフや、撮影手段14による撮影、取得手段15によるぼやけ情報の取得、分類手段17によるドライアイの分類、算出手段18による重症度情報の算出、出力手段19による出力等に関する処理タイミングの制御等を行う。
 次に、ドライアイの分類に用いる学習器について説明する。学習器は、上記のように、訓練用入力情報と訓練用出力情報との複数の組を用いて学習されたものである。訓練用入力情報と訓練用出力情報との組を訓練情報と呼ぶこともある。学習器は、例えば、ニューラルネットワーク(NN:Neural Network)の学習結果であってもよく、その他の機械学習の学習結果であってもよい。ニューラルネットワークは、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)であってもよく、それ以外のニューラルネットワーク(例えば、全結合層から構成されるニューラルネットワーク等)であってもよい。畳み込みニューラルネットワークとは、1以上の畳み込み層を有するニューラルネットワークのことである。また、ニューラルネットワークが少なくとも1個の中間層(隠れ層)を有する場合には、そのニューラルネットワークの学習は、深層学習(ディープラーニング、Deep Learning)であると考えてもよい。また、機械学習にニューラルネットワークを用いる場合において、そのニューラルネットワークの層数、各層におけるノード数、各層の種類(例えば、畳み込み層、全結合層など)等については、適宜、選択したものを用いてもよい。なお、入力層と出力層のノード数は、通常、訓練情報に含まれる訓練用入力情報と訓練用出力情報とによって決まることになる。本実施の形態では、学習器に入力される情報は、時系列に沿った複数のぼやけ情報である。上記のように、ぼやけ情報は、例えば、2次元の画像であってもよく、ぼやけの程度を示す複数の値をあらかじめ決められた順番で並べた数値列であってもよい。学習器への入力は、そのようなぼやけ情報が時系列に沿って並んだものになる。ぼやけ情報が2次元の画像である場合には、学習器への入力は、空間方向が2次元、時間方向が1次元である3次元の情報になる。ぼやけ情報が数値列である場合には、学習器への入力は、そのような数値列が時系列に並んだ情報になる。本実施の形態では、学習器への入力が、2次元の画像が時系列に並んだ3次元の情報である場合について主に説明する。
 なお、学習器が記憶手段16で記憶されているとは、例えば、学習器そのもの(例えば、入力に対して値を出力する関数や学習結果のモデル等)が記憶されていることであってもよく、学習器を構成するために必要なパラメータ等の情報が記憶されていることであってもよい。後者の場合であっても、そのパラメータ等の情報を用いて学習器を構成できるため、実質的に学習器が記憶手段16で記憶されていると考えることができるからである。本実施の形態では、学習器そのものが記憶手段16で記憶されている場合について主に説明する。
 ここで、学習器の生成について説明する。学習器は、上記のように、複数の訓練情報を学習することによって生成される。訓練用入力情報は、例えば、被検眼に関する測定結果、すなわち取得手段15によって取得された、時系列に沿った複数のぼやけ情報であってもよい。また、訓練用出力情報は、例えば、その訓練用出力情報と組となる訓練用入力情報の取得された被検眼について、医師等の専門家が分類したドライアイの分類結果であってもよい。訓練用出力情報は、分類手段17による分類結果と同様のものとなる。したがって、訓練用出力情報は、例えば、涙液減少型、水濡れ性低下型、蒸発亢進型、及び、蒸発亢進型と水濡れ性低下型の複合型から選ばれるいずれかであってもよく、涙液減少型、水濡れ性低下型、蒸発亢進型、蒸発亢進型と水濡れ性低下型の複合型、及び正常から選ばれるいずれかであってもよい。また、分類手段17によって、他の分類が行われる場合には、訓練用出力情報は、それに応じたものとなってもよい。
 このような訓練用入力情報と訓練用出力情報との複数の組を学習することによって、学習器が生成される。この学習器は、時系列に沿った複数のぼやけ情報である訓練用入力情報と、その訓練用入力情報に対応するドライアイの分類結果である訓練用出力情報との複数の組の機械学習の結果である。したがって、この学習器に、分類対象の被検眼2の時系列に沿った複数のぼやけ情報が適用されると、その分類対象の被検眼2に関するドライアイの分類結果を取得することができる。なお、訓練用入力情報と、分類対象の被検眼2の時系列に沿った複数のぼやけ情報とは、同様の情報であることが好適である。すなわち、両情報のぼやけ情報の時間間隔やぼやけ情報の個数、1個のぼやけ情報の画素数や情報数などは同じであることが好適である。
 学習器のニューラルネットワークは、例えば、時系列に沿った複数の画像(すなわち、3次元の情報)を分類するためのニューラルネットワークであってもよく、時系列に沿った複数の数値列を分類するためのニューラルネットワークであってもよい。前者のように、時間方向を含む3次元の情報を分類するために用いられるニューラルネットワークとして、例えば、3D-CNNが知られている。後者のように、時系列に沿った複数の数値列を分類するためのニューラルネットワークとして、例えば、全結合層を有するニューラルネットワークが用いられてもよい。本実施の形態では、学習器が3D-CNNの学習結果である場合について主に説明する。
 3D-CNNの各層の構成は特に限定されるものではないが、例えば、図7で示されるものを用いてもよい。なお、インプットサイズ、アウトプットサイズは、それぞれ(時間方向の情報数,X軸方向の画素数,Y軸方向の画素数,チャネル数)を示している。すなわち、150×150の画像であるぼやけ情報が、時間方向に100個並んだ情報が学習器への入力となる。このぼやけ情報は、例えば、図3(c)や図4(c)と同様に、ぼやけ度を8ビット(256段階)のグレースケールで示す画像であってもよい。そのようなぼやけ情報の画像が0.1秒ごとに10秒間取得されることによって、時系列に沿った100個のぼやけ情報が取得され、それが学習器への入力となってもよい。また、サイズ、ストライドは、(時間方向の情報数,X軸方向の画素数,Y軸方向の画素数)となっている。サイズ、ストライドの時間方向の情報数は「1」であるため、畳み込みやプーリングは、2次元画像の方向、すなわち空間方向についてのみ行われることになる。図7で示されるニューラルネットワークは、畳み込み層とプーリング層との組を3つ連続して有している。それらの層では、時間方向については処理が行われないため、通常の画像に関するCNNと同様の処理になる。図7のニューラルネットワークは、それらの層の後段にグローバルマックスプーリングを行うためのプーリング層4と出力層とを有している。このプーリング層4において、時間方向についても処理が行われ、64チャネル分の情報が出力される。また、出力層では、全結合層での処理を行った後に、ソフトマックス関数によって正規化を行っている。したがって、最終的な4個の出力の合計は1になる。そして、4個の出力のうち、最大値の出力に対応するドライアイの分類が、被検眼2の分類結果として取得されることになる。例えば、4個の出力は、それぞれ涙液減少型、水濡れ性低下型、蒸発亢進型、蒸発亢進型と水濡れ性低下型の複合型に対応していてもよい。そして、例えば、最大値の出力に対応する分類が涙液減少型である場合には、被検眼2に対応するドライアイの分類結果として「涙液減少型」が分類手段17によって取得されることになる。
 なお、図7で示されるニューラルネットワークの各層では、適宜、パティングを行っている。このパディングは、例えば、ゼロパディングであってもよく、画像の最外周の画素値を外挿するパディングであってもよく、画像の各辺で折り返した画素値とするパディングであってもよい。図7では、パディングを行っている例について示しているが、パディングは行われなくてもよい。
 また、フィルタやプーリングのサイズ、ストライドの値は、図7で示されるものに限定されないことは言うまでもない。図7のニューラルネットワークでは、まず、空間方向の処理を行い、その後に時間方向の処理を行っている。そのような順序で処理を行うCNNとして、(2+1)D-CNNが知られている。したがって、本実施の形態による学習器は、(2+1)D-CNNの学習結果であってもよい。なお、図7のニューラルネットワークでは、空間方向についてそれぞれ畳み込みを行い、時間方向についてはプーリングを行っているが、時間方向についても畳み込みを行ってもよい。また、本実施の形態の学習器として、例えば、その他の3D-CNNの学習結果を用いてもよく、それら以外のニューラルネットワークの学習結果を用いてもよい。また、図7で示されるニューラルネットワークは、例えば、プーリング層の後段に、バッチ正則化層や活性化層を有していてもよい。このように、学習器のニューラルネットワークとしては、時系列に沿った複数のぼやけ情報を分類できるのであれば、種々のものを用いることができる。
 また、学習器のニューラルネットワークの各層において、バイアスを用いてもよく、または、用いなくてもよい。バイアスを用いるかどうかは、層ごとに独立して決められてもよい。そのバイアスは、例えば、層ごとのバイアスであってもよく、または、フィルタごとのバイアスであってもよい。前者の場合には、各層において1個のバイアスが用いられることになり、後者の場合には、各層において1個以上(フィルタと同数)のバイアスが用いられることになる。畳み込み層でバイアスを用いる場合には、各画素値にフィルタのパラメータを掛けて足し合わせた結果にバイアスを加算したものが、活性化関数に入力されることになる。
 ニューラルネットワークにおける各設定は、次のようであってもよい。活性化関数は、例えば、ReLU(正規化線形関数)であってもよく、シグモイド関数であってもよく、その他の活性化関数であってもよい。また、学習では、例えば、誤差逆伝搬法を用いてもよく、ミニバッチ法を用いてもよい。また、損失関数(誤差関数)は、平均二乗誤差であってもよい。また、epoch数(パラメータの更新回数)は特に問わないが、過剰適合とならないepoch数が選択されることが好適である。また、過剰適合を予防するため、所定の層間においてドロップアウトを行ってもよい。なお、機械学習における学習方法としては、公知の方法を用いることができ、その詳細な説明を省略する。
 本実施の形態の眼科装置1において、学習器を用いて被検眼2のドライアイを分類する実験を行った。本実験では、図7のニューラルネットワークと同様のニューラルネットワークを用いて、ドライアイを涙液減少型、水濡れ性低下型、蒸発亢進型、蒸発亢進型と水濡れ性低下型の複合型の4つに分類した。なお、本実験で用いた学習器の機械学習に用いた訓練情報(教師データ)の個数は次のとおりである。訓練情報に含まれる訓練用出力情報としては、専門家の分類結果を用いた。
涙液減少型:522
水濡れ性低下型:630
蒸発亢進型:270
蒸発亢進型と水濡れ性低下型の複合型:54
 上記のようにして機械学習を行った学習器を用いて、機械学習に用いていない56組の時系列に沿った複数のぼやけ情報を分類した。それらの56組の情報に対応する被検眼についても、それぞれ専門家によるドライアイの分類を行い、本実験の学習器を用いた分類結果の正誤を評価した。図8は、本実験における分類結果と、その正誤とを示す図である。例えば、図8で示されるように、専門家によって涙液減少型と判断された被検眼のうち、18個については正しい分類が行われ、1個については誤った分類が行われた。なお、図8では、正しい分類の行われた箇所を網掛けにしている。本実験では56個の分類対象のうち、47個が正しく分類されているため、全体としては約84%の正答率であることが分かる。この正答率は、訓練情報の個数を増やすことなどによって、さらに向上させることができると考えられる。
 次に、眼科装置1の動作について図2のフローチャートを用いて説明する。なお、照明用光源7は、ぼやけ情報に関する測定期間中は点灯していてもよい。また、このフローチャートにおいて、取得手段15は、1個の撮影画像から1個のぼやけ情報を取得するものとする。
 (ステップS101)被検眼2と眼科装置1の光学系とを適切な位置関係に合わせるアライメントが行われる。このアライメントの処理は、手動で行われてもよく、または、自動で行われてもよい。
 (ステップS102)制御手段20は、アライメントが完了したかどうか判断する。そして、アライメントが完了した場合には、ステップS103に進み、そうでない場合には、ステップS101に戻る。その判断は、例えば、撮影手段14によって取得された撮影画像を用いて行われてもよい。
 (ステップS103)制御手段20は、測定用光源12を点灯させる。その結果、リングパターンが被検眼2の角膜表面に投光されることになる。また、制御手段20は、あらかじめ決められた期間(例えば、10秒や15秒など)にわたって、所定の時間間隔でリングパターンの反射像の撮影を行うように撮影手段14を制御する。その結果、撮影手段14によって、反射像の撮影画像が繰り返し取得されることになる。なお、1秒間の撮影回数は、例えば、5回や10回等であってもよい。取得された複数の撮影画像は、図示しない記録媒体で記憶されてもよい。
 (ステップS104)制御手段20は、複数の撮影画像について、ぼやけ度を算出し、ぼやけ情報を取得するように取得手段15に指示する。その指示に応じて、取得手段15は、撮影画像ごとに、複数のぼやけ度を算出する。そのぼやけ度の算出において、取得手段15は、例えば、撮影画像ごとに、リングパターンの反射像の中心位置を特定してもよく、または、そうでなくてもよい。後者の場合には、1個目の撮影画像において特定した中心位置を、他の撮影画像においても、中心位置として用いてもよい。また、取得手段15は、撮影画像ごとに、複数のぼやけ度に応じたぼやけ情報を取得する。このようにして、時系列に沿った複数のぼやけ情報が取得される。なお、取得手段15は、例えば、撮影画像において被検眼2の開瞼が検出された時点からぼやけ度の算出やぼやけ情報の取得を開始してもよい。
 (ステップS105)制御手段20は、ドライアイの分類を行うように分類手段17に指示する。その指示に応じて、分類手段17は、時系列に沿った複数のぼやけ情報を、記憶手段16で記憶されている学習器に適用することによって分類結果を取得する。複数のぼやけ情報を学習器に適用するとは、複数のぼやけ情報を学習器に入力することであってもよい。そして、分類結果の取得は、学習器からの出力を用いて行われてもよい。
 (ステップS106)制御手段20は、重症度情報を算出するように算出手段18に指示する。その指示に応じて、算出手段18は、ぼやけの程度を示す値の時間方向の総和に応じた重症度情報を算出する。
 (ステップS107)制御手段20は、分類結果、及び重症度情報を出力するように出力手段19に指示する。その指示に応じて、出力手段19は、分類手段17によって取得されたドライアイの分類結果、及び算出手段18によって算出された重症度情報を出力する。そして、被検眼2のドライアイに関する分類や重症度情報の取得、及びそれらの出力などの一連の処理は終了となる。
 なお、図2のフローチャートにおける処理の順序は一例であり、同様の結果を得られるのであれば、各ステップの順序を変更してもよい。
 以上のように、本実施の形態によるドライアイ分類に関する方法及びそれを用いた眼科装置1によれば、被検眼2の角膜表面の涙液層の状態に関する測定を行い、その測定結果を用いて被検眼2のドライアイを分類することができる。本実施の形態では、その測定を被検眼2の角膜表面で反射した所定のパターンの反射像を用いて行うため、被検眼2を染色しなくてもよく、非侵襲的な測定を実現することができる。また、その分類において、時系列に沿った複数のぼやけ情報を学習器に適用することにより、客観的な分類も実現することができる。また、ぼやけ情報を学習器に適用することによって、破壊領域以外の領域の情報をも用いて分類を行うことができることになり、より精度の高い分類を実現することができるようになる。さらに、重症度情報も算出することによって、各分類結果におけるドライアイの重症度についても知ることができるようになる。
 なお、本実施の形態では、重症度情報の算出を行う場合について説明したが、そうでなくてもよい。重症度情報を算出しない場合には、眼科装置1は、算出手段18を有していなくてもよく、また、出力手段19は、重症度情報を出力しなくてもよい。
 また、本実施の形態では、学習器を用いた分類が眼科装置1で行われる場合について主に説明したが、そうでなくてもよい。眼科装置において取得された時系列に沿った複数のぼやけ情報を用いて、眼科装置以外の装置において分類の処理を行ってもよい。この場合には、他の装置において、分類対象の被検眼の時系列に沿った複数のぼやけ情報が学習器に適用されることによって、その被検眼のドライアイの分類結果が取得されてもよい。
 また、本実施の形態では、眼科装置1において、被検眼の角膜表面の涙液層の状態に関する測定を行ってぼやけ情報を取得したり、重症度情報を取得したりする場合について説明したが、本実施の形態による眼科装置1を用いて、被検眼に装着されたソフトコンタクトレンズなどのコンタクトレンズの表面の涙液層について、ぼやけ情報を取得したり、繰り返し撮影された反射像の輝度値の極大部分のぼやけの程度を示す値の時間方向の総和に応じた値(すなわち、重症度情報と同様の情報)を算出したりしてもよい。そして、コンタクトレンズについて取得されたぼやけ情報などを用いることによって、被検眼に装着されているコンタクトレンズが適切なものであるかどうかなどを確認してもよい。
 また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。
 また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。
 また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。
 また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。
 また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD-ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。
 また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
 以上より、本発明の一態様による眼科装置等によれば、非侵襲的かつ客観的にドライアイを分類できるという効果が得られ、ドライアイの分類を行う眼科装置等として有用である。

Claims (5)

  1. 被検眼の角膜表面の涙液層の状態に関する測定を行い、当該測定の結果を用いてドライアイを分類する眼科装置であって、
    角膜表面に所定のパターンを投光する投光手段と、
    角膜表面で反射したパターンの反射像を繰り返し撮影する撮影手段と、
    撮影された複数の反射像ごとに、反射像の輝度値の極大部分のぼやけの程度を示す値に応じたぼやけ情報を取得する取得手段と、
    時系列に沿った複数のぼやけ情報である訓練用入力情報と、当該訓練用入力情報に対応するドライアイの分類結果である訓練用出力情報との組を複数用いて学習された学習器に、前記取得手段によって取得された時系列に沿った複数のぼやけ情報を適用することによってドライアイの分類結果を取得する分類手段と、
    前記分類手段によって取得された分類結果を出力する出力手段と、を備えた眼科装置。
  2. 繰り返し撮影された反射像の輝度値の極大部分のぼやけの程度を示す値の時間方向の総和に応じた値である重症度情報を算出する算出手段をさらに備え、
    前記出力手段は、前記重症度情報も出力する、請求項1記載の眼科装置。
  3. 前記分類結果は、涙液減少型、水濡れ性低下型、蒸発亢進型、及び、蒸発亢進型と水濡れ性低下型の複合型から選ばれるいずれかである、請求項1または請求項2記載の眼科装置。
  4. 被検眼の角膜表面の涙液層の状態に関する測定を行い、当該測定の結果を用いてドライアイを分類するドライアイ分類に関する方法であって、
    角膜表面に所定のパターンを投光するステップと、
    角膜表面で反射したパターンの反射像を繰り返し撮影するステップと、
    撮影された複数の反射像ごとに、反射像の輝度値の極大部分のぼやけの程度を示す値に応じたぼやけ情報を取得するステップと、
    時系列に沿った複数のぼやけ情報である訓練用入力情報と、当該訓練用入力情報に対応するドライアイの分類結果である訓練用出力情報との組を複数用いて学習された学習器に、前記ぼやけ情報を取得するステップで取得された時系列に沿った複数のぼやけ情報を適用することによってドライアイの分類結果を取得するステップと、
    前記ドライアイの分類結果を取得するステップで取得された分類結果を出力するステップと、を備えたドライアイ分類に関する方法。
  5. 時系列に沿った複数のぼやけ情報である訓練用入力情報と、当該訓練用入力情報に対応するドライアイの分類結果である訓練用出力情報との組を複数用いて学習された学習器であって、
    前記ぼやけ情報は、被検眼の角膜表面で反射した所定のパターンの反射像の輝度値の極大部分のぼやけの程度を示す値に応じた情報であり、
    分類対象の被検眼の時系列に沿った複数のぼやけ情報が適用されると、当該分類対象の被検眼に関するドライアイの分類結果を取得することができる、学習器。
PCT/JP2022/016580 2021-04-05 2022-03-31 ドライアイ分類に関する方法及びそれを用いた眼科装置、並びに学習器 WO2022215648A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020237037639A KR20230165812A (ko) 2021-04-05 2022-03-31 드라이아이 분류에 관한 방법과 그를 이용한 안과장치, 및 학습기

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-064437 2021-04-05
JP2021064437A JP7288262B2 (ja) 2021-04-05 2021-04-05 ドライアイ分類に関する方法及びそれを用いた眼科装置、並びに学習器

Publications (1)

Publication Number Publication Date
WO2022215648A1 true WO2022215648A1 (ja) 2022-10-13

Family

ID=83546110

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/016580 WO2022215648A1 (ja) 2021-04-05 2022-03-31 ドライアイ分類に関する方法及びそれを用いた眼科装置、並びに学習器

Country Status (3)

Country Link
JP (2) JP7288262B2 (ja)
KR (1) KR20230165812A (ja)
WO (1) WO2022215648A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019168142A1 (ja) * 2018-03-02 2019-09-06 興和株式会社 画像分類方法、装置及びプログラム
JP2020018475A (ja) * 2018-07-31 2020-02-06 株式会社レクザム 眼科装置
JP2020195883A (ja) * 2020-09-14 2020-12-10 株式会社トプコン 眼科検査装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018047083A (ja) 2016-09-23 2018-03-29 株式会社トプコン 眼科検査装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019168142A1 (ja) * 2018-03-02 2019-09-06 興和株式会社 画像分類方法、装置及びプログラム
JP2020018475A (ja) * 2018-07-31 2020-02-06 株式会社レクザム 眼科装置
JP2020195883A (ja) * 2020-09-14 2020-12-10 株式会社トプコン 眼科検査装置

Also Published As

Publication number Publication date
JP7288262B2 (ja) 2023-06-07
JP2022160005A (ja) 2022-10-18
JP2022159945A (ja) 2022-10-18
KR20230165812A (ko) 2023-12-05

Similar Documents

Publication Publication Date Title
CA2868425C (en) Process and apparatus for determining optical aberrations of an eye
EP1844702B1 (en) Ophthalmologic instrument
US7377647B2 (en) Clarifying an image of an object to perform a procedure on the object
CN100442006C (zh) 跟踪扭转的眼睛的方向和位置
US5632282A (en) Ocular disease detection apparatus
WO2020188007A1 (en) A patient tuned ophthalmic imaging system with single exposure multi-type imaging, improved focusing, and improved angiography image sequence display
AU2005319556B2 (en) Dot radial ringed placido
US20110105943A1 (en) Apparatus For Corneal Shape Analysis And Method For Determining A Corneal Thickness
US8714741B2 (en) Method for selecting images
US7226166B2 (en) Optimizing the properties of electromagnetic energy in a medium using stochastic parallel perturbation gradient descent optimization adaptive optics
WO2022215648A1 (ja) ドライアイ分類に関する方法及びそれを用いた眼科装置、並びに学習器
CN111989030B (zh) 图像处理方法、程序及图像处理装置
US20040165147A1 (en) Determining iris biometric and spatial orientation of an iris in accordance with same
KR20220039769A (ko) 원근조절 및 이접의 공동 결정
Schramm et al. 3D retinal imaging and measurement using light field technology
WO2008062528A1 (fr) Analyseur d'image de fond d'œil
WO2022097620A1 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP7294624B2 (ja) 眼科装置
WO2022145129A1 (ja) 眼科情報処理装置、眼科装置、眼科情報処理方法、及びプログラム
JP2022037486A (ja) 眼科画像処理装置、眼科装置、画質評価方法、プログラム、及び眼科画像処理システム
US20240074655A1 (en) Specialty contact lens design and manufacturing
JP7484708B2 (ja) 画像処理方法、プログラム、及び画像処理装置
Habib Incorporating spatial and temporal information for microaneurysm detection in retinal images
CN115515474A (zh) 在存在伪像时使用参考界标实时追踪ir眼底图像
CN113384236A (zh) 一种眼部光学相干断层扫描的方法及其装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22784632

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18553933

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20237037639

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22784632

Country of ref document: EP

Kind code of ref document: A1