WO2019168142A1 - 画像分類方法、装置及びプログラム - Google Patents
画像分類方法、装置及びプログラム Download PDFInfo
- Publication number
- WO2019168142A1 WO2019168142A1 PCT/JP2019/008000 JP2019008000W WO2019168142A1 WO 2019168142 A1 WO2019168142 A1 WO 2019168142A1 JP 2019008000 W JP2019008000 W JP 2019008000W WO 2019168142 A1 WO2019168142 A1 WO 2019168142A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- tear film
- interference fringe
- film interference
- color
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/101—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the tear film
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/1015—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for wavefront analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Definitions
- the present invention relates to an image classification method, an apparatus therefor, and a program therefor.
- the eyeballs and eyelids are protected from invasion of foreign matter, dryness, damage due to friction, etc. by tears.
- the tear film is composed of two layers, a liquid layer composed of water and glycoprotein (mucin), which occupies most of the tear film, and an oil layer covering it.
- the oil layer prevents the liquid layer from directly contacting the air. Prevents evaporation of moisture.
- the components of the oil reservoir are secreted from the meibomian glands present in the cocoon. When the meibomian glands are damaged due to aging, inflammation, and abrasion, a normal oil layer is not formed and the liquid layer cannot be retained, causing a condition called dry eye.
- Dry eye can be categorized into “Tear reduction type” and “Evaporation enhancement type”. Outline of each type is "Tear reduction type” is a type in which the fluid layer is deficient due to a decrease in the amount of secreted tears, etc. "Evaporation type” is a type of oil layer This is a type of dry eye caused by insufficient evaporation of water in the liquid layer.
- a tear film interference fringe image obtained by photographing a subject's cornea has been conventionally used.
- the cornea is covered with a tear film composed of an oil layer and a liquid layer, interference fringes due to the tear liquid appear in the photographed image. Since certain characteristics appear in the tear film interference fringes depending on the type of healthy person and dry eye, this is used for diagnosis of dry eye.
- Patent Document 1 As for an ophthalmologic apparatus for acquiring a tear film interference fringe image, for example, a technique described in Patent Document 1 is known, and Patent Document 2 discloses machine learning that is generally used in recent years. Describes an apparatus, a method and the like related to image recognition and image classification.
- local feature amounts are extracted from feature points in the learning image.
- the local feature amount is gradient (vector) information that appears as an edge or a corner at a feature point.
- gradient vector
- For determining local feature points in an image a method of setting a region range and position randomly, a method of setting a fixed region, or a learning image is smoothed with a plurality of scales, and each scale after smoothing There is a method of determining, as a feature point, an area where features such as edges and corners in an image appear by taking a difference between them.
- the obtained local features are clustered to create a “visual words dictionary” (also called “codebook”).
- a k-means method is known.
- the local feature amount extracted from the feature points in the learning image is vector-quantized, and the created “visual word” is used to form a histogram.
- the histogram information is displayed as feature information (feature vector) of the image.
- the classifier can classify the image based on the feature information accumulated for learning and the feature information of the test image.
- Examples of the classifier include Patent Document 2 and Patent Document 3.
- various methods such as a support vector machine (Support vector machine) and other EMD (Earth Mover's Distance) have been proposed.
- the extracted feature points and the feature quantities obtained therefrom are not necessarily features that should be noted in the dry eye type classification. It can be considered.
- the tear film interference fringe image since a basic structure or pattern is not seen, a large feature difference often does not appear. Therefore, the tear film interference fringe image has a problem that a feature point is not set to a feature that should be focused on or an appropriate feature amount cannot be extracted.
- the present invention has been made in view of such conventional problems, and is an image classification method, apparatus, and program including the following steps or means. (1) acquiring a feature amount from a tear film interference fringe image for learning, building a model for classifying an image from the feature amount acquired from the tear film interference fringe image for learning, and for testing A feature amount is obtained from a tear film interference fringe image, and the test tear film interference fringe image is classified by dry eye type based on the model and the feature quantity obtained from the test tear film interference fringe image. Performing a classification process. (2) In the above (1), the feature amount is information relating to the color of the image, and is at least one of information relating to color, color diversity, color vividness, and local color variation. including.
- the information relating to the color is information based on a luminance average of at least one of red and blue luminance images.
- the information relating to color diversity is information based on the standard deviation of the luminance of at least one of the red and blue luminance images.
- the information relating to the vividness of the color is information based on a difference value of luminance of pixels.
- the local color variation is information based on a standard deviation calculated from the luminance of the pixel of interest and the luminance of surrounding pixels.
- the tear film interference fringe image for testing is a moving image
- the classification processing is performed for a predetermined plurality of frames, and the most frequent result is obtained as the test image.
- the classification result is acquired from a predetermined region in the learning tear film interference fringe image and the test tear film interference fringe image.
- the tear film interference fringe image is a moving image for a fixed time from detection of opening or at an arbitrary timing within a fixed time from detection of opening. It is one or more acquired still images.
- the processing of the present invention is also applied to an image acquired before the tear film collapse is detected, the state of the eye in a state where complete tear film collapse has not occurred is measured. As a result, it can be expected to detect an extremely mild collapse, symptoms similar to the collapse, signs and trends of the collapse, and the like.
- any device for acquiring the interference fringe image of the tear film on the corneal surface may be used as long as it can record the captured image as digital data. Use it.
- the tear film interference fringe image acquisition device emits light from a light source 11, and light rays that have passed through a diaphragm pass through a lens 12, a splitter 13, and an objective lens 14 in order. Is focused on the anterior segment 15 of the subject eye. The reflected light from the anterior segment 15 passes through the objective lens 14 and the splitter 13, and forms an image on the image sensor 17 through the imaging lens 16.
- Shooting data imaged on the image sensor 17 is subjected to predetermined processing by an image processing engine and converted into still image data and moving image data.
- the tear film interference fringe image acquisition device is physically or logically connected to the image classification device according to the present invention.
- the image classification device includes processing means for calculating and processing data, storage means for storing image data, moving image data, and other data acquired by the tear film interference fringe image acquisition device.
- the means stores a computer program and predetermined data for carrying out the present invention, and the processing means processes data according to a predetermined instruction by the computer program or the like.
- the tear film interference fringe image includes the meanings of both a moving image composed of a plurality of continuous frames photographed over a certain period of time or a still image, and the image classification device itself. Or it shall be memorize
- the acquisition of the tear film interference fringe image may be automatically completed when a certain time has elapsed since the detection of the opening.
- the diagnostic standard that “BUT (Break Up Time)”, which is the time from tearing to the detection of tear film collapse, is 5 seconds or less, is diagnosed as dry eye. Since it is adopted in the Asian region, the acquisition of the tear film interference fringe image may be automatically completed when 5 seconds have elapsed since the detection of the opening, with a fixed time of 5 seconds.
- the tear film interference fringe image may be acquired as a still image at predetermined time intervals (for example, every 0.5 seconds) from detection of opening. Further, the tear film interference fringe image is sequentially analyzed, and when tear film collapse is detected before a certain time has elapsed, acquisition of the tear film interference fringe image may be completed at that time. . This will be specifically described below.
- a conventionally known method can be used as appropriate. Specifically, for example, the method described in Patent Document 4 is known. Normally, when blinking is performed, the brightness in the image is greatly reduced due to closing and the brightness is greatly increased due to opening, but the brightness average value is greatly increased by closing the blink. This is a method in which a predetermined threshold is set for this luminance average value using a decrease and an increase due to opening, and the time when the luminance average value has changed beyond the threshold is detected as the opening time. .
- the threshold value is preferably an average value of the luminance of each RGB color element in a predetermined area in the image, but is not limited thereto.
- the threshold value for detecting the opening may be arbitrarily set, or may be detected based on a value obtained by appropriately calculating the luminance of two or more color elements.
- the luminance of the color image may be used as it is, or the luminance of the image converted into a gray scale gradation may be used.
- the reason why it is preferable to use the average value of the luminance in the predetermined area in the detection at the time of opening is that this threshold value can be set appropriately.
- the acquired tear film interference fringe image is not constant in brightness due to various factors such as the eye state of the subject, for example, the state of the cornea, the amount and length of eyelashes, and the amount of ambient light. This is because it is difficult to set the threshold value uniformly.
- the threshold value is set to an appropriate threshold value according to the image regardless of the brightness of the image itself (luminance level). Can do.
- the median value between the minimum and maximum luminance values obtained from the tear film interference fringe image may be set as a threshold value, or a predetermined value is added from the minimum value or the maximum value is set.
- a value obtained by subtracting a predetermined value from the value may be used as the threshold value. Any method that can set a value that falls within the fluctuation range of fluctuation indicated by the average brightness value in blinking may be used.
- acquisition of the tear film interference fringe image may be completed when a certain period of time (for example, 5 seconds) elapses from detection of opening. Further, even before this fixed time has elapsed, acquisition of a tear film interference fringe image may be completed when blinking by the subject is detected once or a plurality of times.
- the blink detection of the subject may use a significant change in luminance in the image at the time of opening and closing, as in the above-described detection of opening, specifically, in a predetermined area of the image. It is possible to detect blinking by comparing the average value of luminance or an arbitrary value with a predetermined threshold value.
- the tear film interference fringe image is acquired as a still image every predetermined time interval (for example, every 0.5 seconds) from detection of opening, and the collapse of the tear film can be detected in the image. Whether or not tear film collapse is detected, and acquisition of tear interference fringe images may be completed.
- a conventionally known method such as a commonly used edge detection method or Hough transform method can be used as appropriate, but in this embodiment, the method described in Patent Document 4 is used. To do.
- This is a method for calculating and evaluating a value indicating the color variation in the tear film interference fringe image.
- the luminance in the RGB color space of the tear film interference fringe image is set to a predetermined value in the image. This is a method of examining each pixel in the region and evaluating how much the intensity of at least one color element of red, green, and blue varies within the region. This is specifically shown below.
- a variance value or deviation (standard deviation, etc.) obtained from the luminance of each color element or a value obtained by dividing the value by the variance value, standard deviation, etc., by the average value of the luminance of the pixels in the region ( Coefficient of variation). These values may be arbitrarily selected and used as necessary.
- the value indicating the color variation may be calculated for the entire image (all pixels). However, a pixel in which the pixel of interest and adjacent pixels are grouped is defined as a local region, and the local region is determined. It is preferable to find the diversity of color information.
- the value indicating the color variation obtained in this manner is low in immediacy of analysis as compared with the case of calculating for the entire image, but has a high resolution and the same spatial position information as the original image. Therefore, it helps to identify the location and area of tear film collapse. This will be specifically described with reference to FIGS. 7A and 7B.
- FIG. 7A is a schematic diagram showing a case where a standard deviation of luminance is calculated for a region indicated by a total of 9 pixels of 3 ⁇ 3 by a pixel of interest in an object region of an image and 8 pixels surrounding the pixel of interest.
- Each numerical value in FIG. 7A indicates the numerical value of the luminance of each pixel in a part of the image.
- “Area 1” shown in FIG. 7A is composed of a total area of 9 pixels (3 ⁇ 3 pixels) including the target pixel 1 and surrounding pixels, and calculates a standard deviation in the area 1 and outputs it to the target pixel 1.
- FIG. 7B shows the result of scanning this into the target area of the image having luminance as shown in FIG. 7A.
- the target area (entire or desired part) of the image is scanned by a filter that outputs the standard deviation of color information such as luminance in the local area consisting of the target pixel and a predetermined pixel centered on the target pixel.
- the standard deviation output for each pixel is stored.
- the numerical value calculated based on the dispersion of color information and the standard deviation based on the luminance as described above is only available. If so, tear film collapse may not be properly determined.
- the tear film collapsed portion has a constant brightness and less variation than the undisrupted portion. For this reason, if the tear film collapses over a wide area, the number of points where the dispersion or standard deviation does not increase as described above will increase, and as a result, the tears may not be detected or may not be suitable for the actual situation. This is because it may be determined.
- FIG. 7 outputs, for each pixel of interest, a value indicating a color variation such as a standard deviation or a variation coefficient in the local region due to the pixel of interest and the surrounding pixels.
- the local area may be regarded as one section, and the standard deviation may be output for each section.
- the area or section is not limited to a total of 9 pixels of 3 ⁇ 3, but may be a set of any number of pixels.
- the value indicating the color variation is obtained by obtaining the color information (luminance, etc.) variation in the predetermined area, that is, the deviation such as the variance or the standard deviation. This is based on a value obtained by dividing a value indicating variation in color information in the area by an average value of color information in a predetermined area, that is, a variation coefficient.
- the determination as to whether or not the tear film collapse is detected is based on the value obtained as described above indicating the dispersion of color, the standard deviation, the coefficient of variation, and the like. For example, the number of pixels or sections whose color variation values such as standard deviations are equal to or greater than a predetermined threshold is counted, and it is determined that the tear film is collapsed when the count is equal to or greater than the predetermined threshold. .
- the area of a pixel or a segment in which a value indicating color variation such as standard deviation is equal to or greater than a predetermined threshold is calculated, and the tear film collapses when the area is equal to or greater than the predetermined threshold. It may be determined that it is happening.
- the determination may be made by the ratio of pixels or sections in which the value indicating the color variation such as the standard deviation in the entire scan target area of the extracted image indicates a predetermined threshold value or more. It is determined that the tear film has collapsed when the ratio of the number or area of pixels in which the color variation in the total number of pixels or area in the extracted image is greater than or equal to a predetermined threshold is greater than or equal to a predetermined threshold. You may do it.
- the value indicating the color variation calculated because the original color information in the extracted image is inappropriate cannot be denied, the value indicating the color variation indicates a predetermined threshold value or more. Even if it is determined to be a pixel or a segment, a region that is less than a predetermined size (area) as one continuous region may be excluded.
- the analysis process for detecting the tear film collapse as described above is performed on the tear film interference fringe image acquired as a still image every predetermined time (0.5 seconds) interval from the detection of opening, If it is determined that the tear film collapse has been detected, the tear film interference fringe image acquisition may be completed at that time. For example, when the tear film disruption is detected for the tear film interference fringe image (still image) when 0.5 seconds have elapsed from the detection of opening, the subsequent tear film interference fringe image acquisition is stopped. If tear film collapse is not detected, a tear film interference fringe image of 0.5 seconds (1 second after detection of open eye) is further acquired, and similar tear film collapse is detected. Analyze processing for This is repeated, and if it is not determined that the tear film collapse has been detected even after a certain time (for example, 5 seconds) has elapsed, acquisition of the tear film interference fringe image is completed within the certain time.
- a certain time for example, 5 seconds
- the tear film interference fringe image used for the processing classified according to the type of dry eye can be performed on any or all frames in a moving image taken for a certain period of time. Moreover, you may perform with respect to all the still images acquired at predetermined time intervals, such as every 0.5 second interval obtained as mentioned above. Or you may decide to carry out about either one or both of a still picture in which collapse of a tear film was detected, or a still picture acquired just before this. Alternatively, it may be performed on a still image acquired when 5 seconds have elapsed from the detection of opening, or a frame corresponding to 5 seconds after detection of opening in the case of a moving image.
- RGB color space RGB color space
- RGB color space a method used in many electronic image devices.
- the color information of each pixel is the luminance of the red, green, and blue color elements that the pixel has.
- the luminance in the RGB color space is used as an example.
- the color information is not limited to the numerical values in the RGB color space, but the HSV color space and the HSB color space.
- the use of luminance or brightness defined in the HLS color space or HSL color space is not denied.
- [Feature amount in the present invention] Therefore, in the present invention, by using the following feature amount for the tear film interference fringe image, it is possible to improve the accuracy of the dry eye type classification of the tear film interference fringe image by machine learning.
- Examples of the feature quantities that can be used in the present invention include the following. (1) Red [AVG]: An image is divided into three layers of the three primary colors of light, and the average value of the luminance of the pixels in the analysis target region is obtained for the red luminance image. (2) Red [SD]: A variation in pixel luminance in the analysis target region of the red luminance image is obtained as a standard deviation. (3) Blue [AVG]: An average value is obtained for a blue luminance image. (4) Blue [SD]: a standard deviation obtained for a blue luminance image.
- Diff [AVG] The following is performed for all pixels in the analysis target area.
- A Obtain values of luminance of red, green, and blue of the target pixel.
- B A difference value obtained by subtracting the minimum value from the maximum value among the three values is obtained.
- C This is calculated for all the pixels in the region to obtain a difference image.
- D “Diff [AVG]” is obtained by calculating the average value of the pixel luminances in the region for the obtained image.
- Diff [SD] The standard deviation of the pixel luminance in the analysis target area is obtained from the difference image obtained in the above (5)-(c).
- SD [RED] The following is performed in the analysis target region of the red luminance image.
- A A variation in luminance of pixels included in a range of a radius R (R is an arbitrary value) from the target pixel is obtained as a standard deviation.
- SD [RED] is obtained by calculating the variation of the luminance value of the standard deviation image in the analysis target area of the standard deviation image.
- SD [BLUE] The standard deviation is calculated by performing the same process as in (8) above in the analysis target region of the blue luminance image.
- Ratio [UPPER] The following is performed on the upper predetermined pixel in the analysis target region.
- Ratio max / min. That is, a value obtained by dividing the obtained maximum value by the minimum value is “Ratio”.
- Ratio [UPPER] is obtained by counting the number of pixels where the Ratio value is greater than a certain threshold.
- Ratio [BOTTOM]: “Ratio [BOTTOM]” is obtained by performing the same process as in (10) above for a predetermined pixel in the analysis target area.
- the classification of dry eye will be described in detail.
- the main purpose is to classify tear film interference fringe images into three patterns of “healthy person”, “tear reduction type”, and “evaporation enhancement type”.
- the three types of tear film interference fringe images are shown in FIG.
- the tear film interference fringe image actually acquired is a color image, its color characteristics and the like will be described below.
- the tear film interference fringe image of the “healthy person” can generally confirm the interference fringe, but has a poor overall color change and looks close to a single gray color.
- the “tear reduction type” appears to be mixed with colors such as red, blue, green, gray, etc., depending on the thickness of the oil layer, and the tears and cracks are bright. It appears as a white color, and the black color appears partially in a line or dot like an outline surrounding it.
- the “evaporation-enhanced type” appears as a slightly reddish gray color as an overall color, and tear tears appear partially in a white color line.
- “Red [AVG]” and “Blue [AVG]” are information relating to the “color” of the tear film interference fringe image, and are one of the indices for viewing the color and its brightness.
- the tear film interference fringes of healthy subjects are close to a relatively bright gray-colored single color, although there are striped patterns, but both “Red [AVG]” and “Blue [AVG]” show high values. The difference is small.
- “Red [AVG]” is slightly higher than “Blue [AVG]”.
- “Tear reduction type” tear film interference fringes show a bright interference color, but especially because the area showing the red color is large, “Red [AVG]” is higher than other dry eye types. .
- “Red [SD]” and “Blue [SD]” are information indicating “color diversity” of the tear film interference fringe image. Basically, the same tendency as the relationship between “Red [AVG]” and “Blue [AVG]” is shown, but a high value is exhibited when the color change of the tear film interference fringe is large.
- the four feature quantities “Red [AVG]”, “Blue [AVG]”, “Red [SD]”, and “Blue [SD]” have meanings as parameters roughly classifying the dry eye type. .
- Diff [AVG] and “Diff [SD]” indicate the degree of “color vividness” of the interference fringes, and indicate a larger value as the color is brighter. Therefore, it is particularly meaningful for the recognition of “tear reduction type” tear film interference fringe images.
- ⁇ Area uses a difference value of luminance, so that “tear reduction type” interference fringes have an auxiliary meaning for improving image recognition accuracy.
- SD [RED] and “SD [Blue]” indicate luminance variations in the vicinity of the target pixel, that is, “local color variations” in the image. For this reason, the above “Red [SD]” and “Blue [SD]” indicate variations in global luminance, but “SD [RED]” and “SD [Blue]” indicate local luminance. There is a difference that strong influence appears due to the variation of the tear, that is, tear tear. Since the tear film interference fringe image of the “healthy person” is unlikely to crack, “SD [RED]” and “SD [Blue]” are small values, but “tear reduction type” and “evaporation enhancement type”. In the tear film interference fringe image, the value is large. “SD [RED]” and “SD [Blue]” have meanings as parameters that greatly contribute to the determination of whether there is an abnormality such as tear tear.
- “Ratio [UPPER]” and “Ratio [BOTTOM]” are feature quantities having functions similar to “Diff [AVG]” and “ ⁇ Area” described above, but “tear reduction type” tear film.
- the interference fringe image there is a case in which a clear stripe pattern or a small area stripe is formed on the upper or lower portion of the image.
- the entire analysis target area is targeted, it is difficult to detect such a small local change, but “Ratio [UPPER]” and “Ratio [BOTTOM]” The target area may be further narrowed down, and it is easy to capture such a small change.
- FIG. 1 An example of the flow of image classification processing in the present invention is shown in FIG.
- the image classification device analyzes each dry-type tear film interference fringe image with respect to the learning image. And a dark region with extremely low brightness around it, this dark region is excluded as an unnecessary region, and a region where tear film interference fringes appear (generally, it appears as a substantially circular region at the center of the image). ) Is the analysis target region. In addition, it is desirable to exclude from the analysis target region unnecessary portions that are often displayed above the tear film interference fringe image and are deleted due to eyelashes or eyelashes.
- the specific method for excluding the analysis unnecessary region is not particularly limited, but for example, there is a method in which a threshold value is provided and pixels whose luminance of the tear film interference fringe image is lower than the threshold value are excluded from the analysis target.
- the threshold value may be a predetermined fixed value or a dynamic value calculated based on an average value of luminance of pixels of the tear film interference fringe image.
- a method of determining the analysis target region by detecting this may be used.
- the image classification device acquires and stores the feature amount for the analysis target region of the tear film interference fringe image of the “healthy person”.
- 11 types of feature amounts in the present invention are exemplified as described above, it is not necessary to use all of them, and it is also possible to employ a feature amount obtained by further adding a predetermined calculation.
- the accuracy of classification generally improves as the types of feature quantities to be acquired increase, an appropriate type of feature quantity may be appropriately selected and acquired in consideration of processing speed, resources, and the like.
- the image classification device acquires the predetermined feature amount described above for the tear film interference fringe image determined to be a “healthy person” and stores the acquired feature amount. Further, similarly, the feature amount acquisition is performed for the tear film interference fringe image of “tear reduction type” and the tear film interference fringe image of “evaporation enhanced type”.
- the predetermined feature quantity type and the acquired feature quantity are stored in association with each other.
- the tear film interference fringe image can be expressed by a feature vector whose dimension is the number of types of feature amounts. For example, with respect to a tear film interference fringe image of a “healthy person”, four types of feature quantities “Red [AVG]”, “Blue [AVG]”, “Red [SD]”, and “Blue [SD]” are obtained. Assuming that analysis is acquired, this tear film interference fringe image can be expressed as a four-dimensional feature vector defined as these four types of quantities.
- the image classification device has a plurality of feature vectors related to the tear film interference fringe image of “healthy person”, and similarly, a plurality of feature vectors related to the tear film interference fringe image of “tear reduction type”.
- a plurality of feature vectors related to the tear film interference fringe image of “tear reduction type” By storing and accumulating a plurality of feature vectors relating to the “evaporation enhanced” tear film interference fringe image, information for classification of these dry eye types is learned.
- the image classification device shows the tear film interference fringes of the “healthy person” among the feature vectors having the above-described feature amount as an element. And those showing “evaporation-enhanced” tear film interference fringes are recognized (stored in an identifiable state).
- FIG. 4 shows an example of a two-dimensional feature vector mapping result for easy understanding. That is, the tear film interference fringe image is a feature vector in a vector space having the number of feature quantities adopted as the number of dimensions, and these feature vectors acquired from the tear film interference fringe image for learning discriminate and classify the image. It becomes a model to do.
- the image classification apparatus acquires and stores the feature amount of tear film interference fringe image for learning.
- a model for image classification can be constructed by using feature vectors whose elements are feature amounts.
- the image classification device also acquires a predetermined feature amount for the tear film interference fringe image for testing as described in “S2 Acquisition of feature amount of tear film interference fringe image for learning”.
- the image classifier classifies the tear film interference fringe image for testing by the classifier based on the model based on the tear film interference fringe image for learning and the acquired feature quantity of the tear film interference fringe image for the test. To do.
- Comparative Example 1 As Comparative Example 1, a dry eye type classification method using a tear film interference fringe image was evaluated using a general “Bag of visual words method” as a classification method by machine learning of an image. As the tear film interference fringe images used in Comparative Example 1, a total of 138 images of 46 images (still images) were prepared for each type of dry eye (healthy person, tear reduction type, enhanced evaporation type). For these tear film interference fringe images, 31 images of each type (93 images in total) were divided into two for learning, and 15 images of each type (45 images in total) were divided into two for testing. Learned.
- the selection of images for learning of each type 31 is performed at random, and the remaining 15 images are used for testing. A total of 10 trials for evaluation as an image were performed, and the average value was used to judge whether the model was good or bad.
- the F value is generally known as one of the statistical measures for measuring the reliability of the model, and is calculated as follows.
- F value (F-measure) 2 x precision x reproduction rate / (compatibility + reproduction rate)
- the specific numerical values of the F value in this comparative example were: healthy person: 0.587, tear reduction type: 0.669, and increased evaporation type: 0.549.
- the Kappa coefficient calculated as the true coincidence rate with respect to the doctor's diagnosis result, which excludes coincidence, is 0.367, and the image classification model by general machine learning is in this case It was shown not to be effective.
- Example 1 The tear film interference fringe image used in Example 1 uses the same image set as that used in Comparative Example 1, and divides the image into two by the method described in Comparative Example 1, and the image classification apparatus performs the above Comparative Example. As with 1, for each type of dry eye (normal healthy person, tear reduction type, enhanced evaporation type), for each of 138 tear film interference fringe images of 46 images (still images), 31 images of each type Learning was performed by dividing (total 93 images) for learning and 15 images of each type (total 45 images) into two for testing.
- the feature amounts used in the first embodiment are the 11 types introduced above (“Red [AVG]”, “Red [SD]”, “Blue [AVG]”, “Blue [SD]”, “Diff [AVG]”). ”,“ Diff [SD] ”,“ ⁇ Area ”,“ SD [RED] ”,“ SD [BLUE] ”,“ Ratio [UPPER] ”,“ Ratio [BOTTOM] ”).
- the learning images of each type 31 Selection was performed at random, and the remaining 15 images were evaluated as test images for a total of 10 trials, and the average value was used to judge whether the model was good or bad.
- Example 1 The classification result of Example 1 is shown in FIG. Specific numerical values of the F value in Example 1 are “Healthy person: 0.845”, “Tear reduction type: 0.981”, “Evaporation enhancement type: 0.815”. Moreover, about the present Example (in the case of the description of Comparative Example 1), the Kappa coefficient is “0.820”, indicating that the model is almost perfect.
- Example 2 A clinical test using the machine learning model established in Example 1 was conducted to confirm whether this model is useful for dry eye type diagnosis.
- a total of 138 images of each type 46 image (still image) used in Example 1 were used as learning images, and the classification device performed learning as described above by the method described in Example 1.
- the reason for using all the images is that the accuracy rate increases as the number of images used increases.
- test images to be classified are 100 moving images with new acquisition dates from the learning images (breakdown: “Healthy person” 33 moving images, “tears reduced” 33 moving images, “evaporation enhanced” 34 moving images) Then, 10 images at intervals of 0.5 seconds for 5 seconds after opening were cut out as still images, and dry eye type determination (type classification) was performed on these images.
- the classification result of the test image was used. For example, when the result of the determination of the five images is “Healthy person / Evaporation enhanced type / Evaporation enhanced type / Evaporation enhanced type / Healthy person”, the test image is the most frequent “Enhanced evaporation type”. Classify.
- the present invention is not limited to the above description and examples.
- the classification of the type of dry eye is given as the main application of the present invention, and this is described, but the application of the present invention is not limited to this.
- an appropriate parameter may be selected and used according to the use.
- Example 1 a plurality of still images are prepared as learning images and test images to be classified.
- Example 2 moving images are prepared for the test images to be classified, but still images are used as learning images.
- the test target image may be a still image or a moving image.
- the doctor indicates the time at which a moving image to be reproduced (a moving image related to live broadcasting or a recorded moving image may be reproduced), and the still image at that time is cut out from the moving image. May be added to the learning image.
- a frame When a still image is cut out from a moving image and used as a learning image, a frame may be arbitrarily cut out, or a predetermined calculation may be performed on the cut out frame, for example, color correction, out-of-focus correction, and analysis unnecessary portions. You may make it utilize what gave removal etc.
- the present invention it becomes possible to objectively and automatically classify dry eye according to tear film interference fringe images, and it can be an objective index for dry eye type diagnosis. Be expected.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
機械学習による画像分類について、特徴差が検出され難い画像の分類、特に、涙液層干渉縞画像からドライアイのタイプの分類を可能とする画像分類方法、装置およびプログラムの提供。 学習用涙液層干渉縞画像から特徴量を取得するステップと、前記学習用涙液層干渉縞画像から取得した特徴量から画像を分類するためのモデルを構築するステップと、試験用涙液層干渉縞画像から特徴量を取得するステップと、前記モデルと前記試験用涙液層干渉縞画像から取得した特徴量により前記試験用涙液層干渉縞画像をドライアイのタイプにより分類する分類処理を行うステップと、を含む。
Description
本発明は、画像の分類方法、そのための装置及びプログラムに関する。
眼球、ならびに、瞼は、涙液によって異物の侵入、乾燥、摩擦による損傷などから保護されている。涙液層はその大半を占める水と糖たんぱく質(ムチン)からなる液層とそれを覆う油層の2層によって涙液層をなし、油層は液層が直接空気に触れることを防ぐことにより液層の水分の蒸発を防いでいる。油層の成分は瞼に存在するマイボーム腺から分泌される。加齢や炎症、ならびに、擦傷などによりマイボーム腺が損傷すると正常な油層の形成が起こらなくなって液層が保持できなくなることなどを理由にドライアイといわれる症状を引き起こす。
ドライアイは、「涙液減少型」、「蒸発亢進型」のタイプに分類することができる。それぞれにタイプについて概説すると、「涙液減少型」とは、分泌される涙液量が減少するなどの理由により液層の水分が不足するタイプであり、「蒸発亢進型」とは、油層の不足により液層の水分の蒸発が亢進してしまうことにより引き起こされるドライアイのタイプである。
ドライアイの診断については、従来から、被検者の角膜を撮影することより得られる涙液層干渉縞画像を用いることがある。角膜は、上記のとおり、油層及び液層からなる涙液層に覆われているため、撮影した画像には、その涙液による干渉縞が表れる。健常者およびドライアイのタイプによってもその涙液層干渉縞に一定の特徴が表れるため、これをドライアイの診断に利用するものである。
涙液層干渉縞画像の取得のための眼科装置については、例えば、特許文献1等に記載の技術が知られており、また、特許文献2には、近年一般的に利用されている機械学習による画像認識、画像分類に係る装置、方法等が記載されている。
画像認識、画像分類に関する機械学習の手法としては、「Bag of visual words」、「Bag of features」、「Bag of keypoints」などと称される手法が知られている。
この手法による主な画像認識、分類については、おおよそ、「1.学習用画像における特徴点からの局所特徴量の抽出」、「2.局所特徴量のクラスタリングによる「visual words」の作成」、「3.局所特徴量のベクトル量子化」、「4.ベクトル量子化による特徴量を「visual words」によりヒストグラム化」、「5.分類器による分類」のような手順となる。
具体的には、まず学習用画像における特徴点から局所特徴量を抽出する。局所特徴量とは、特徴点におけるエッジやコーナーとして表れる勾配(ベクトル)情報などである。画像中における局所特徴点の決定については、領域範囲及び位置をランダムに設定する方法、又は、固定的に設定する方法、もしくは、学習用画像について複数のスケールで平滑化し、平滑化後の各スケール間における差分を取ることにより画像におけるエッジ、コーナーといった特徴が表れる領域を特徴点として決定する方法などがある。
得られた局所特徴量をクラスタリングし、「visual words dictionary」(「コードブック」とも呼ばれる。)を作成する。クラスタリングの代表的な手法として、k平均法(k-means)が知られている。
続いて学習用画像における特徴点から抽出された局所特徴量をベクトル量子化し、作成した「visual word」によりヒストグラム化する。ヒストグラム化された情報がその画像の特徴情報(特徴ベクトル)として示されることとなる。
画像(試験画像)を分類する場合も、基本的には上記と同様の処理を行う。最終的に作成された試験画像に係るヒストグラム化された情報がその試験画像の特徴情報となる。以上により、学習用として蓄積された特徴情報と試験画像の特徴情報とに基づき分類器により画像の分類が可能となるが、分類器(分類手法)としては、例えば、特許文献2や特許文献3に記載があるように、サポートベクターマシン(Support vector machine)や、その他、EMD(Earth Mover’s Distance)等、様々な手法が提案されている。
以上が一般的な機械学習を利用した画像分類であるが、涙液層干渉縞画像によるドライアイのタイプの分類を行う場合、従来の一般的な画像分類の手法では、望ましい結果を得ることが非常に困難である。
原因として、涙液層干渉縞画像をドライアイのタイプ別に分類しようとする場合、抽出される特徴点およびそこから得られる特徴量が、必ずしもドライアイのタイプの分類において着目すべき特徴ではない、ということが考えられる。
例えば、車、クラシックギター等といった画像であれば、輪郭や色彩等に関する差が特徴差として強く検出されるため画像分類のための特徴情報が分りやすいものとなり、結果として、高精度の分類が可能である。しかしながら、涙液層干渉縞画像においては、基本となるような構造やパターンが見られないため、大きな特徴差が表れない場合も多い。そのため、涙液層干渉縞画像については、本来着目すべき特徴に特徴点が設定されない、または、適切な特徴量が抽出できないという問題がある。
また、従来のドライアイのタイプの分類については、眼科医等の観察者の知識や経験に基づく部分が大きいため、そうした知識や経験等にかかる観察者の主観的な影響を受けてしまうため、そうした観察者によるバイアスの少ない客観的で安定した分類を支援する方法や装置等が求められるところである。
本発明は、こうした従来の問題点に鑑みてなされたものであり、以下のステップもしくは手段を含む画像分類方法、装置及びプログラムである。
(1)学習用涙液層干渉縞画像から特徴量を取得するステップと、前記学習用涙液層干渉縞画像から取得した特徴量から画像を分類するためのモデルを構築するステップと、試験用涙液層干渉縞画像から特徴量を取得するステップと、前記モデルと前記試験用涙液層干渉縞画像から取得した特徴量により前記試験用涙液層干渉縞画像をドライアイのタイプにより分類する分類処理を行うステップと、を含む。
(2)上記(1)において、前記特徴量とは、画像の色に関する情報であって、色彩、色の多様性、色の鮮やかさ、局所的な色のばらつきに係る情報のうちの少なくとも一を含む。
(3)上記(2)において、前記色彩に係る情報とは、赤色及び青色輝度画像の少なくともいずれか一方の輝度平均に基づく情報である。
(4)上記(2)又は(3)において、前記色の多様性に係る情報とは、赤及び青色輝度画像の少なくともいずれか一方の輝度の標準偏差に基づく情報である。
(5)上記(2)乃至(4)のいずれかにおいて、前記色の鮮やかさに係る情報とは、画素の輝度の差分値に基づく情報である。
(6)上記(2)乃至(5)のいずれかにおいて、前記局所的な色のばらつきとは、注目画素の輝度とその周辺画素の輝度から算出される標準偏差に基づく情報である。
(7)上記(1)乃至(6)のいずれかにおいて、前記試験用涙液層干渉縞画像が動画像の場合、所定の複数フレームについて前記分類処理を行い、最頻の結果をその試験画像の分類結果とする。
(8)上記(1)乃至(7)のいずれかにおいて、前記学習用涙液層干渉縞画像および前記試験用涙液層干渉縞画像における所定領域から前記特徴量を取得する。
(9)上記(1)乃至(8)のいずれかにおいて、前記涙液層干渉縞画像とは、開瞼検知から一定時間の動画像、もしくは、開瞼検知から一定時間内の任意のタイミングで取得された1以上の静止画である。
(10)上記(9)において、前記一定時間とは、5秒間である請求項1乃至9のいずれか1項に記載の画像分類方法。
(1)学習用涙液層干渉縞画像から特徴量を取得するステップと、前記学習用涙液層干渉縞画像から取得した特徴量から画像を分類するためのモデルを構築するステップと、試験用涙液層干渉縞画像から特徴量を取得するステップと、前記モデルと前記試験用涙液層干渉縞画像から取得した特徴量により前記試験用涙液層干渉縞画像をドライアイのタイプにより分類する分類処理を行うステップと、を含む。
(2)上記(1)において、前記特徴量とは、画像の色に関する情報であって、色彩、色の多様性、色の鮮やかさ、局所的な色のばらつきに係る情報のうちの少なくとも一を含む。
(3)上記(2)において、前記色彩に係る情報とは、赤色及び青色輝度画像の少なくともいずれか一方の輝度平均に基づく情報である。
(4)上記(2)又は(3)において、前記色の多様性に係る情報とは、赤及び青色輝度画像の少なくともいずれか一方の輝度の標準偏差に基づく情報である。
(5)上記(2)乃至(4)のいずれかにおいて、前記色の鮮やかさに係る情報とは、画素の輝度の差分値に基づく情報である。
(6)上記(2)乃至(5)のいずれかにおいて、前記局所的な色のばらつきとは、注目画素の輝度とその周辺画素の輝度から算出される標準偏差に基づく情報である。
(7)上記(1)乃至(6)のいずれかにおいて、前記試験用涙液層干渉縞画像が動画像の場合、所定の複数フレームについて前記分類処理を行い、最頻の結果をその試験画像の分類結果とする。
(8)上記(1)乃至(7)のいずれかにおいて、前記学習用涙液層干渉縞画像および前記試験用涙液層干渉縞画像における所定領域から前記特徴量を取得する。
(9)上記(1)乃至(8)のいずれかにおいて、前記涙液層干渉縞画像とは、開瞼検知から一定時間の動画像、もしくは、開瞼検知から一定時間内の任意のタイミングで取得された1以上の静止画である。
(10)上記(9)において、前記一定時間とは、5秒間である請求項1乃至9のいずれか1項に記載の画像分類方法。
本発明では、機械学習による画像の分類にあたり、画像における色とその多様性、色の鮮やかさ、局所的な色のばらつき等を示す情報を特徴量として利用して分類するので、特徴差が検出され難い画像の分類、例えば、涙液層干渉縞画像からドライアイのタイプ(特に「健常者」「涙液減少型」「蒸発亢進型」)の分類が可能となる。また、特に涙液層干渉縞画像におけるドライアイタイプの分類にあたっては、従来の一般的な機械学習法よりも、観察者の主観を排した客観的な分類の指標、分類結果を提供することができる。また本発明では、涙液層の崩壊が検知される前に取得された画像に対しても本発明の処理を施すので、完全な涙液層の崩壊が生じていない状態の眼の状態を計測していることになり、それにより、ごく軽度な崩壊や、崩壊に準ずるような症状、崩壊の予兆や傾向、などを検知することも期待できる。
[涙液層干渉縞画像の取得]
角膜表面における涙液層の干渉縞画像を取得するための装置(涙液層干渉縞画像取得装置)については、撮影した画像をデジタルデータとして記録できるものであればよく、従来既知のものを適宜用いればよい。例えば、図1に概略を示すように、涙液層干渉縞画像取得装置は、光源11から発せられ、絞りを通過した光線は、順にレンズ12、スプリッタ13、対物レンズ14を経て、被検者の被検眼の前眼部15に集光される。前眼部15からの反射光は、対物レンズ14およびスプリッタ13を通過し、結像レンズ16を経て撮像素子17上に結像される。撮像素子17に結像された撮影データは、画像処理エンジンによる所定の処理が施され、静止画像データ、動画像データに変換される。
角膜表面における涙液層の干渉縞画像を取得するための装置(涙液層干渉縞画像取得装置)については、撮影した画像をデジタルデータとして記録できるものであればよく、従来既知のものを適宜用いればよい。例えば、図1に概略を示すように、涙液層干渉縞画像取得装置は、光源11から発せられ、絞りを通過した光線は、順にレンズ12、スプリッタ13、対物レンズ14を経て、被検者の被検眼の前眼部15に集光される。前眼部15からの反射光は、対物レンズ14およびスプリッタ13を通過し、結像レンズ16を経て撮像素子17上に結像される。撮像素子17に結像された撮影データは、画像処理エンジンによる所定の処理が施され、静止画像データ、動画像データに変換される。
涙液層干渉縞画像取得装置は、本発明に係る画像分類装置と物理的又は論理的に接続される。当該画像分類装置は、データを演算および処理する処理手段、涙液層干渉縞画像取得装置により取得された画像データ、動画像データおよびその他のデータを記憶する記憶手段を備えるものであり、当該記憶手段には、本発明を実施するためのコンピュータプログラムや所定のデータがそれぞれ記憶されており、処理手段は、当該コンピュータプログラム等による所定の命令に従ってデータの処理を行うものである。
なお、以下の説明については、涙液層干渉縞画像は、一定時間にわたって撮影された複数の連続するフレームからなる動画像、又は、静止画像の両方の意味を含むものであり、画像分類装置自体又はこれに接続された記憶装置に記憶されているものとする。
ここで、涙液層干渉縞画像の取得については、開瞼検知から一定時間経過時間経過時に自動的に涙液層干渉縞画像の取得を完了させるようにしてもよい。特に、近年、開瞼から涙液層の崩壊が検知されるまでの時間である「BUT(Break Up Time)」が、5秒以下である場合をドライアイと診断する、という診断基準が日本を含むアジア地区で採択されていることから、一定時間を5秒として、開瞼検知から5秒経過時に自動的に涙液層干渉縞画像の取得を完了するようにしてもよい。
また、開瞼検知から、所定の時間間隔毎(たとえば、0.5秒毎)に涙液層干渉縞画像を静止画像として取得するようにしてもよい。さらに、順次その涙液層干渉縞画像を解析し、一定時間経過前に涙液層の崩壊が検知された場合、その時点で、涙液層干渉縞画像の取得を完了するようにしてもよい。以下、具体的に説明する。
開瞼検知については、従来既知の方法を適宜利用できるが、具体的には、たとえば、特許文献4に記載の方法が知られている。これは、通常、瞬きが行われる場合、閉瞼による画像中の輝度の大幅な低下と、開瞼による輝度の大幅な上昇が起こるが、この、瞬きの閉瞼により当該輝度平均値の大幅な低下と、開瞼による上昇を利用し、この輝度平均値に対して所定の閾値を設定して、輝度平均値がその閾値以上に変化した時点を開瞼時として検出するようにする方法である。
閾値については、画像中における所定領域のRGB各色要素の輝度の平均値とするのが好適であるが、これに限定されない。開瞼検知のための閾値は、任意に設定してもよく、また、2以上の色要素の輝度から適宜演算して得た値に基づいて検出してもよい。カラー画像の輝度をそのまま利用してもよいし、グレースケール階調に変換した画像の輝度等を利用してもよい。
ただ、この開瞼時検知において所定領域の輝度の平均値を用いているのが好適な理由は、この閾値の設定を適正に行うことができるためである。取得された涙液層干渉縞画像は、被検者の目の状態、例えば、角膜の状態やまつ毛の量やその長さ、周囲の光量など様々な要因によって、明るさが一定ではないではないので、閾値を一律に定めるのが困難であるためである。
そのため、涙液層干渉縞画像における所定領域の輝度の平均値を閾値の設定に利用することで、画像自体の明るさ(輝度の大小)に関わらず、画像に応じた適正な閾値とすることができる。具体的には、涙液層干渉縞画像から得られた輝度値の最小値と最大値との中央値を閾値として設定するようにしてもよいし、最小値から所定値を加算、または、最大値から所定を減算した値を閾値としてもよい。瞬きにおける輝度平均値が示す変動の変動幅に収まる値を設定できる方法であればよい。
上述してきたとおり、涙液層干渉縞画像の取得にあたっては、開瞼検知からタイマーにより一定時間(たとえば、5秒間)経過時に涙液層干渉縞画像の取得を完了させてもよい。また、この一定時間経過前であっても、被検者による瞬きを1回または複数回検知したら涙液層干渉縞画像の取得を完了させるようにしてもよい。被検者の瞬き検知は、上記開瞼検知とほぼ同様に、開瞼時と閉瞼時の画像における輝度の大幅な変化を利用するようにしてよく、具体的には、画像の所定領域の輝度の平均値、もしくは、任意の値と、所定の閾値とを比較することにより瞬きを検知するようにすることができる。
また、上述のとおり、開瞼検知から所定時間間隔毎(たとえば、0.5秒毎)に、涙液層干渉縞画像を静止画像として取得し、その画像中に涙液層の崩壊が検知できるか否かを順次解析し、涙液層の崩壊が検知された時点で、涙液干渉縞画像の取得を完了するようにしてもよい。ここで、涙液層の崩壊の検知については、従来既知の方法、例えば慣用されているエッジ検出法やハフ変換法などを適宜利用できるが、本実施例では特許文献4に記載の方法で説明する。これは、涙液層干渉縞画像における色のばらつきを示す値を算出しこれを評価する方法であり、具体的には、涙液層干渉縞画像のRGB色空間の輝度を画像内の所定の領域内の各画素について調べ、赤、緑、青の少なくとも1つ以上の色要素の強度が領域内部でどれぐらいばらついているかを評価する方法である。以下に具体的に示す。
この色のばらつきに関しては、各色要素の輝度から得られる分散値や偏差(標準偏差等)、もしくは、それら分散値や標準偏差等による値を領域内の画素の輝度の平均値で除算した値(変動係数)を用いることができる。これらの値は必要により任意に選択して用いればよい。
色のばらつきを示す値の算出は、画像全体(全画素)に対して算出するようにしてもよいが、注目画素およびこれに隣接する画素を一纏めにした画素を局所領域とし、その局所領域について色情報の多様性を求めるようにするのが好適である。このようにして求めた色のばらつきを示す値は、画像全体に対して算出する場合と比較して解析の即時性は低いながら、解像度が高く、且つ、空間的位置情報が元の画像と一致しているため、涙液層の崩壊の位置や面積の特定に資する。具体的に図7A及びBを参照しつつ説明する。
図7Aは、ある画像の対象領域における注目画素とその注目画素を囲む8画素による3×3の計9画素が示す領域について輝度の標準偏差を算出している場合を示す模式図である。図7Aの各数値は、当該画像の一部における各画素の輝度の数値を示すものである。
図7Aに示す「領域1」は、注目画素1およびそれを取り囲む画素からなる計9画素(3×3画素)からなる領域からなり、当該領域1において標準偏差を算出し注目画素1に出力する。これを図7Aのような輝度を持つ画像の対象領域にスキャンした結果を示すのが図7Bである。
つまり、注目画素とこれを中心とする所定の画素からなる局所領域における輝度等の色情報の標準偏差を注目画素に出力するフィルタにより、画像の対象領域(全体又は所望の一部)をスキャンして画素毎に出力された標準偏差を記憶する。
ここで、図7AおよびBにおいて、具体的な数値を確認すると、領域1において注目画素1に出力された標準偏差を見てみると「2.2」と小さいが、領域2における注目画素2に出力された値は「7.1」と大きい。原則として、涙液層の状態悪化の程度が進むほど、色のばらつきが高くなる傾向にあるので、図3に示すデータにあっては、領域1と比較して領域2の方が色のばらつきが高いため、領域2の方が涙液層の状態が悪いと判断できることになる。
なお、ここで、ドライアイ重症度グレード5を示すような涙液層崩壊が広範囲にわたる重症の被検者の場合、上述のような輝度等による色情報の分散や標準偏差により算出された数値のみだと涙液層崩壊を適切に判定できない場合がある。涙液層崩壊箇所は崩壊していない箇所と比較して輝度が一定でばらつきが少ない。このため涙液層の崩壊箇所が広範囲に及ぶと上述したような分散や標準偏差によるばらつきを示す値が大きくならない箇所が増え、結果として涙液崩壊が検出できない、もしくは、実態にそぐわないような軽症と判定されるおそれがあるためである。
そのため、以下の「式1」により算出される変動係数、すなわち、上述のように得られる輝度の分散や標準偏差による値をその領域における輝度の平均値で除算することにより得られる数値を用いるようにしてもよい。
[式1]
変動係数 = 輝度の標準偏差 / 輝度平均値
[式1]
変動係数 = 輝度の標準偏差 / 輝度平均値
なお、これまでの説明では、図7は、注目画素およびそれを取り囲む画素による局所領域における標準偏差もしくは変動係数等の色のばらつきを示す値を注目画素毎にそれぞれ出力しているが、注目画素に出力せずに、その局所領域を一つの区分とみて、この区分毎に標準偏差を出力するようにしてもよい。また、当該領域又は区分は、3×3の計9画素に限るものではなく、任意の数の画素の集合であってよいのは勿論である。
以上のとおり、色のばらつきを示す値は、所定領域における色情報(輝度等)のばらつき、すなわち、分散又は標準偏差等の偏差を求めることにより得られるものであり、また、これらの他、所定の領域における色情報のばらつきを示す値を所定領域における色情報の平均値で除算した値、すなわち、変動係数によるものである。
涙液層の崩壊を検知するか否かの判定は、上述のようにして得た、分散、標準偏差、変動係数等による色のばらつきを示す値に基づいて判定するものである。例えば、標準偏差等の色のばらつきを示す値が所定の閾値以上を示す画素または区分の数をカウントし、そのカウント数が所定閾値以上の場合に涙液層の崩壊が起こっていると判定する。
別の方法としては、例えば、標準偏差等の色のばらつきを示す値が所定の閾値以上を示す画素または区分の面積を算出し、その面積が所定の閾値以上の場合に涙液層の崩壊が起こっていると判定するようにしてもよい。
また、抽出画像のスキャン対象領域全体に占める標準偏差等の色のばらつきを示す値が所定の閾値以上を示す画素または区分の割合で判定してもよい。抽出画像のスキャン対象領域全体の画素数若しくは面積に占める色のばらつきを示す値が所定の閾値以上を示す画素の数若しくは面積の割合が所定以上の場合に涙液層の崩壊があったと判定するようにしてもよい。
ただし、抽出画像における元の色情報が不適切であること等から算出される色のばらつきを示す値がノイズを含む可能性が否定できないため、色のばらつきを示す値が所定の閾値以上を示す画素または区分と判定されても、それが一の連続する領域として所定の大きさ(面積)に満たないものは除外するようにしてもよい。
上述のような涙液層の崩壊を検知するための解析処理を、開瞼検知から所定時間(0.5秒)間隔毎に静止画像として取得された涙液層干渉縞画像に対して行い、涙液層の崩壊が検知されたと判定された場合は、その時点で、涙液層干渉縞画像の取得を完了するようにしてよい。たとえば、開瞼検知から0.5秒経過時の涙液層干渉縞画像(静止画像)について涙液層の崩壊が検知された場合は、それ以後の涙液層干渉縞画像の取得を止める。涙液層の崩壊が検知されない場合は、さらに0.5秒(開瞼検知から1秒後)の涙液層干渉縞画像を取得し、これに対し、同様の涙液層の崩壊を検知するための解析処理を行う。これを繰り返し行い、一定時間(たとえば5秒)経過しても涙液層の崩壊が検知されたと判定されなかった場合は、その一定時間をもって、涙液層干渉縞画像の取得を完了する。
上述のようにして得られた涙液干渉縞画像についてドライアイのタイプ別に分類する処理について以下説明する。ドライアイのタイプ別に分類する処理に使用される涙液層干渉縞画像は、一定時間撮影された動画像における任意の、もしくは、全てのフレームに対して行うようにすることができる。また、上述のようにして得られた0.5秒間隔毎などの所定時間間隔毎に取得された静止画像全てに対して行ってもよい。もしくは、涙液層の崩壊が検知された静止画像、または、この直前に取得された静止画像のどちらか片方、もしくは、両方について行うことにしてもよい。あるいは、開瞼検知から5秒経過時に取得された静止画像、または、動画像にあっては開瞼検知から5秒経過時にあたるフレームに対して行うようにしてもよい。
[画像の色情報]
本発明において用いる色情報としては、例えば、多くの電子画像機器で用いられている方式である、赤、緑、青の3色の色要素(RGB色空間の数値)を用いる方法がある。具体的には、各画素の色情報とは、画素が持つ赤、緑、青の色要素の輝度である。
本発明において用いる色情報としては、例えば、多くの電子画像機器で用いられている方式である、赤、緑、青の3色の色要素(RGB色空間の数値)を用いる方法がある。具体的には、各画素の色情報とは、画素が持つ赤、緑、青の色要素の輝度である。
なお、以下の説明は、RGB色空間における輝度を用いる場合を元に例に説明するが、本発明において、色情報は、RGB色空間における数値に限るものではなく、HSV色空間、HSB色空間、HLS色空間、あるいはHSL色空間などで規定される輝度、あるいは、明度を使用することを否定するものではない。
[本発明における特徴量]
そこで、本発明については、涙液層干渉縞画像について以下のような特徴量を用いることで、機械学習のよる涙液層干渉縞画像のドライアイタイプの分類の精度向上を可能にした。本発明で用いることのできる特徴量は、例えば以下のものが挙げられる。
(1)Red[AVG]:画像を光の三原色の3つの層に分け、そのうちの赤色の輝度画像について、解析対象領域の画素の輝度の平均値を求めたものである。
(2)Red[SD]:上記の赤色輝度画像の解析対象領域の画素輝度のばらつきを標準偏差として求めたものである。
(3)Blue[AVG]:青色輝度画像に対して平均値を求めたものである。
(4)Blue[SD]:青色輝度画像に対して標準偏差を求めたものである。
(5)Diff[AVG]:解析対象領域内の全ての画素に対して以下を行う。
(a)注目画素の赤、緑、青の各輝度の値を得る。
(b)それら3つの値のうちの最大値から最小値を差し引いた差分値を求める。(例えば各色の輝度が「赤:192、緑:184、青:164」の場合の差分値は「差分値=192-164=28」となる。)
(c)これを領域内すべての画素に対して計算して差分画像を得る。
(d)得られた画像に対して領域内の画素輝度の平均値を求めたものが「Diff[AVG]」である。
(6)Diff[SD]:上記(5)-(c)で得た差分画像に対して、解析対象領域内の画素輝度の標準偏差を求めたものである。
(7)√Area:上記(5)-(c)で得た差分画像に対して、解析対象領域内の画素がある閾値よりも大きかった画素の総数を得、その総数(=面積)の平方根を算出した値である。
(8)SD[RED]:赤色輝度画像の解析対象領域において以下を行う。
(a)注目画素から半径R(Rは任意の値)の範囲に含まれる画素の輝度のばらつきを標準偏差として得る。
(b)得られた値をその画素の部位(X,Y座標)の値として記録し、これを解析対象領域全体に対して行い標準偏差画像を生成する。
(c)標準偏差画像の解析対象領域において標準偏差画像の輝度値のばらつきを算出したものがSD[RED]である。
(9)SD[BLUE]:青色輝度画像の解析対象領域において上記(8)と同様の処理を行って標準偏差を算出する。
(10)Ratio[UPPER]:解析対象領域内の上方の所定画素に対して以下を行う。
(a)注目画素の赤、緑、青の輝度から上記(5)-(b)と同様に輝度値の最大成分値と最小成分値を得る。
(b)赤、緑、青の全ての輝度値が閾値以上の場合に以下を行う。
Ratio=max/min。すなわち、得られた最大値を最小値で除した値を「Ratio」とする。
(c)Ratio値がある閾値より大きい画素の数を計数したものが「Ratio[UPPER]」である。
(11)Ratio[BOTTOM]:解析対象領域内の下方の所定の画素に対して上記(10)と同様のことを行い「Ratio[BOTTOM]」を得る。
そこで、本発明については、涙液層干渉縞画像について以下のような特徴量を用いることで、機械学習のよる涙液層干渉縞画像のドライアイタイプの分類の精度向上を可能にした。本発明で用いることのできる特徴量は、例えば以下のものが挙げられる。
(1)Red[AVG]:画像を光の三原色の3つの層に分け、そのうちの赤色の輝度画像について、解析対象領域の画素の輝度の平均値を求めたものである。
(2)Red[SD]:上記の赤色輝度画像の解析対象領域の画素輝度のばらつきを標準偏差として求めたものである。
(3)Blue[AVG]:青色輝度画像に対して平均値を求めたものである。
(4)Blue[SD]:青色輝度画像に対して標準偏差を求めたものである。
(5)Diff[AVG]:解析対象領域内の全ての画素に対して以下を行う。
(a)注目画素の赤、緑、青の各輝度の値を得る。
(b)それら3つの値のうちの最大値から最小値を差し引いた差分値を求める。(例えば各色の輝度が「赤:192、緑:184、青:164」の場合の差分値は「差分値=192-164=28」となる。)
(c)これを領域内すべての画素に対して計算して差分画像を得る。
(d)得られた画像に対して領域内の画素輝度の平均値を求めたものが「Diff[AVG]」である。
(6)Diff[SD]:上記(5)-(c)で得た差分画像に対して、解析対象領域内の画素輝度の標準偏差を求めたものである。
(7)√Area:上記(5)-(c)で得た差分画像に対して、解析対象領域内の画素がある閾値よりも大きかった画素の総数を得、その総数(=面積)の平方根を算出した値である。
(8)SD[RED]:赤色輝度画像の解析対象領域において以下を行う。
(a)注目画素から半径R(Rは任意の値)の範囲に含まれる画素の輝度のばらつきを標準偏差として得る。
(b)得られた値をその画素の部位(X,Y座標)の値として記録し、これを解析対象領域全体に対して行い標準偏差画像を生成する。
(c)標準偏差画像の解析対象領域において標準偏差画像の輝度値のばらつきを算出したものがSD[RED]である。
(9)SD[BLUE]:青色輝度画像の解析対象領域において上記(8)と同様の処理を行って標準偏差を算出する。
(10)Ratio[UPPER]:解析対象領域内の上方の所定画素に対して以下を行う。
(a)注目画素の赤、緑、青の輝度から上記(5)-(b)と同様に輝度値の最大成分値と最小成分値を得る。
(b)赤、緑、青の全ての輝度値が閾値以上の場合に以下を行う。
Ratio=max/min。すなわち、得られた最大値を最小値で除した値を「Ratio」とする。
(c)Ratio値がある閾値より大きい画素の数を計数したものが「Ratio[UPPER]」である。
(11)Ratio[BOTTOM]:解析対象領域内の下方の所定の画素に対して上記(10)と同様のことを行い「Ratio[BOTTOM]」を得る。
本発明における特徴量の意味を説明する前に、ドライアイの分類について詳細に説明する。本発明に係る画像分類装置においては、「健常者」、「涙液減少型」「蒸発亢進型」の3パターンに涙液層干渉縞画像を分類することを主眼としている。当該3タイプの涙液層干渉縞画像を図2に示す。なお実際に取得される涙液層干渉縞画像はカラー画像であるので、その色彩的な特徴等を含め以下に説明する。
「健常者」の涙液層干渉縞画像は、一般的に、干渉縞は確認できるものの、全体的に色彩の変化に乏しく、グレー系色単色に近い見え方をする。「涙液減少型」は、対照的に、油層の厚みにもよるもの、赤系、青系、緑系、グレー系等の色が入り混じって表れ、さらに涙液の亀裂や欠損部分が明るい白系色として表れ、これを囲む輪郭のように黒系色が線状もしくは点状に部分的に表れる。「蒸発亢進型」は、全体的な色としては若干赤みを帯びたグレー系色として表れ、部分的に涙液の亀裂が白系色で線状に表れる。
これら3パターンの特徴を前提に、本発明における特徴量を説明する。「Red[AVG]」と「Blue[AVG]」は、涙液層干渉縞画像の「色彩」に係る情報であり、色とその明るさを見る指標の一つとなる。すなわち、健常者の涙液層干渉縞は、縞模様は存在するが比較的明るいグレー系色単色に近いため、「Red[AVG]」と「Blue[AVG]」は共に高い値を示すもののその差は小さい。「蒸発亢進型」の涙液層干渉縞は、若干「Red[AVG]」が「Blue[AVG]」より高い値を示す。「涙液減少型」の涙液層干渉縞は、鮮やかな干渉色を示すが、特に赤系色を示す領域が大きいため、「Red[AVG]」が他のドライアイタイプより高い値となる。
「Red[SD]」、「Blue[SD]」は、涙液層干渉縞画像の「色の多様性」を示す情報である。基本的には「Red[AVG]」、「Blue[AVG]」との関係と同様の傾向を示すが、涙液層干渉縞の色の変化が大きくなっている場合には高い値を示す。
以上のとおり「Red[AVG]」、「Blue[AVG]」、「Red[SD]」および「Blue[SD]」の4特徴量は、ドライアイタイプを大まかに分類するパラメータとしての意味を持つ。
「Diff[AVG]」、「Diff[SD]」は、干渉縞の「色の鮮やかさ」の程度を示すものであり、色彩が鮮やかなほど大きな値を示す。そのため、特に、「涙液減少型」の涙液層干渉縞画像の認識に意味を持つ。「√Area」は同様に輝度の差分値を利用するものであるため「涙液減少型」干渉縞が画像の認識精度向上のための補助的な意味を持つ。
「SD[RED]」、「SD[Blue]」は、注目画素近傍における輝度のばらつき、つまり、画像における「局所的な色のばらつき」を示す。そのため、上記「Red[SD]」、「Blue[SD]」は、大域的な輝度のばらつきを示すものであるが、「SD[RED]」、「SD[Blue]」は、局所的な輝度のばらつき、すなわち、涙液の亀裂により強い影響が表れるという違いがある。「健常者」の涙液層干渉縞画像は亀裂が起こり難いためこの「SD[RED]」、「SD[Blue]」は小さい値となるが、「涙液減少型」および「蒸発亢進型」の涙液層干渉縞画像においては、大きな値となる。「SD[RED]」、「SD[Blue]」は、涙液の亀裂等の異常があるか否かの判定に大きく寄与するパラメータとしての意味を持つ。
「Ratio[UPPER]」、「Ratio[BOTTOM]」は、上記の「Diff[AVG]」や「√Area」と類似した機能を持つ特徴量であるが、「涙液減少型」の涙液層干渉縞画像には、明瞭な縞模様を表さないものや小さな領域の縞が画像の上部、或いは、下部に形成される場合がある。「Diff[AVG]」や「√Area」では、解析対象領域全体を対象としているため、こうした局所的な少変化を捉えにくいが、「Ratio[UPPER]」、「Ratio[BOTTOM]」は、解析対象領域を更に絞ることもあり、こうした少変化を捉えやすく、結果として「涙液減少型」タイプの認識向上に寄与する特徴量である。
[S1 解析対象領域の確定]
本発明における画像分類の処理の流れの一例を図3に示す。画像分類装置は、それぞれのドライタイプ涙液層干渉縞画像を学習用画像について解析を行うが、涙液層干渉縞画像は、角膜が曲率を有するため、涙液層干渉縞が表れている領域とその周囲の輝度が著しく低い暗領域とが存在するため、この暗領域は不要な領域として除外し涙液層干渉縞が表れている領域(一般的には画像中央に略円形領域として表れる。)を解析対象領域とするのが望ましい。また、特に涙液層干渉縞画像の上方に表れることの多い、瞼や睫毛による欠失部分も不要な領域として解析対象領域から除外するのが望ましい。
本発明における画像分類の処理の流れの一例を図3に示す。画像分類装置は、それぞれのドライタイプ涙液層干渉縞画像を学習用画像について解析を行うが、涙液層干渉縞画像は、角膜が曲率を有するため、涙液層干渉縞が表れている領域とその周囲の輝度が著しく低い暗領域とが存在するため、この暗領域は不要な領域として除外し涙液層干渉縞が表れている領域(一般的には画像中央に略円形領域として表れる。)を解析対象領域とするのが望ましい。また、特に涙液層干渉縞画像の上方に表れることの多い、瞼や睫毛による欠失部分も不要な領域として解析対象領域から除外するのが望ましい。
解析不要領域の除外の具体的な方法は、特に拘るものではないが、例えば、閾値を設けて涙液層干渉縞画像の画素の輝度が閾値以下の画素は解析対象から除外する方法がある。閾値は、予め決めた固定値もしくは涙液層干渉縞画像の画素の輝度の平均値などに基づき算出される動的な値でもよい。または、涙液層干渉縞と周囲の黒色領域との境界はエッジとして強く表れるので、これを検出することにより解析対象領域を決定する方法でもよい。
[S2 学習用涙液層干渉縞画像の特徴量の取得]
画像分類装置は、その「健常者」の涙液層干渉縞画像の解析対象領域について上記特徴量を取得し記憶する。本発明における特徴量は上記のとおり11種類を例示したが、これを全て用いなくてもよいし、更に所定の演算を加えたものを特徴量として採用してもよい。取得する特徴量の種類を増加させる程、一般的に分類の精度が向上するが、処理速度やリソース等も考慮し適切な種類の特徴量を適宜選択し取得するようにしてよい。
画像分類装置は、その「健常者」の涙液層干渉縞画像の解析対象領域について上記特徴量を取得し記憶する。本発明における特徴量は上記のとおり11種類を例示したが、これを全て用いなくてもよいし、更に所定の演算を加えたものを特徴量として採用してもよい。取得する特徴量の種類を増加させる程、一般的に分類の精度が向上するが、処理速度やリソース等も考慮し適切な種類の特徴量を適宜選択し取得するようにしてよい。
このように、画像分類装置は、「健常者」のものとして診断が決定している涙液層干渉縞画像について上記に説明した所定の特徴量を取得し、取得した特徴量をそれぞれ記憶する。更に、同様に「涙液減少型」の涙液層干渉縞画像、「蒸発亢進型」の涙液層干渉縞画像について同様に特徴量取得を行う。
[S3 画像分類のためのモデルの構築]
S2によって、予め定めた特徴量の種類と取得された特徴量とが関連付けて記憶される。これにより、涙液層干渉縞画像は、特徴量の種類の数を次元とする特徴ベクトルで表現することができる。たとえば、ある「健常者」の涙液層干渉縞画像について、「Red[AVG]」、「Blue[AVG]」、「Red[SD]」および「Blue[SD]」の4種類の特徴量を解析取得しているとすると、この涙液層干渉縞画像はこれら4種類の量として定義される4次元の特徴ベクトルとして表現することができる。
S2によって、予め定めた特徴量の種類と取得された特徴量とが関連付けて記憶される。これにより、涙液層干渉縞画像は、特徴量の種類の数を次元とする特徴ベクトルで表現することができる。たとえば、ある「健常者」の涙液層干渉縞画像について、「Red[AVG]」、「Blue[AVG]」、「Red[SD]」および「Blue[SD]」の4種類の特徴量を解析取得しているとすると、この涙液層干渉縞画像はこれら4種類の量として定義される4次元の特徴ベクトルとして表現することができる。
以上の処理により、画像分類装置は、「健常者」の涙液層干渉縞画像に係る複数の特徴ベクトル、同様に、「涙液減少型」の涙液層干渉縞画像に係る複数の特徴ベクトル、「蒸発亢進型」の涙液層干渉縞画像に係る複数の特徴ベクトルを記憶蓄積することにより、これらドライアイタイプの分類のための情報を学習したこととなる。
つまり、画像分類装置は、上記の処理の結果、上記のような特徴量を要素とする特徴ベクトルのうち「健常者」の涙液層干渉縞を示すもの、同様に、「涙液減少型」の涙液層干渉縞を示すもの、および、「蒸発亢進型」の涙液層干渉縞を示すものを認識している(識別可能な状態で記憶している)ことになる。図4に、把握を容易にするため2次元による特徴ベクトルのマッピング結果の一例を示す。つまり、涙液層干渉縞画像は、採用した特徴量の数を次元数とするベクトル空間における特徴ベクトルであり、学習用の涙液層干渉縞画像から取得したこれら特徴ベクトルが画像を判別、分類するためのモデルとなる。
[S4 試験用涙液層干渉縞画像の特徴量の取得と分類器による分類]
S2及びS3の学習の処理を経た画像分類装置は、上記のとおり、未知の画像分類のための前提情報を記憶しているため、上記に挙げたようなサポートベクターマシンやEMD(Earth Mover’s Distance)といった既に一般に知られている分類器(分類手法)を適宜用いることができる。
S2及びS3の学習の処理を経た画像分類装置は、上記のとおり、未知の画像分類のための前提情報を記憶しているため、上記に挙げたようなサポートベクターマシンやEMD(Earth Mover’s Distance)といった既に一般に知られている分類器(分類手法)を適宜用いることができる。
上記のとおり、「S2 学習用涙液層干渉縞画像の特徴量の取得」において、画像分類装置は、学習用の涙液層干渉縞画像の特徴量を取得して記憶しているため、それら特徴量を要素とする特徴ベクトルにより画像分類のためのモデルを構築できる。
画像分類装置は、試験用の涙液層干渉縞画像についても、「S2 学習用涙液層干渉縞画像の特徴量の取得」のとおり、所定の特徴量を取得する。画像分類装置は、学習用の涙液層干渉縞画像によるモデルと、取得された試験用の涙液層干渉縞画像の特徴量に基づき、分類器により試験用の涙液層干渉縞画像を分類する。
[比較例1]
比較例1として、画像の機械学習による分類法として一般的な「Bag of visual words法」を用いて涙液層干渉縞画像を用いたドライアイタイプ分類法を評価した。比較例1において用いた涙液層干渉縞画像は、ドライアイの各タイプ(健常者、涙液減少型、蒸発亢進型)について、それぞれ46画像(静止画像)の計138画像を用意した。これら涙液層干渉縞画像について、各タイプの31画像(合計93画像)を学習用に、各タイプの15画像(合計45画像)を試験用に2分して画像分類装置が上記のように学習を行った。
比較例1として、画像の機械学習による分類法として一般的な「Bag of visual words法」を用いて涙液層干渉縞画像を用いたドライアイタイプ分類法を評価した。比較例1において用いた涙液層干渉縞画像は、ドライアイの各タイプ(健常者、涙液減少型、蒸発亢進型)について、それぞれ46画像(静止画像)の計138画像を用意した。これら涙液層干渉縞画像について、各タイプの31画像(合計93画像)を学習用に、各タイプの15画像(合計45画像)を試験用に2分して画像分類装置が上記のように学習を行った。
偶然選出されたファイルの組み合わせによる正解値の結果の良し悪しが確立したモデルの評価に影響することを避けるため、各タイプ31の学習用画像の選出をランダムに行い、残りの15画像を試験用画像として評価を行う試行を合計10回行い、その平均値をモデルの良し悪しの判断に利用した。
以上の分類の結果を示す。モデルの信頼性をはかる統計的尺度の一つとしてF値が一般に知られており、以下のとおり算出される。
F値(F-measure)=2 × 適合率 × 再現率 / (適合率 + 再現率)
F値(F-measure)=2 × 適合率 × 再現率 / (適合率 + 再現率)
本比較例におけるF値の具体的数値は、健常者:0.587、涙液減少型:0.669、蒸発亢進型:0.549であった。また、比較例1について、偶然の一致を排除した、医師の診断結果に対する真の一致率として算出されたKappa係数は、0.367であり、一般的な機械学習による画像分類モデルは本件においては有効ではないことが示された。
[実施例1]
実施例1において用いた涙液層干渉縞画像は、比較例1に使用したものと同一の画像セットを利用し、比較例1記載の方法により画像を2分して画像分類装置が上記比較例1と同様に、ドライアイの各タイプ(健常者、涙液減少型、蒸発亢進型)について、それぞれ46画像(静止画像)の計138画像の涙液層干渉縞画像について、各タイプの31画像(合計93画像)を学習用に、各タイプの15画像(合計45画像)を試験用に2分して学習を行った。
実施例1において用いた涙液層干渉縞画像は、比較例1に使用したものと同一の画像セットを利用し、比較例1記載の方法により画像を2分して画像分類装置が上記比較例1と同様に、ドライアイの各タイプ(健常者、涙液減少型、蒸発亢進型)について、それぞれ46画像(静止画像)の計138画像の涙液層干渉縞画像について、各タイプの31画像(合計93画像)を学習用に、各タイプの15画像(合計45画像)を試験用に2分して学習を行った。
実施例1において利用した特徴量は、上記に紹介した11種類(「Red[AVG]」、「Red[SD]」、「Blue[AVG]」、「Blue[SD]」、「Diff[AVG]」、「Diff[SD]」、「√Area」、「SD[RED]」、「SD[BLUE]」、「Ratio[UPPER]」、「Ratio[BOTTOM]」)すべてを利用している。
ここで、各特徴量における閾値等は以下のとおりである。
「√Area」における閾値:「43」。
「SD[RED]」における半径R:「5」。
「Ratio[UPPER]」における画素領域:解析対象領域内の上方220画素。
「Ratio[UPPER]」(上記(b))の閾値:「92」。
「Ratio[UPPER]」(上記(c))の「Ratio値」に係る閾値:「1.15」。
「Ratio[BOTTOM]」における画素領域:解析対象領域内の下方300画素。他の閾値等は「Ratio[UPPER]」と同様。
「√Area」における閾値:「43」。
「SD[RED]」における半径R:「5」。
「Ratio[UPPER]」における画素領域:解析対象領域内の上方220画素。
「Ratio[UPPER]」(上記(b))の閾値:「92」。
「Ratio[UPPER]」(上記(c))の「Ratio値」に係る閾値:「1.15」。
「Ratio[BOTTOM]」における画素領域:解析対象領域内の下方300画素。他の閾値等は「Ratio[UPPER]」と同様。
また、実施例1でも比較例1と同様に、偶然選出されたファイルの組み合わせによる正解値の結果の良し悪しが確立したモデルの評価に影響することを避けるため、各タイプ31の学習用画像の選出をランダムに行い、残りの15画像を試験用画像として評価を行う試行を合計10回行い、その平均値をモデルの良し悪しの判断に利用した。
実施例1の分類結果を図5に示す。実施例1におけるF値の具体的数値は、「健常者:0.845」、「涙液減少型:0.981」、「蒸発亢進型:0.815」である。また、本実施例について、(比較例1記載の場合)Kappa係数は、「0.820」であり、ほぼ完ぺきなモデルであることを示した。
[実施例2]
実施例1で確立した機械学習モデルを利用した臨床試験を行い、本モデルがドライアイのタイプ診断に有用であるかを確認した。ここでは実施例1で使用した各タイプ46画像(静止画像)の計138画像を学習用画像として使用し、実施例1記載の方法により分類装置が上記のように学習を行った。すべての画像を利用した理由は使用する画像が多いほど正解率が向上するためである。
実施例1で確立した機械学習モデルを利用した臨床試験を行い、本モデルがドライアイのタイプ診断に有用であるかを確認した。ここでは実施例1で使用した各タイプ46画像(静止画像)の計138画像を学習用画像として使用し、実施例1記載の方法により分類装置が上記のように学習を行った。すべての画像を利用した理由は使用する画像が多いほど正解率が向上するためである。
分類する試験画像は、学習用画像より取得日付の新しい計100動画像を用意(内訳:「健常者」33動画像,「涙液減少型」33動画像,「蒸発亢進型」34動画像)し、それぞれにつき開瞼後5秒間の0.5秒間隔の10画像を静止画像として切り出して、これらについてドライアイのタイプ判定(タイプ分類)を行った。
分類の評価基準としては、開瞼後5秒間の0.5秒間隔の10画像のうち、開瞼後3秒から5秒の間の後半の計5画像における判定結果のうち最頻のタイプをその試験画像の分類結果とした。例えば、当該5画像の判定の結果が「健常者/蒸発亢進型/蒸発亢進型/蒸発亢進型/健常者」のような場合には、その試験画像は、最頻の「蒸発亢進型」として分類する。
以上の結果を図6に示す。本実施例におけるF値の具体的数値は、「健常者:0.762」、「涙液減少型:0.954」、「蒸発亢進型:0.806」である。また、本実施例について、偶然の一致を排除した、医師の診断結果に対する真の一致率として算出されたKappa係数は、「0.760」であり、本機械分類モデルがドライアイタイプ診断に極めて有効であることを示している。
以上説明してきたが、本発明は、上記の説明および実施例に限定されない。以上は、本発明の主たる用途としてドライアイのタイプの分類を挙げ、これについて説明しているが、本発明の用途はこれに限定されるものではない。ドライアイのタイプの分類以外の用途に応用する場合には、その用途に応じて適切なパラメータ(特徴量)を選択して利用すれば良い。
涙液層干渉縞画像に関し、実施例1では、学習用画像、ならびに、分類される試験画像として複数の静止画像を用意している。一方、実施例2では、分類される試験画像については動画像を用意しているが、学習用画像としては静止画像を用いている。このように試験対象の画像は静止画像であってもよいし、動画像であってもよい。また、再生される動画像(ライブ放映に係る動画像であっても、記録された動画像の再生であってもよい)のある時刻を医師が示し、その時点の静止画像を動画像から切り出して学習用画像に加えていくのであってもよい。学習用画像として動画像から静止画像を切り出して使用する場合、フレームを任意に切り出すようにしてもよいし、切り出したフレームについて所定の演算、例えば、色の補正、ピントボケの補正、解析不要部分の除去等、を施したものを利用するようにしてもよい。
本発明によれば、涙液層干渉縞画像によるドライアイのタイプ別の分類が客観的、且つ、自動的に行うことが可能となり、ドライアイのタイプの診断の客観的な指標となることが期待される。
Claims (12)
- 学習用涙液層干渉縞画像から特徴量を取得するステップと、
前記学習用涙液層干渉縞画像から取得した特徴量から画像分類のためのモデルを構築するステップと、
試験用涙液層干渉縞画像から特徴量を取得するステップと、
前記モデルと前記試験用涙液層干渉縞画像から取得した特徴量により前記試験用涙液層干渉縞画像をドライアイのタイプにより分類する分類処理を行うステップと、を含む画像分類方法。 - 前記特徴量とは、画像の色に関する情報であって、色彩、色の多様性、色の鮮やかさ、局所的な色のばらつきに係る情報のうちの少なくとも一を含む請求項1に記載の画像分類方法。
- 前記色彩に係る情報とは、赤色及び青色輝度画像の少なくともいずれか一方の輝度平均に基づく情報であることを特徴とする請求項2に記載の画像分類方法。
- 前記色の多様性に係る情報とは、赤及び青色輝度画像の少なくともいずれか一方の輝度の標準偏差に基づく情報であることを特徴とする請求項2又は3に記載の画像分類方法。
- 前記色の鮮やかさに係る情報とは、画素の輝度の差分値に基づく情報であることを特徴とする請求項2乃至4のいずれか1項に記載の画像分類方法。
- 前記局所的な色のばらつきとは、注目画素の輝度とその周辺画素の輝度から算出される標準偏差に基づく情報であることを特徴とする請求項2乃至5いずれか1項に記載の画像分類方法。
- 前記試験画像が動画像の場合、所定の複数フレームについて前記分類処理を行い、最頻の結果をその試験画像の分類結果とすることを特徴とする請求項1乃至6に記載の画像分類方法。
- 前記学習用画像および前記試験画像における所定領域から特徴量を取得する請求項1乃至7のいずれか1項に記載の画像分類方法。
- 前記涙液層干渉縞画像とは、開瞼検知から一定時間の動画像、もしくは、開瞼検知から一定時間内の任意のタイミングで取得された1以上の静止画である請求項1乃至8のいずれか1項に記載の画像分類方法。
- 前記一定時間とは、5秒間である請求項9に記載の画像分類方法。
- 請求項1乃至10のいずれか1項に記載の方法を実行する画像分類装置。
- 請求項1乃至10のいずれか1項に記載の方法をコンピュータに実行させる画像分類プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020503638A JP7448470B2 (ja) | 2018-03-02 | 2019-03-01 | 画像分類装置の作動方法、装置及びプログラム |
CN201980015861.8A CN111818841A (zh) | 2018-03-02 | 2019-03-01 | 图像分类方法、装置以及程序 |
US16/976,375 US11779205B2 (en) | 2018-03-02 | 2019-03-01 | Image classification method, device, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018037218 | 2018-03-02 | ||
JP2018-037218 | 2018-03-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019168142A1 true WO2019168142A1 (ja) | 2019-09-06 |
Family
ID=67805412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/008000 WO2019168142A1 (ja) | 2018-03-02 | 2019-03-01 | 画像分類方法、装置及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11779205B2 (ja) |
JP (1) | JP7448470B2 (ja) |
CN (1) | CN111818841A (ja) |
WO (1) | WO2019168142A1 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021166657A (ja) * | 2020-04-13 | 2021-10-21 | 株式会社トーメーコーポレーション | 検査対象分類システム、検査対象分類方法および検査対象分類プログラム |
WO2022092134A1 (ja) * | 2020-10-28 | 2022-05-05 | ライオン株式会社 | 検査方法、機械学習実行方法、検査装置及び機械学習実行方法 |
WO2022138912A1 (ja) * | 2020-12-26 | 2022-06-30 | エルライズ株式会社 | 涙液観察装置、情報処理装置、プログラム及び学習モデル生成方法 |
JP7094468B1 (ja) | 2020-12-25 | 2022-07-01 | ライオン株式会社 | 検査方法 |
WO2022215648A1 (ja) * | 2021-04-05 | 2022-10-13 | 京都府公立大学法人 | ドライアイ分類に関する方法及びそれを用いた眼科装置、並びに学習器 |
EP3620103B1 (en) * | 2017-05-01 | 2023-11-01 | Kyoto Prefectural Public University Corporation | Method and device for evaluating lacrimal fluid layer dynamics |
EP4083908A4 (en) * | 2019-12-24 | 2024-01-10 | Kowa Company, Ltd. | METHOD, APPARATUS AND PROGRAM FOR PROCESSING OPHTHALMIC IMAGES |
JP7570208B2 (ja) | 2020-10-28 | 2024-10-21 | ライオン株式会社 | 涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114140637B (zh) * | 2021-10-21 | 2023-09-12 | 阿里巴巴达摩院(杭州)科技有限公司 | 图像分类方法、存储介质和电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011156030A (ja) * | 2010-01-29 | 2011-08-18 | Kyoto Prefectural Public Univ Corp | 眼科装置及び画像分類方法 |
WO2016149416A1 (en) * | 2015-03-16 | 2016-09-22 | Magic Leap, Inc. | Methods and systems for diagnosing and treating health ailments |
WO2017209024A1 (ja) * | 2016-05-30 | 2017-12-07 | 興和株式会社 | 涙液状態評価方法およびその装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3556033B2 (ja) | 1996-01-30 | 2004-08-18 | 興和株式会社 | 眼科装置 |
JP2007029460A (ja) * | 2005-07-27 | 2007-02-08 | Topcon Corp | 眼科画像処理装置及び眼科画像処理プログラム |
JP4751689B2 (ja) * | 2005-09-02 | 2011-08-17 | 株式会社トーメーコーポレーション | 眼球表面解析システム |
JP4891640B2 (ja) * | 2006-03-30 | 2012-03-07 | 株式会社トプコン | 眼科測定装置 |
CN101373519B (zh) | 2007-08-20 | 2011-01-19 | 富士通株式会社 | 字符识别装置和方法 |
JP5018614B2 (ja) | 2008-04-16 | 2012-09-05 | 国立大学法人電気通信大学 | 画像処理方法、その方法を実行するプログラム、記憶媒体、撮像機器、画像処理システム |
JP6293300B2 (ja) * | 2014-10-28 | 2018-03-14 | パイオニア株式会社 | 観察装置及び観察方法並びにコンピュータプログラム |
JP2017136212A (ja) * | 2016-02-03 | 2017-08-10 | 株式会社ニデック | 眼科装置 |
US11717152B2 (en) * | 2017-07-04 | 2023-08-08 | Kowa Company, Ltd. | Tear fluid layer evaluation method, computer program, and device |
-
2019
- 2019-03-01 US US16/976,375 patent/US11779205B2/en active Active
- 2019-03-01 JP JP2020503638A patent/JP7448470B2/ja active Active
- 2019-03-01 CN CN201980015861.8A patent/CN111818841A/zh active Pending
- 2019-03-01 WO PCT/JP2019/008000 patent/WO2019168142A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011156030A (ja) * | 2010-01-29 | 2011-08-18 | Kyoto Prefectural Public Univ Corp | 眼科装置及び画像分類方法 |
WO2016149416A1 (en) * | 2015-03-16 | 2016-09-22 | Magic Leap, Inc. | Methods and systems for diagnosing and treating health ailments |
WO2017209024A1 (ja) * | 2016-05-30 | 2017-12-07 | 興和株式会社 | 涙液状態評価方法およびその装置 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3620103B1 (en) * | 2017-05-01 | 2023-11-01 | Kyoto Prefectural Public University Corporation | Method and device for evaluating lacrimal fluid layer dynamics |
EP4083908A4 (en) * | 2019-12-24 | 2024-01-10 | Kowa Company, Ltd. | METHOD, APPARATUS AND PROGRAM FOR PROCESSING OPHTHALMIC IMAGES |
JP2021166657A (ja) * | 2020-04-13 | 2021-10-21 | 株式会社トーメーコーポレーション | 検査対象分類システム、検査対象分類方法および検査対象分類プログラム |
JP7483247B2 (ja) | 2020-04-13 | 2024-05-15 | 株式会社トーメーコーポレーション | 検査対象分類システム、検査対象分類方法および検査対象分類プログラム |
WO2022092134A1 (ja) * | 2020-10-28 | 2022-05-05 | ライオン株式会社 | 検査方法、機械学習実行方法、検査装置及び機械学習実行方法 |
JP7570208B2 (ja) | 2020-10-28 | 2024-10-21 | ライオン株式会社 | 涙液角結膜状態検査装置、涙液角結膜状態検査方法、及びプログラム |
JP7570229B2 (ja) | 2020-12-25 | 2024-10-21 | ライオン株式会社 | 機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置 |
JP7094468B1 (ja) | 2020-12-25 | 2022-07-01 | ライオン株式会社 | 検査方法 |
JP2022104840A (ja) * | 2020-12-25 | 2022-07-11 | ライオン株式会社 | 検査方法 |
JP7570228B2 (ja) | 2020-12-25 | 2024-10-21 | ライオン株式会社 | 機械学習実行プログラム、ドライアイ検査プログラム、機械学習実行装置及びドライアイ検査装置 |
JP2022102984A (ja) * | 2020-12-26 | 2022-07-07 | エルライズ株式会社 | 涙液観察装置、情報処理装置、プログラム及び学習モデル生成方法 |
JP7464518B2 (ja) | 2020-12-26 | 2024-04-09 | エルライズ株式会社 | 涙液観察装置、情報処理装置、プログラム及び学習モデル生成方法 |
WO2022138912A1 (ja) * | 2020-12-26 | 2022-06-30 | エルライズ株式会社 | 涙液観察装置、情報処理装置、プログラム及び学習モデル生成方法 |
JP7288262B2 (ja) | 2021-04-05 | 2023-06-07 | 京都府公立大学法人 | ドライアイ分類に関する方法及びそれを用いた眼科装置、並びに学習器 |
JP2022159945A (ja) * | 2021-04-05 | 2022-10-18 | 京都府公立大学法人 | ドライアイ分類に関する方法及びそれを用いた眼科装置、並びに学習器 |
WO2022215648A1 (ja) * | 2021-04-05 | 2022-10-13 | 京都府公立大学法人 | ドライアイ分類に関する方法及びそれを用いた眼科装置、並びに学習器 |
Also Published As
Publication number | Publication date |
---|---|
JP7448470B2 (ja) | 2024-03-12 |
US11779205B2 (en) | 2023-10-10 |
US20210212561A1 (en) | 2021-07-15 |
JPWO2019168142A1 (ja) | 2021-02-12 |
CN111818841A (zh) | 2020-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019168142A1 (ja) | 画像分類方法、装置及びプログラム | |
JP7084001B2 (ja) | 涙液層の動態評価方法およびその装置 | |
JP6814799B2 (ja) | 涙液状態評価方法およびその装置 | |
CN109697719B (zh) | 一种图像质量评估方法、装置及计算机可读存储介质 | |
JP7165660B2 (ja) | 涙液状態評価方法、コンピュータプログラム、装置 | |
JP7388924B2 (ja) | 涙液層評価方法、コンピュータプログラム、装置 | |
US20240312016A1 (en) | Classification and improvement of quality of vascular images | |
US20230025493A1 (en) | Ophthalmic image processing method, ophthalmic image processing device, and ophthalmic image processing program | |
US11369264B2 (en) | Method for dynamic evaluation of tear fluid layer and device therefor | |
WO2024057943A1 (ja) | 涙液層評価装置、涙液層評価プログラム及び涙液層評価方法 | |
CN116491892B (zh) | 近视眼底改变评估方法、装置和电子设备 | |
CHOI et al. | A Study on Pupil Detection and Tracking Methods Based on Image Data Analysis | |
JP2018021817A (ja) | 検査装置及び検査方法 | |
Asbag et al. | Producing a color target acquisition metric |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19760705 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2020503638 Country of ref document: JP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19760705 Country of ref document: EP Kind code of ref document: A1 |