WO2022059596A1 - 皮表解析装置及び皮表解析方法 - Google Patents

皮表解析装置及び皮表解析方法 Download PDF

Info

Publication number
WO2022059596A1
WO2022059596A1 PCT/JP2021/033184 JP2021033184W WO2022059596A1 WO 2022059596 A1 WO2022059596 A1 WO 2022059596A1 JP 2021033184 W JP2021033184 W JP 2021033184W WO 2022059596 A1 WO2022059596 A1 WO 2022059596A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
skin
unit
skin surface
sweat
Prior art date
Application number
PCT/JP2021/033184
Other languages
English (en)
French (fr)
Inventor
哲士 小出
道広 秀
裕美 青山
Original Assignee
国立大学法人広島大学
学校法人 川崎学園
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人広島大学, 学校法人 川崎学園 filed Critical 国立大学法人広島大学
Priority to EP21869283.8A priority Critical patent/EP4216153A4/en
Priority to JP2022550513A priority patent/JPWO2022059596A1/ja
Priority to CN202180061633.1A priority patent/CN116113984A/zh
Priority to KR1020237011964A priority patent/KR20230069953A/ko
Publication of WO2022059596A1 publication Critical patent/WO2022059596A1/ja
Priority to US18/120,366 priority patent/US20230214970A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14507Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood
    • A61B5/14517Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood for sweat
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/442Evaluating skin mechanical properties, e.g. elasticity, hardness, texture, wrinkle assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Definitions

  • This disclosure relates to a skin surface analysis device and a skin surface analysis method for analyzing a human skin surface.
  • a skin groove On the surface of human skin (skin surface), there are a groove-like part called a skin groove and a raised part called a skin hill separated by the skin groove.
  • basal sweating A person sweats a small amount even at rest, and this sweating at rest is called basal sweating.
  • sweat during basal sweating is mainly secreted into the skin groove, is related to the amount of keratin water, and plays an important role in maintaining the barrier function of the skin.
  • inflammatory skin diseases such as atopic dermatitis, cholinergic urticaria, prurigo, and amyloid lichen are caused by a decrease in the barrier function of the skin, that is, due to basal sweating disorder, or due to basal sweating disorder. Symptoms may worsen. If the patient's basal sweating can be detected, it is possible to formulate a treatment policy, alleviate the symptoms, and determine the degree of cure, which is effective for diagnosis and treatment.
  • Expression mold technique also referred to as IMT or IM method
  • IMT applies a dental silicone impression material to the skin surface in a film form and leaves it for a predetermined time, and then peels the silicone impression material from the skin to acquire the skin surface structure and sweating state. It is a functional quantitative measurement method.
  • the inspector When discriminating skin hills and sweat droplets in IMT, it can be performed based on an enlarged image of the transfer surface of the silicone material. Specifically, after acquiring an enlarged image of the transfer surface of the silicone material with an optical microscope and displaying it on a monitor, the inspector identifies the skin hill and the skin groove while viewing the image on the monitor. The area corresponding to the hill is colored and colored, and the area of the colored area is calculated. Further, the sweat droplets are found and the part corresponding to the sweat droplets is colored, and the area of the colored area is calculated. By doing so, the state of the skin surface can be obtained quantitatively, but there is a problem described below.
  • the structure of the skin surface is complicated and also differs greatly depending on the skin disease that is occurring. Therefore, when the inspector makes a judgment, what is the skin groove or what is the skin hill in the image? It takes time to determine whether or not the sample is, and there is a limit to the number of samples that can be processed within a certain period of time.
  • the silicone may contain air bubbles, and it is difficult to distinguish between the air bubbles and the sweat droplets, and it is a time-consuming and laborious task to distinguish the sweat droplets.
  • the number of sweat drops differs depending on the part of the skin surface even for the same person, and if the part with the average number of sweat drops is not targeted for measurement, the analysis result may be inappropriate. be.
  • This disclosure is in view of this point, and the purpose of the present disclosure is to improve the accuracy of analysis of the state of the skin surface and to shorten the time required for analysis.
  • an image obtained by imaging the transfer material is input in a skin surface analyzer that analyzes the skin surface using the transfer material to which the human skin surface structure is transferred.
  • a patch image generation unit that divides the generated enhanced image into a plurality of patch images, and a machine learning identification that inputs each patch image generated by the patch image generation unit and executes segmentation of each input patch image.
  • the whole image generator Based on the segmentation result from the device, the whole image generator that generates the whole image by synthesizing the patch image after segmentation output from the machine learning classifier, and the whole image generated by the whole image generator.
  • the likelihood map generation unit that generates the likelihood map image of the skin hill and the binarization that generates the binarized image by executing the binarization process on the likelihood map image generated by the likelihood map generation unit.
  • a local image enhancement process is executed on the image to generate an enhanced image.
  • the image before the local image enhancement process is executed may be a color image or a grayscaled image.
  • each patch image is segmented.
  • the method of segmentation of each patch image is a conventional deep learning method, and this segmentation determines, for example, which category each pixel belongs to, such as skin hills, skin grooves, sweat droplets, and others. It is divided as follows.
  • the likelihood map image of the skin hill is generated from the whole image based on the segmentation result.
  • a binarized image is generated from the likelihood map image, it is possible to discriminate the skin hill region by extracting the white region, for example, when white is the skin hill region. By calculating the area of the extracted skin hill area, it is possible to analyze the skin surface.
  • a likelihood map generation unit that generates a sweat drop likelihood map image based on the segmentation result from the entire image generated by the overall image generation unit, and a likelihood map generation unit that generates the likelihood map image. It is provided with a sweating drop extraction unit that extracts sweating droplets based on the obtained likelihood map image, and a sweating droplet analysis unit that calculates the distribution of sweating droplets extracted by the sweating droplet extraction unit.
  • the likelihood map image of the sweat drop is generated from the whole image based on the segmentation result.
  • white in the likelihood map image is a sweat drop
  • By calculating the distribution of the extracted sweat droplets it is possible to analyze the skin surface.
  • the transfer material is acquired by Expression mold technique, and has a configuration including a gray scale processing unit that grayscales an image obtained by capturing the image of the transfer material.
  • This silicone may be colored in pink, for example, but according to this configuration, the image captured by the transfer material is grayscaled by the grayscale processing unit, so it is treated as a grayscale image suitable for analysis. be able to. As a result, the processing speed can be increased.
  • the patch image generation unit can generate a patch image so that a part of adjacent patch images overlaps with each other.
  • the machine learning classifier can have the same resolution of the input image and the resolution of the output image. According to this configuration, for example, the shape of fine skin hills and the size of sweat droplets can be accurately output.
  • the skin hill analysis unit can set a plurality of grids of a predetermined size on the image and calculate the ratio of the skin hill region and the skin groove region in each grid.
  • the ratio of the skin hill area is more than the specified value, it can be used as one of the guidelines for judging that the texture is rough, and when the ratio of the skin hill area is less than the specified value, it is judged that the texture is fine. It can be used as one of the guidelines.
  • the skin hill analysis unit can calculate the frequency distribution (histogram) by quantifying the ratio of the skin hill region and the skin groove region in each grid.
  • the region extraction unit determines whether or not each portion of the extracted skin hill region is convex after extracting the skin hill region, and the region determined to be non-convex determines the skin hill region. Can be split.
  • a groove may be formed in a part of the skin hill, and in this case, a non-convex part, that is, a concave portion exists in the extracted skin hill region.
  • the tenth disclosure includes an information output unit that generates and outputs information on the shape of the skin hill region extracted by the region extraction unit, so that each information is presented to a medical professional or the like for diagnosis or the like. It can be used.
  • a machine learning classifier can be used to generate a likelihood map image of the skin surface, and the likelihood map image can be used to discriminate the skin hill region and sweat droplets. Therefore, it is possible to eliminate individual differences during analysis, improve the accuracy of analysis of the state of the skin surface, and shorten the time required for analysis.
  • FIG. 1 is a schematic diagram showing the configuration of the skin surface analysis device 1 according to the embodiment of the present invention.
  • the skin surface analysis device 1 is a device that analyzes the skin surface using the transfer material 100 to which the human skin surface structure is transferred, and by using this skin surface analysis device 1, the skin surface analysis method according to the present invention can be obtained. Can be executed.
  • the transfer material 100 is obtained by transferring the human skin surface structure by a method other than IMT. May be good.
  • IMT applies a dental silicone impression material to the skin surface in a film form and leaves it for a predetermined time, and then peels the silicone impression material from the skin to acquire the skin surface structure and sweating state. It is a functional quantitative measurement method. Since this IMT has been conventionally used as a method for detecting basal sweating, detailed description thereof will be omitted. Dental silicone impression materials may be colored pink, for example.
  • FIG. 1 describes a case where the silicone is spread on the forearm, left to stand for a predetermined time, cured, and then peeled off from the skin to obtain the transfer material 100, but the present invention is not limited to this, and the legs and chest are not limited to this. It may be a transfer of any skin surface structure such as the back and forearm.
  • IMT the skin surface structure is precisely transferred to the film-like silicone material, so that it is possible to identify the skin hills and measure the area, and further, the sweat droplets are also precisely transferred to the silicone material. Therefore, the number, diameter, and area of sweat droplets can also be measured.
  • FIG. 5A is a diagram illustrating the prior art, and shows a procedure for discriminating the skin hills by IMT and measuring the area of the skin hills.
  • This figure is based on an image taken by magnifying the transfer surface of the transfer material 100 with a reflective stereomicroscope 101 (shown in FIG. 1). The inspector displays this image on a monitor and discriminates the skin hill region and the skin groove region by using the shading and lightness as clues.
  • the area of the skin hill can be obtained by drawing a figure so as to surround the area determined to be the skin hill area and measuring the area of the drawn figure.
  • FIG. 5B is a diagram for explaining the prior art, and shows a procedure for discriminating sweat droplets by IMT and measuring the number, diameter, and area of sweat droplets.
  • the inspector uses an image obtained by magnifying the transfer surface of the transfer material 100 with a stereomicroscope 101, and displays this image on a monitor to discriminate sweat droplets by using the shade, brightness, and shape as clues. do.
  • Sweat drops are marked with a circle. The color of the mark is changed to distinguish the sweat droplets on the skin hill from the sweat droplets on the skin groove. This makes it possible to measure the number, diameter, and area of sweat droplets.
  • the silicone may contain air bubbles, a portion having a diameter of, for example, 40 ⁇ m or less and having a shape close to a circle is discriminated as air bubbles.
  • the above is the method for discriminating skin hills / grooves and sweat droplets by the inspector.
  • the structure of the skin surface is complicated and the affected skin is affected. Since it varies greatly depending on the disease, it takes time for the inspector to determine which part of the image is the skin groove or which part is the skin hill, and the number of samples that can be processed within a certain period of time is reached. Had a limit.
  • the silicone may contain air bubbles, and it is difficult to distinguish between the air bubbles and the sweat droplets, and it is a time-consuming and laborious task to distinguish the sweat droplets.
  • the skin surface analysis device 1 generates a skin surface likelihood map image by using the machine learning classifier 24 described later even for the images shown in FIGS. 5A and 5B. It is possible to discriminate the skin hill region and sweating droplets by using the degree map image, and it is possible to improve the analysis accuracy of the state of the skin surface and shorten the time required for the analysis.
  • the skin surface analysis device 1 can be configured by, for example, a personal computer or the like, and includes a main body 10, a monitor 11, a keyboard 12, and a mouse 13.
  • the skin surface analysis device 1 can be obtained by installing a program for executing control contents, image processing, arithmetic processing, and statistical processing, which will be described later, on a general-purpose personal computer.
  • the skin surface analysis device 1 may be configured with dedicated hardware on which the program is mounted.
  • the monitor 11 displays various images, user interface images for setting, and the like, and can be configured by, for example, a liquid crystal display.
  • the keyboard 12 and the mouse 13 have been conventionally used as operating means of a personal computer or the like. Instead of the keyboard 12 and the mouse 13, or in addition to the keyboard 12 and the mouse 13, a touch operation panel or the like may be provided.
  • the main body 10, the monitor 11, and the operating means may be integrated.
  • the main body unit 10 includes a communication unit 10a, a control unit 10b, and a storage unit 10c.
  • the communication unit 10a is a part that executes data exchange with the outside, and is composed of various communication modules and the like. By connecting to a network line such as the Internet via the communication unit 10a, it is possible to read data from the outside and send out the data of the main body unit 10.
  • the storage unit 10c is composed of, for example, a hard disk, SSD (Solid State Drive), or the like, and can store various images, setting information, analysis results, statistical processing results, and the like.
  • the storage unit 10c may be configured by an external storage device, or may be configured by a so-called cloud server or the like.
  • control unit 10b can be configured by, for example, a system LSI, MPU, GPU, DSP, dedicated hardware, etc., and performs numerical calculation and information processing based on various programs, and controls each hardware unit. conduct. Each piece of hardware is connected so as to be capable of two-way communication or one-way communication via an electrical communication path (wiring) such as a bus.
  • the control unit 10b is configured to perform various processes as described later, and these processes may be realized by a logic circuit or may be realized by executing software. You may.
  • the processing that can be executed by the control unit 10b includes various general image processing. Further, the control unit 10b can be configured by a combination of hardware and software.
  • control unit 10b First, the configuration of the control unit 10b will be described, and then a skin surface analysis method by the control unit 10b will be described by showing a specific image example.
  • the control unit 10b can capture an image from the outside via the communication unit 10a or directly.
  • the captured image can be stored in the storage unit 10c.
  • the captured image is an image taken by magnifying the transfer surface of the transfer material 100 with a stereomicroscope 101, and is, for example, an image that is the basis of FIGS. 5A and 5B.
  • the captured image may be a color image or a grayscaled grayscale image.
  • the control unit 10b includes an image input unit 20 for inputting a color image or a grayscaled image.
  • An image that has been grayscaled by the grayscale processing unit 21 described later may be input to the image input unit 20, or an image that has been grayscaled in advance outside the skin surface analysis device 1 may be input. good.
  • the user of the skin surface analysis device 1 can execute the same as the above-mentioned reading of the image into the gray scale processing unit 21.
  • a color image can also be input to the image input unit 20.
  • the control unit 10b includes a gray scale processing unit 21 that grayscales the captured image when the captured image is a color image. It is not always necessary to grayscale the color image, and the local image enhancement process and subsequent steps described later may be executed with the color image as it is.
  • image capture can be performed by the user of the skin surface analysis device 1.
  • an image in which the image data output from the image pickup element is saved in the JPEG format is used, but the present invention is not limited to this, and the image data may be compressed in another compression format, or may be a RAW image. good.
  • the size of the image is set to 1600 ⁇ 1200 pixels (pixels), but this can also be set arbitrarily.
  • the gray scale processing unit 21 grayscales a color image with, for example, an 8-bit gradation. Specifically, the grayscale processing unit 21 converts the sample value of each pixel constituting the image into an image in which information other than the luminance is not included. This gray scale is different from a binary image, and expresses an image from white with the strongest brightness to black with the weakest brightness, including light and dark gray. This gradation is not limited to 8 bits, and can be set to any gradation.
  • the control unit 10b includes a local image enhancement processing unit 22.
  • the local image enhancement processing unit 22 executes a local image enhancement process for enhancing the contrast of the local region of the grayscaled image input to the image input unit 20 to generate an enhanced image. This enhances the visibility of the details of the image.
  • Examples of the local image enhancement process include a process of enhancing the visibility of details by enhancing the contrast of a local region of an image, such as a histogram equalization process.
  • the control unit 10b includes a patch image generation unit 23.
  • the patch image generation unit 23 is a portion that divides the enhancement processing image generated by the local image enhancement processing unit 22 into a plurality of patch images. Specifically, the patch image generation unit 23, for example, assuming that an image having a size of 1600 ⁇ 1200pixel is an enhanced image, one of these images becomes an image (patch image) having a size of 256 ⁇ 256pixel. Divide into.
  • the patch image generation unit 23 can also generate a patch image so that a part of adjacent patch images overlaps with each other. That is, the patch image generated by the patch image generation unit 23 overlaps with a part of the adjacent patch images, and this overlapping range can be set to, for example, about 64pixel.
  • the setting of this overlapping range can be called, for example, "64pixel stride".
  • the above-mentioned value of pixel is an example, and other values can be used.
  • the adjacent patch images are not duplicated when dividing into multiple patch images, it is possible that the edges of the skin hills and sweat droplets happen to overlap the boundaries of the adjacent patch images, and the boundaries The accuracy of discrimination by the machine learning classifier 24 (described later) for overlapping skin hills and sweating droplets may decrease.
  • the machine learning classifier 24 described later
  • even the skin hills and sweat droplets at the above-mentioned positions can be accurately discriminated.
  • the control unit 10b includes a machine learning classifier 24.
  • the machine learning classifier 24 is a part where each patch image generated by the patch image generation unit 23 is input and segmentation of each input patch image is executed.
  • the machine learning classifier 24 itself segments an input image according to a well-known deep learning method, and by this segmentation, for example, it obtains which category each pixel belongs to and outputs it as an output image.
  • the machine learning classifier 24 has an input layer into which an input image is input and an output layer for outputting an output image, and also has a plurality of hidden layers between the input layer and the output layer.
  • the machine learning classifier 24 automatically extracts common features by learning a large number of teacher data and enables flexible judgment, and the learning is completed.
  • the machine learning classifier 24 has the same resolution of the input image and the resolution of the output image.
  • the resolution of the input image is high and the resolution of the output image is lowered, but in this example, it is necessary to accurately determine the shape of fine skin hills and the size of sweating droplets. Therefore, I try not to lower the resolution of the output image.
  • a patch image having a size of 256 ⁇ 256 pixel is input to the input layer of the machine learning classifier 24, an output image having a size of 256 ⁇ 256 pixel is output from the output layer.
  • the machine learning classifier 24 of this example is configured to be able to simultaneously detect skin hills / grooves and sweat droplets. That is, the machine learning classifier 24 has a skin hill / skin groove detector 24a for detecting a skin hill / skin groove and a sweat drop detector 24b for detecting a sweat drop.
  • the skin hill / skin groove detector 24a and the sweat drop detector 24b can be constructed using, for example, Unit as a network, respectively.
  • the control unit 10b includes an overall image generation unit 25.
  • the whole image generation unit 25 is a part that generates a whole image by synthesizing the patch images after segmentation output from the machine learning classifier 24. Specifically, the whole image generation unit 25 synthesizes the patch image output from the skin hill / skin groove detector 24a like the image before division to generate the whole image for distinguishing the skin hill / skin groove.
  • the patch images output from the sweat drop detector 24b are similarly combined to generate an overall image for determining sweat drops. The entire image will be the same as the image size before division.
  • the control unit 10b includes a likelihood map generation unit 26.
  • the likelihood map generation unit 26 generates a likelihood map image of the skin hill based on the segmentation result by the machine learning classifier 24 from the whole image for discriminating the skin hill / skin groove generated by the whole image generation unit 25.
  • the likelihood map image is an image color-coded and displayed according to the likelihood of each pixel, and relatively indicates which pixel has a high or low likelihood. For example, the pixel with the highest likelihood is red, the pixel with the lowest likelihood is blue, and the color map image expressing the space between them with 8-bit gradation can be used as the likelihood map image of the skin hill / groove. .. It should be noted that this display form is an example, and may be displayed in gray scale, may be a display form in which the brightness is changed, and the gradation may be other than 8 bits.
  • the likelihood map generation unit 26 generates a likelihood map image of sweat droplets based on the segmentation result by the machine learning classifier 24 from the overall image for discriminating sweat droplets generated by the overall image generation unit 25.
  • the pixel with the highest likelihood of sweating drops is red
  • the pixel with the lowest likelihood of sweating drops is blue
  • the color map image expressing the space between them with 8-bit gradation is used as the likelihood map image of sweating drops.
  • the likelihood map image of the sweat droplet may be displayed in gray scale or in a display form in which the brightness is changed, as in the case of the skin hill / groove, and the gradation is other than 8 bits. May be.
  • the control unit 10b has a binarization processing unit 27.
  • the binarization processing unit 27 is a portion that executes binarization processing on the likelihood map image generated by the likelihood map generation unit 26 to generate a binarization image (black and white image).
  • the control unit 10b includes a region extraction unit 28.
  • the region extraction unit 28 is a portion that extracts the skin hill region based on the binarized image generated by the binarization processing unit 27. Specifically, when the black of the binarized image is the skin hill, the group of white pixels of the binarized image is extracted as the skin hill region. Further, the region extraction unit 28 may extract the skin groove region based on the binarized image generated by the binarization processing unit 27. In this case, assuming that the black of the binarized image is the skin groove, a group of white pixels of the binarized image is extracted as the skin groove region. The region extraction unit 28 may extract the skin groove and then extract the other regions as the skin hill region. Further, the region extraction unit 28 may extract the skin hills and then extract other regions as skin groove regions.
  • the control unit 10b includes a sweat droplet extraction unit 29.
  • the sweating droplet extraction unit 29 is a portion that extracts sweating droplets based on the likelihood map image of the sweating droplets. Specifically, when the white (or red) of the sweat drop likelihood map image is a sweat drop, a group of white (or red) pixels of the sweat drop likelihood map image is extracted as a sweat drop. .. Further, the sweat drop extraction unit 29 may extract a portion other than the sweat drop based on the likelihood map image of the sweat drop. In this case, assuming that the black (or blue) of the sweat drop likelihood map image is a part other than the sweat drop, the group of black (or red) pixels of the sweat drop likelihood map image is the part other than the sweat drop. Extract as. The sweat drop extraction unit 29 may extract a portion of the sweat drop likelihood map image other than the sweat drop, and then extract the other region as a sweat drop.
  • the transfer material 100 may contain air bubbles, and these air bubbles may be determined to be sweat droplets.
  • a discrimination method using dimensions is also applied. For example, by setting "40 ⁇ m" as an example of the discrimination threshold, it is determined that a small region having a diameter of 40 ⁇ m or less is a bubble and only a region having a diameter exceeding 40 ⁇ m is a sweat droplet.
  • an area can be mentioned. For example, an area of a circle having a diameter of 40 ⁇ m is obtained, a small area smaller than the area is assumed to be a bubble, and only a region exceeding the area is a sweat droplet. It can be determined as being present.
  • the above "diameter” may be, for example, a major axis in the case of an ellipse approximation.
  • the control unit 10b includes a skin hill analysis unit 30.
  • the skin hill analysis unit 30 is a part that calculates the area of the skin hill region extracted by the region extraction unit 28.
  • the skin hill analysis unit 30 can acquire the shape of the skin hill by generating, for example, a contour line surrounding the skin hill region extracted by the region extraction unit 28.
  • the skin hill analysis unit 30 can calculate the area of the skin hill by obtaining the area of the region surrounded by the contour line of the skin hill.
  • the skin hill analysis unit 30 can also acquire the shape of the skin groove by generating a contour line surrounding the skin groove region extracted by the region extraction unit 28, for example.
  • the skin hill analysis unit 30 can also calculate the area of the skin groove by obtaining the area of the region surrounded by the contour line of the skin groove.
  • the skin hill analysis unit 30 sets a plurality of grids of a predetermined size on the binarized image or the gray scale image, and calculates the ratio of the skin hill region and the skin groove region in each grid. Specifically, when the skin hill analysis unit 30 sets the grid so as to divide the binarized image into nine equal parts as an example and assumes the first to ninth divided images, it is included in each divided image. The area of the skin hill area and the area of the skin groove area are calculated, and the ratio of the area of the skin hill area and the area of the skin groove area is calculated. For example, when it is desired to evaluate the fineness of the skin surface, it can be evaluated based on the ratio of the skin hill region and the skin groove region in the grid set on the binarized image or the gray scale image.
  • the ratio of the skin hill area When the ratio of the skin hill area is more than a predetermined value, it can be a criterion for judging that the texture is rough. In addition, when the ratio of the skin hill area is less than the predetermined value, it can be used as a criterion for judging that the texture is fine.
  • the skin hill and the skin groove are analyzed by the gray scale image in the skin hill analysis unit 30.
  • the boundary between the skin hill and the skin groove is clear, and it is possible to measure the area of the skin hill, but in the case of atopic dermatitis, the skin hill and the skin groove.
  • the grayscale image as it is for analysis, the ratio of skin hills and skin grooves can be divided into multiple grid sizes, and the grayscale of the pixels in the grid can be divided.
  • the ratio of the skin hill and the skin groove is analyzed, and by displaying the histogram, it can be used as a criterion for judging the fineness of the skin (described later).
  • the skin hill analysis unit 30 calculates the frequency distribution by quantifying the ratio between the skin hill region and the skin groove region in each of the above grids. Specifically, after calculating the ratio of the area of the skin hill area and the area of the skin groove area, this is quantified and the data is aggregated in the format of the frequency distribution table. Further, the skin hill analysis unit 31 can calculate the position of the center of gravity of each skin hill region, the peripheral length of the skin hill region, the rectangular approximation, the elliptical approximation, the circularity, the aspect ratio, the consistency density and the like.
  • a groove may be formed in a part of the skin hill, and in this case, a non-convex part, that is, a concave portion exists in the extracted skin hill area.
  • the skin hill analysis unit 30 determines whether or not each part of the extracted skin hill region is convex after extracting the skin hill region, and the skin is determined by the portion determined not to be convex. Divide the hill area.
  • the skin hill region there may be a groove-shaped portion in the skin hill region, and in this case, not all of the skin hill region is convex, but a part (groove-shaped portion) is concave. Since the portion determined to be non-convex, that is, the portion determined to be concave is a groove-shaped portion, the skin hill region is divided by this groove-shaped portion, whereby one skin hill region becomes a plurality of skins. It becomes a hill area.
  • the control unit 10b includes a sweat drop analysis unit 31.
  • the sweat drop analysis unit 31 calculates the distribution of sweat drops extracted by the sweat drop extraction unit 29.
  • the sweat drop analysis unit 31 can calculate, for example, the number of sweat drops existing per unit area (1 mm 2 , 1 cm 2 , etc.) of the skin surface, the size (diameter) of each sweat drop, the area of the sweat drops, and the like.
  • the sweat drop analysis unit 31 can also calculate the total area of sweat drops existing per unit area of the skin surface.
  • the control unit 10b includes an information output unit 32.
  • the information output unit 32 generates and outputs information on the shape of the skin hill region extracted by the region extraction unit 28 and information on the sweat droplets extracted by the sweat droplet extraction unit 29.
  • the information regarding the shape of the skin hill region includes the result calculated by the skin hill analysis unit 30, for example, the area of the skin hill region, the position of the center of gravity of the skin hill region, the peripheral length of the skin hill region, the rectangular approximation, and the elliptical approximation. , Circularity, aspect ratio, consistency density and the like.
  • the information on the sweat droplets includes the result calculated by the sweat droplet analysis unit 31, for example, the number of sweat droplets existing per unit area, the total area of sweat droplets existing per unit area, and the like. Can be done.
  • step S1 of the flowchart shown in FIG. 3 IMT is performed.
  • a dental silicone impression material is applied to the skin surface in a film form and left for a predetermined time, and then the silicone impression material is peeled off from the skin to transfer the human skin surface structure.
  • the transfer material 100 is obtained.
  • step S2 the transfer material 100 is set on the stereomicroscope 101 and observed at a predetermined magnification, and the observation field of view is imaged by the image pickup device. As a result, a color image (1600 ⁇ 1200pixel) in JPEG format is acquired. Subsequently, the process proceeds to step S3, and the color image captured by the image pickup device is read into the control unit 10b of the skin surface analysis device 1. After that, the process proceeds to step S4, and the color image read in step S3 is grayscaled to 8 bits by the grayscale processing unit 21 (shown in FIG. 2) to generate a grayscale image. An example of the generated grayscale image is shown in FIG.
  • the light-colored part is the skin hill and the dark-colored part is the skin groove, but the boundary is not clear, and when the inspector determines, what part of the image is the skin groove, or It took time to determine where the skin was, and there was a limit to the number of samples that could be processed within a certain period of time. If the image read by the control unit 10b is a grayscale image, the grayscale processing is unnecessary.
  • step S5 the grayscale image is input to the image input unit 20.
  • step S6 the local image enhancement processing unit 22 executes the local image enhancement processing on the grayscale image input in step S5.
  • step S5 the local image enhancement processing step.
  • FIG. 7 shows an image in which the local image enhancement process has been executed. It can be seen that in the image shown in FIG. 7, the contrast in the local region is emphasized and the visibility of details is enhanced as compared with the image shown in FIG.
  • step S7 the patch image generation unit 23 divides the enhancement processing image generated in step S6 into a plurality of patch images.
  • FIG. 8 shows how the patch image is divided, and the grid-like lines correspond to the boundaries of the patch image.
  • the patch images adjacent to each other in the vertical direction and the horizontal direction in the figure are overlapped with each other by "64pixel stride".
  • This step is a patch image generation step.
  • step S8 After generating the patch image, proceed to step S8.
  • step S8 each patch image generated in step S7 is input to the machine learning classifier 24, and the segmentation of each input patch image is executed by the machine learning classifier 24.
  • the same patch image is input to both the skin hill / skin groove detector 24a and the sweat drop detector 24b (steps S9 and S10). This step is the segmentation step.
  • the eight patch images are input to the skin hill / groove detector 24a and the sweat drop detector 24b. Also enter.
  • the skin hill / groove detector 24a is designed so that the higher the possibility of the skin hill, the whiter the entire input image, and the lower the possibility of the skin hill (the higher the possibility of the skin groove), the blacker the skin hill / groove detector 24a. Generates and outputs an output image in which the color of each pixel is set. Further, the sweat drop detector 24b generates an output image in which the color of each pixel is set so that the higher the possibility of sweat droplets is, the whiter the entire input image is, and the lower the possibility of sweat drops is, the blacker the color is. And output.
  • FIG. 9 shows an example of a skin hill / skin groove output image output from the skin hill / skin groove detector 24a and a sweat drop output image output from the sweat drop detector 24b.
  • the white part in the skin hill / skin groove output image is the skin hill area, and the black part is the skin groove area.
  • the white part in the sweat drop output image is the sweat drop.
  • step S7 when dividing into a plurality of patch images in step S7, adjacent patch images are duplicated. If the patch images are not duplicated, it is possible that the edges of the skin hills and sweat droplets happen to overlap the boundaries of adjacent patch images, and the accuracy of distinguishing the skin hills and sweat droplets that overlap the boundaries deteriorates. There is a risk of On the other hand, in this example, since some of the adjacent patch images overlap each other, even the skin hills and sweat droplets at the above-mentioned positions can be accurately discriminated.
  • step S11 the process proceeds to step S11, and the skin hill / skin groove output image (patch image) after step S9 is combined to generate an overall image as shown in FIG. Further, in this step S11, the sweat droplet output image (patch image) after step S9 is combined to generate an overall image as shown in FIG.
  • the number of pixels of each whole image is the same as the number of pixels of the image input in step S5. This step is the whole image generation step.
  • step S12 shown in FIG. 4 the likelihood map generation unit 26 obtains the likelihood map image of the skin hill and the likelihood map image of the sweating droplet based on the segmentation result from the whole image generated in step S11. Generate.
  • This step is the likelihood map generation step.
  • FIG. 12 shows an example of the likelihood map image of the skin hill. In this figure, a grayscale image is used for convenience, but in this example, the pixel with the highest likelihood of skin hills is red, the pixel with the lowest likelihood of skin hills is blue, and the space between them is represented by 8-bit gradation. It is a color image. This facilitates the distinction between the skin hill region and the skin groove region.
  • FIG. 13 shows an example of a likelihood map image of sweat droplets.
  • This image is also originally a color, and the pixel with the highest likelihood of sweating droplets is red, the pixel with the lowest likelihood of sweating droplets is blue, and the space between them is a color image expressed with 8-bit gradation. This facilitates the discrimination of sweat droplets.
  • step S13 the likelihood map image of the skin hill generated in step S12 is binarized to generate a binarized image.
  • This step is executed by the binarization processing unit 27, and is a binarization processing step.
  • FIG. 14 shows a binarized image generated by performing a binarization process on the likelihood map image of the skin hill.
  • step S14 the region extraction unit 28 extracts the skin hill region based on the binarized image generated in step S13.
  • the skin groove region may be extracted.
  • FIG. 15 is an image obtained by extracting the skin hill and the skin groove, and is displayed by surrounding the skin hill region with a black line. This step is the area extraction step.
  • the sweat droplet extraction unit 29 extracts the sweat droplets based on the likelihood map image of the sweat droplets generated in step S12.
  • This step is a sweat drop extraction step.
  • FIG. 16 is an image obtained by extracting sweat droplets, and the sweat droplets are displayed by surrounding them with a black line.
  • step S16 the position of the sweat droplet and the skin hill / groove are compared.
  • the position and range of sweat droplets can be specified by the XY coordinates on the image.
  • the positions and ranges of the skin hills and grooves can also be specified by the XY coordinates on the image. Since the original images of the image specifying the position and range of the sweat droplet and the image specifying the position and range of the skin hill / groove are the same, the skin hill / skin groove is shown as shown in FIG. Sweat drops can be placed on the image. As a result, the relative positional relationship between the sweat droplets and the skin hills / grooves can be obtained. At this time, the region of the skin hill and the coordinates of the center of gravity of the sweat droplet can be used.
  • step S17 the sweat droplets in the skin hill / groove are identified.
  • FIG. 18 is an image in which the sweat droplets in the skin hill / groove are identified, which makes it possible to distinguish between the sweat droplets in the skin hill and the sweat droplets in the skin groove.
  • sweat droplets have a shape close to a circle.
  • step S18 a histogram of skin hill information is created and displayed on the monitor 11.
  • the skin hill analysis unit 30 calculates the area of each skin hill region extracted in step S14.
  • a histogram is created in which the area is taken on the horizontal axis and the frequency is taken on the vertical axis.
  • This step is the skin hill analysis step. This makes it possible to grasp the distribution of the area of the skin hill area. For example, in the case of atopic dermatitis, the area of one skin hill tends to be large, and if the frequency of the large area is high, it can be seen that the tendency of sweating disorder of atopic dermatitis is strong.
  • step S19 a heat map image of sweat droplets is created and displayed on the monitor 11.
  • the sweat drop analysis unit 31 calculates the distribution of the sweat drops extracted in step S15. For example, as shown in FIG. 20, a grid is formed on the image of the transfer material 100, and the number of sweat droplets existing in each grid is counted. This is possible by determining in which grid the coordinates of the center of gravity of the sweat droplets extracted in step S15 are located. For example, a grid without sweat droplets, a grid with one sweat droplet, a grid with two sweat droplets, a grid with three sweat droplets, ... The distribution of sweat droplets can be grasped, and the image displayed in different colors in this way can be called a heat map image.
  • This step is a sweat drop analysis step. If the distribution of sweat droplets is sparse, it can be seen that there is a strong tendency for sweating disorders in atopic dermatitis.
  • the heat map images can be arranged in chronological order and displayed on the monitor 11. For example, by generating heat map images for patients with atopic dermatitis one week, two weeks, and three weeks after starting treatment, and displaying them in a list format, symptoms can be manifested. It is possible to judge whether or not it is improving, and it is possible to quantitatively judge the progress.
  • FIG. 21 is an example of a skin hill region image showing a line surrounding each skin hill region extracted in step S14.
  • the image shown in this figure is generated by the skin hill analysis unit 30 and can be displayed on the monitor 11.
  • the skin hill analysis unit 30 The measurement results of the specifications are created in a table format and displayed on the monitor 11.
  • These specification values can be calculated by the skin hill analysis unit 30 by using, for example, image analysis software. In this way, by using not only one index but also a plurality of indexes, it is possible to make a judgment in correspondence with clinical information. Further, since this index can also contribute to the determination of the fineness of the skin surface, it is also possible to determine the fineness of the skin surface using the machine learning classifier 24. Further, as shown in FIG. 22, it is also possible to perform statistical processing (total, maximum, minimum, deviation, etc.).
  • FIG. 23 is a graph showing a two-dimensional distribution of skin hills and skin grooves per a grid of 128 ⁇ 128 pixels, and such a graph can also be generated by the skin hill analysis unit 30 and displayed on the monitor 11.
  • an 8-bit color image can be displayed with the skin hill region as red and the skin groove region as blue.
  • it can be used as an example of a method to express the fineness of the skin surface and the improvement of symptoms, it may be used as a heat map, or when it is quantified by the ratio of the area of the skin hill and the skin groove, it can be used.
  • the frequency around the median is high when the skin surface is fine, while the distribution is wide and the hem is widened in the case of atopic dermatitis. This makes it possible to quantify two-dimensional information and use it as diagnostic information.
  • FIG. 24 shows a case where the skin hill analysis unit 30 sets a plurality of grids of a predetermined size (18 in this example) on the image and calculates the ratio of the skin hill region and the skin groove region in the grid.
  • the frequency distribution can be calculated by quantifying the ratio between the skin hill region and the skin groove region in each grid, and can be displayed on the monitor 11 in the form of a histogram.
  • the fineness of the skin surface it is conceivable to use only the area of the skin hills, but in that case, two adjacent skin hills are very close to each other and are identified as one skin hill. At that time, the skin hill is about twice as large, and the analysis result may be inaccurate.
  • the fineness of the skin surface can be quantitatively calculated.
  • each of the above-mentioned analyzes is performed on the image of the average visual field of sweating in the wide range. For example, when focusing on only one visual field, it is not possible to determine whether the visual field is a visual field with less sweating, a visual field with a large amount of sweating, or an average visual field, but sweating in all of a wide visual field of about 9 visual fields.
  • an average visual field that is, a visual field suitable for skin surface analysis, excluding the visual field with less sweating and the visual field with high sweating.
  • the analysis result becomes accurate.
  • the field of view to be processed was about 3 fields of view due to time constraints, but the present invention enables analysis of a large number of fields of view that greatly exceeds 3 fields of view, and more accurate skin surface. Can be analyzed.
  • the skin hill analysis unit 30 can also display the images shown in FIG. 25 on the monitor 11 in chronological order. For example, one week, two weeks, and three weeks after the patient with atopic dermatitis started treatment, images were generated as shown in FIG. 25, and the images were displayed on the monitor 11 in a list format. By displaying it, it is possible to judge whether or not the symptom is improved, and it is possible to quantitatively judge the progress.
  • FIG. 26 is a graph (histogram) showing the ratio of the skin hills and skin grooves of the forearm of a healthy person, and shows a case where a grid having a size of 100 ⁇ 100 pixels is set in a gray scale image.
  • the horizontal axis is the ratio of the skin hill and the skin groove, and the vertical axis is the number.
  • the graph on the right side of FIG. 26 also shows a graph of kernel density estimation.
  • FIG. 27 shows a case where a grid having a size of 150 ⁇ 150 pixels is set
  • FIG. 28 shows a case where a grid having a size of 200 ⁇ 200 pixels is set
  • FIG. 29 shows a case where a grid having a size of 250 ⁇ 250 pixels is set.
  • Each is shown.
  • the distribution has a peak in the center of the grid of 100 x 100, 150 x 150, 200 x 200, and 250 x 250 pixel sizes. Become. Moreover, since the ratio of the skin hill and the skin groove can be known from the grid size, not only the skin hill but also the size of the skin groove can be quantified.
  • 30 to 33 are graphs showing the ratio of the thigh skin hills and skin grooves of patients with atopic dermatitis, and correspond to FIGS. 26 to 29, respectively.
  • the peaks may be offset from the center or multiple peaks may be formed.
  • FIGS. 34 to 37 are graphs showing the ratio of the skin hill and the skin groove of the forehead of the atopic dermatitis patient, and correspond to FIGS. 26 to 29, respectively.
  • the peaks are generally shifted to the right side (the side where the ratio of skin hills / grooves is large), or multiple peaks are formed.
  • FIGS. 38 to 41 are graphs showing the ratio of the skin hills and the skin grooves of the elbows of patients with atopic dermatitis, and correspond to FIGS. 26 to 29, respectively.
  • the peaks may be offset from the center or multiple peaks may be formed.
  • healthy subjects and patients with atopic dermatitis can be seen. Since it is possible to grasp the difference in skin texture and the condition of the skin of a patient with atopic dermatitis, it is possible to present the therapeutic effect as an objective index in the follow-up.
  • the machine learning classifier 24 is used to generate a likelihood map image of the skin surface, and the likelihood map image is used to discriminate the skin hill region and sweat droplets. Therefore, it is possible to eliminate individual differences during analysis, improve the accuracy of analysis of the state of the skin surface, and shorten the time required for analysis.
  • the skin surface analysis device and the skin surface analysis method according to the present invention can be used, for example, when analyzing a human skin surface.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Geometry (AREA)
  • Dermatology (AREA)
  • Optics & Photonics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

転写材を撮像した画像にローカル画像強調処理を実行する。強調処理画像を複数のパッチ画像に分割して機械学習識別器に入力する。機械学習識別器から出力されたセグメンテーション後のパッチ画像を合成し、全体画像からセグメンテーション結果に基づいて皮丘の尤度マップ画像を生成する。尤度マップ画像に2値化処理を実行して2値化画像を生成する。2値化画像に基づいて皮丘領域を抽出し、皮丘領域の面積を算出する。

Description

皮表解析装置及び皮表解析方法
 本開示は、人の皮表を解析する皮表解析装置及び皮表解析方法に関する。
 人の皮膚の表面(皮表)には、皮溝と呼ばれる溝状の部分と、皮溝によって区切られた皮丘と呼ばれる隆起状の部分とが存在している。人は安静時にも微量ではあるが発汗しており、この安静時の発汗は基礎発汗と呼ばれている。基礎発汗時の汗は、主に皮溝に分泌され、角質水分量と関連しており、皮膚のバリア機能の維持に重要な働きとしていることが知られている。例えば、アトピー性皮膚炎、コリン性蕁麻疹、痒疹、アミロイド苔癬等の炎症性皮膚疾患は、皮膚のバリア機能の低下、即ち、基礎発汗障害に起因して発生することや、基礎発汗障害によって症状が悪化することがある。患者の基礎発汗を検出することができれば、治療方針の策定や症状の緩和、治癒の程度を判断することができ、診断及び治療に有効である。
 基礎発汗の検出手法としては、例えば、Impresstion mold technique(IMTまたはIM法とも呼ばれている)が知られている。IMTは、歯科用のシリコーン印象材を皮膚表面に膜状に塗布して所定時間放置した後、シリコーン印象材を皮膚から剥離することで、皮表構造を取得するとともに、発汗状態を取得する発汗機能定量測定法である。
再表2018/230733号公報
 ところで、IMTを用いることで、膜状のシリコーン材に皮表構造が精密に転写されるので、皮丘の識別及び皮丘の面積の測定を行うことができ、さらに、シリコーン材に発汗滴も精密に転写されるので、発汗滴の数、直径、面積も測定することができる。これにより、皮表の状態を解析することができる。この解析結果を利用すれば、例えばアトピー性皮膚炎の場合、健常者に比べて皮丘の面積が広く、発汗滴数が少ない傾向にあることを定量的に取得できるという利点がある。
 IMTにおいて皮丘及び発汗滴の判別を行う際には、シリコーン材の転写面を拡大した画像に基づいて行うことができる。具体的には、シリコーン材の転写面を光学顕微鏡で拡大した画像を取得してモニタに映した後、検査員がその画像をモニタ上で見ながら、皮丘と皮溝とを識別して皮丘に相当する部分を囲んで着色し、着色した領域の面積を算出し、さらに、発汗滴を見つけ出して発汗滴に相当する部分を着色し、着色した領域の面積を算出する。こうすれば、皮表の状態を定量的に取得できるのであるが、以下に述べる問題があった。
 すなわち、皮表の構造は複雑であるのに加え、発症している皮膚疾患によっても大きく異なっているので、検査員による判別の際に、画像中のどこが皮溝であるか、あるいはどこが皮丘であるかの判定に時間がかかり、一定時間内に処理できるサンプル数には限界があった。また、シリコーンには気泡が含まれている場合があり、その気泡と発汗滴との見分けがつきづらく、発汗滴の判別も時間と手間がかかる作業であった。また、皮溝及び皮丘の判別、発汗滴の判別作業に要する時間が長時間化するとともに、画像を見て判断するため、検査員の能力によって判別結果が異なるといった個人差も問題であった。作業が長時間化することで、見逃しなども起こる可能性があった。
 さらに、発汗滴数は同一人であっても皮表の部位によっても異なっており、発汗滴数が平均的な数である部位を測定対象としなければ、解析結果が不適なものになるおそれがある。この平均的な部位を得ようとすると、皮表の広い範囲に対して上述した皮溝及び皮丘の判別と発汗滴の判別を行わなければならず、このことは解析に要する時間をより一層長時間化する要因となっていた。
 本開示は、かかる点に鑑みたものであり、その目的とするところは、皮表の状態の解析精度を高めるとともに、解析に要する時間を短縮することにある。
  上記目的を達成するために、第1の開示は、人の皮表構造が転写された転写材を用いて皮表を解析する皮表解析装置において、前記転写材を撮像した画像が入力される画像入力部と、前記画像入力部に入力された画像の局所領域のコントラストを強調するローカル画像強調処理を実行して強調処理画像を生成するローカル画像強調処理部と、前記ローカル画像強調処理部により生成された強調処理画像を複数のパッチ画像に分割するパッチ画像生成部と、前記パッチ画像生成部により生成された各パッチ画像が入力され、入力された各パッチ画像のセグメンテーションを実行する機械学習識別器と、前記機械学習識別器から出力されたセグメンテーション後のパッチ画像を合成して全体画像を生成する全体画像生成部と、前記全体画像生成部により生成された全体画像から前記セグメンテーション結果に基づいて皮丘の尤度マップ画像を生成する尤度マップ生成部と、前記尤度マップ生成部により生成された尤度マップ画像に2値化処理を実行して2値化画像を生成する2値化処理部と、前記2値化処理部により生成された2値化画像に基づいて皮丘領域を抽出する領域抽出部と、前記領域抽出部により抽出された皮丘領域の面積を算出する皮丘解析部とを備えている。
 この構成によれば、人の皮表構造が転写された転写材の画像が入力されると、その画像にローカル画像強調処理が実行されて強調処理画像が生成される。これにより、画像の細部の可視性が高まる。ローカル画像強調処理が実行される前の画像は、カラー画像であってもよいし、グレースケール化された画像であってもよい。強調処理画像は複数のパッチ画像に分割された後、各パッチ画像が機械学習識別器に入力されると、各パッチ画像がセグメンテーションされる。各パッチ画像のセグメンテーションの手法は従来から用いられているディープラーニングの手法であり、このセグメンテーションにより、例えば画素毎にどのカテゴリーに属するかが求められ、皮丘、皮溝、発汗滴、それ以外といったように区分けされる。機械学習識別器から出力されたセグメンテーション後のパッチ画像が合成されて全体画像が生成されると、その全体画像からセグメンテーション結果に基づいて皮丘の尤度マップ画像が生成される。尤度マップ画像から2値化画像が生成されると、例えば白が皮丘領域であるとした場合に、白領域を抽出することで、皮丘領域を判別することが可能になる。抽出された皮丘領域の面積を算出することで、皮表の解析が可能になる。
 第2、3の開示では、全体画像生成部により生成された全体画像から前記セグメンテーション結果に基づいて発汗滴の尤度マップ画像を生成する尤度マップ生成部と、前記尤度マップ生成部により生成された尤度マップ画像に基づいて発汗滴を抽出する発汗滴抽出部と、前記発汗滴抽出部により抽出された発汗滴の分布を算出する発汗滴解析部とを備えている。
 この構成によれば、機械学習識別器から出力されたセグメンテーション後のパッチ画像が合成されて全体画像が生成されると、その全体画像からセグメンテーション結果に基づいて発汗滴の尤度マップ画像が生成される。尤度マップ画像の例えば白が発汗滴であるとした場合に、白領域を抽出することで、発汗滴を判別することが可能になる。抽出された発汗滴の分布を算出することで、皮表の解析が可能になる。
 第4の開示では、前記転写材は、Impresstion mold techniqueで取得されたものであり、前記転写材を撮像した画像をグレースケール化するグレースケール処理部を備えている構成である。
 すなわち、IMTによればシリコーンを用いた皮表の精密転写が可能になるので、解析精度がより一層向上する。このシリコーンは例えばピンク色等に着色されている場合があるが、本構成によれば転写材を撮像した画像がグレースケール処理部によってグレースケール化されるので、解析に適したグレースケール画像として取り扱うことができる。これにより処理速度を高速化できる。
 第5の開示では、前記パッチ画像生成部は、隣合うパッチ画像同士の一部が互いに重複するようにパッチ画像を生成することができる。
 すなわち、複数のパッチ画像に分割する際、隣合うパッチ画像を重複させていない場合には、隣合うパッチ画像の境界にたまたま皮丘のエッジや発汗滴が重なっていることが考えられ、境界に重なっている皮丘や発汗滴の判別精度が低下するおそれがある。これに対し、本構成によれば、隣合うパッチ画像同士の一部が互いに重複していることで、上述した位置にある皮丘や発汗滴であっても精度よく判別できる。
 第6の開示では、前記機械学習識別器は、入力画像の解像度と出力画像の解像度とを同じにすることができる。この構成によれば、例えば細かな皮丘の形状や、発汗滴の大きさを正確に出力することができる。
 第7の開示では、前記皮丘解析部は、画像上に所定の大きさのグリッドを複数設定し、前記各グリッド内の皮丘領域と皮溝領域との割合を算出することができる。
 この構成によれば、例えば皮表のきめ細かさを評価したい場合、2値化画像上に設定したグリッド内における皮丘領域と皮溝領域との割合に基づいて評価できる。皮丘領域の割合が所定以上である場合には、きめが粗いと判断する指針の一つとして利用でき、また、皮丘領域の割合が所定未満である場合には、きめが細かいと判断する指針の一つとして利用できる。
 第8の開示では、前記皮丘解析部は、前記各グリッド内の皮丘領域と皮溝領域との割合を数値化して度数分布(ヒストグラム)を算出することができる。
 第9の開示では、前記領域抽出部は、皮丘領域の抽出後、抽出された皮丘領域の各部が凸であるか否かを判定し、凸でないと判定された部分によって前記皮丘領域を分割することができる。
 すなわち、病態によっては皮丘の一部に溝ができている場合があり、この場合は、抽出された皮丘領域内に凸でない部分、即ち凹が存在することになる。この凹によって皮丘領域を分割することで、病態や臨床的な評価に用いることが期待できる。
 第10の開示では、前記領域抽出部により抽出された皮丘領域の形状に関する情報を生成して出力する情報出力部を備えているので、各情報を医療従事者等に提示して診断等に利用することができる。
 以上説明したように、本開示によれば、機械学習識別器を利用して皮表の尤度マップ画像を生成し、尤度マップ画像を利用して皮丘領域や発汗滴を判別することができるので、解析時の個人差を排除して皮表の状態の解析精度を高めることができるとともに、解析に要する時間を短縮できる。
本発明の実施形態に係る皮表解析装置の構成を示す模式図である。 上記皮表解析装置のブロック図である。 皮表解析方法の前半の流れを説明するフローチャートである。 皮表解析方法の後半の流れを説明するフローチャートである。 従来技術を説明する図であり、IMTによって皮丘を判別し、皮丘の面積を測定する要領を示している。 従来技術を説明する図であり、IMTによって発汗滴を判別し、発汗滴の数、直径、面積を測定する要領を示している。 グレースケール画像の一例を示す図である。 ローカル画像強調処理画像の一例を示す図である。 ローカル画像強調処理画像を複数のパッチ画像に分割した様子を示す図である。 機械学習識別器によるセグメンテーションの一例を示す図である。 皮丘・皮溝の全体画像の一例を示す図である。 発汗滴の全体画像の一例を示す図である。 皮丘・皮溝の尤度マップ画像の一例を示す図である。 発汗滴の尤度マップ画像の一例を示す図である。 皮丘・皮溝の尤度マップを2値化した画像の一例を示す図である。 皮丘・皮溝を抽出した画像の一例を示す図である。 発汗滴を抽出した画像の一例を示す図である。 発汗滴の位置と皮丘・皮溝を比較して示す画像の一例を示す図である。 皮丘・皮溝にある発汗滴を同定した画像の一例を示す図である。 皮丘情報のヒストグラムである。 発汗滴のヒートマップ画像の一例を示す図である。 皮丘領域画像の一例を示す図である。 皮丘領域の諸元を示す表である。 1グリッド当たりの皮丘と皮溝の2次元分布を示すグラフである。 複数のグリッドを設定して解析を行う場合の画像の一例を示す図である。 9視野の撮像領域を合成した画像の一例を示す図である。 健常者の前腕の皮丘・皮溝の割合を示すグラフであり、100×100ピクセルサイズのグリッドを設定した場合を示す。 健常者の前腕の皮丘・皮溝の割合を示すグラフであり、150×150ピクセルサイズのグリッドを設定した場合を示す。 健常者の前腕の皮丘・皮溝の割合を示すグラフであり、200×200ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の大腿の皮丘・皮溝の割合を示すグラフであり、250×250ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の大腿の皮丘・皮溝の割合を示すグラフであり、100×100ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の大腿の皮丘・皮溝の割合を示すグラフであり、150×150ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の大腿の皮丘・皮溝の割合を示すグラフであり、200×200ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の大腿の皮丘・皮溝の割合を示すグラフであり、250×250ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の額の皮丘・皮溝の割合を示すグラフであり、100×100ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の額の皮丘・皮溝の割合を示すグラフであり、150×150ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の額の皮丘・皮溝の割合を示すグラフであり、200×200ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の額の皮丘・皮溝の割合を示すグラフであり、250×250ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の肘の皮丘・皮溝の割合を示すグラフであり、100×100ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の肘の皮丘・皮溝の割合を示すグラフであり、150×150ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の肘の皮丘・皮溝の割合を示すグラフであり、200×200ピクセルサイズのグリッドを設定した場合を示す。 アトピー性皮膚炎患者の肘の皮丘・皮溝の割合を示すグラフであり、250×250ピクセルサイズのグリッドを設定した場合を示す。
 以下、本発明の実施形態を図面に基づいて詳細に説明する。尚、以下の好ましい実施形態の説明は、本質的に例示に過ぎず、本発明、その適用物或いはその用途を制限することを意図するものではない。
 図1は、本発明の実施形態に係る皮表解析装置1の構成を示す模式図である。皮表解析装置1は、人の皮表構造が転写された転写材100を用いて皮表を解析する装置であり、この皮表解析装置1を用いることで本発明に係る皮表解析方法を実行することができる。
 この実施形態の説明では、IMTで取得された転写材100を用いて皮表を解析する場合について説明するが、転写材100はIMT以外の方法で人の皮表構造を転写したものであってもよい。
 IMTは、歯科用のシリコーン印象材を皮膚表面に膜状に塗布して所定時間放置した後、シリコーン印象材を皮膚から剥離することで、皮表構造を取得するとともに、発汗状態を取得する発汗機能定量測定法である。このIMTは、基礎発汗の検出手法として従来から用いられているので詳細な説明は省略する。歯科用のシリコーン印象材は、例えばピンク色に着色されている場合がある。
 図1では、上記シリコーンを前腕に塗り広げて所定時間放置し、硬化させた後、皮膚から剥離して転写材100を得た場合について説明しているが、これに限らず、脚や胸、背中、額等、どこの皮表構造を転写したものであってもよい。IMTを用いることで、皮表構造が膜状のシリコーン材に精密に転写されるので、皮丘の識別及び面積の測定を行うことができ、さらに、シリコーン材に発汗滴も精密に転写されるので、発汗滴の数、直径、面積も測定することができる。
 図5Aは、従来技術を説明する図であり、IMTによって皮丘を判別し、皮丘の面積を測定する要領を示している。この図は、転写材100の転写面を反射型の実体顕微鏡101(図1に示す)で拡大し、撮像した画像が基になっている。検査員は、この画像をモニタに映して濃淡や明暗を手がかりにして皮丘領域及び皮溝領域を判別する。皮丘領域と判別した領域を囲むように図形を描き、この描いた図形の面積を測定することで、皮丘の面積を得ることができる。
 一方、図5Bは、従来技術を説明する図であり、IMTによって発汗滴を判別し、発汗滴の数、直径、面積を測定する要領を示している。この図においても、検査員は、転写材100の転写面を実体顕微鏡101で拡大して撮像した画像を用い、この画像をモニタに映して濃淡や明暗、その形状を手がかりにして発汗滴を判別する。発汗滴を円でマークしている。皮丘にある発汗滴と、皮溝にある発汗滴とは区別するべく、マークの色を変えている。これにより、発汗滴の数、直径、面積を測定することができる。尚、シリコーンには、気泡が含まれている場合があるので、直径が例えば40μm以下の円形に近い形状の部分は、気泡として判別する。
 以上が検査員による皮丘・皮溝の判別、発汗滴の判別手法であったが、図5A、図5Bに示すように、皮表の構造は複雑であるのに加え、発症している皮膚疾患によっても大きく異なっているので、検査員による判別の際に、画像中のどこが皮溝であるか、あるいはどこが皮丘であるかの判定に時間がかかり、一定時間内に処理できるサンプル数には限界があった。また、シリコーンには気泡が含まれている場合があり、その気泡と発汗滴との見分けがつきづらく、発汗滴の判別も時間と手間がかかる作業であった。
 本実施形態に係る皮表解析装置1は、図5A、図5Bに示すような画像であっても、後述する機械学習識別器24を利用して皮表の尤度マップ画像を生成し、尤度マップ画像を利用して皮丘領域や発汗滴を判別することができ、皮表の状態の解析精度を高めることができるとともに、解析に要する時間を短縮できるものである。
 以下、皮表解析装置1の構成について具体的に説明する。図1に示すように、皮表解析装置1は、例えばパーソナルコンピュータ等で構成することができ、本体部10と、モニタ11と、キーボード12と、マウス13とを備えている。例えば汎用のパーソナルコンピュータに、後述する制御内容、画像処理、演算処理、統計処理を実行するプログラムをインストールすることによって皮表解析装置1とすることができる。また、前記プログラムが実装された専用のハードウェアで皮表解析装置1を構成してもよい。
 モニタ11は、各種画像や設定用ユーザインターフェース画像等を表示するものであり、例えば液晶ディスプレイ等で構成することができる。キーボード12及びマウス13は、従来からパーソナルコンピュータ等の操作手段として用いられているものである。キーボード12及びマウス13の代わり、もしくはキーボード12及びマウス13に加えて、タッチ操作パネル等を設けてもよい。本体部10、モニタ11及び操作手段は、一体化されていてもよい。
 図2に示すように、本体部10は、通信部10aと制御部10bと記憶部10cとを備えている。通信部10aは、外部とデータのやりとりを実行する部分であり、各種通信モジュール等で構成されている。通信部10aを介してインターネット等のネットワーク回線に接続することで、外部からデータを読み込んだり、本体部10のデータを送出することが可能になる。記憶部10cは、例えばハードディスクやSSD(Solid State Drive)等で構成されており、各種画像や設定情報、解析結果、統計処理結果等を記憶することが可能になっている。記憶部10cは、外部記憶装置で構成されていてもよいし、いわゆるクラウドサーバ等で構成されていてもよい。
 制御部10bは、図示しないが、例えば、システムLSI、MPU、GPU、DSPや専用ハードウェア等で構成することができ、各種プログラムに基づき数値計算や情報処理を行うとともに、ハードウェア各部の制御を行う。各ハードウェアは、バスなどの電気的な通信路(配線)を介し、双方向通信可能または一方向通信可能に接続されている。制御部10bは、後述するように様々な処理が行えるように構成されているが、これら処理は論理回路によって実現可能になっていてもよいし、ソフトウェアを実行することによって実現されるものであってもよい。制御部10bが実行可能な処理には、一般的な各種画像処理も含まれている。また、制御部10bはハードウェアとソフトウェアとの組み合わせで構成することができる。
 まず、制御部10bの構成について説明し、その後、具体的な画像例を示して制御部10bによる皮表解析方法について説明する。
 (制御部10bの構成)
 制御部10bには、通信部10aを介して、または直接、外部から画像を取り込むことができるようになっている。取り込んだ画像は記憶部10cに記憶させておくことができる。取り込む画像は、転写材100の転写面を実体顕微鏡101で拡大し、撮像した画像であり、例えば図5A、図5Bの基になる画像である。取り込む画像は、カラー画像であってもよいし、グレースケール化されたグレースケール画像であってもよい。
 制御部10bは、カラー画像またはグレースケール化された画像が入力される画像入力部20を備えている。画像入力部20には、後述するグレースケール処理部21によってグレースケール化がされた画像が入力されてもよいし、皮表解析装置1の外部で予めグレースケール化された画像が入力されてもよい。画像入力部20に画像を入力する際には、上述したグレースケール処理部21への画像の読み込みと同様に、皮表解析装置1のユーザが実行可能である。画像入力部20には、カラー画像を入力することもできる。
 制御部10bは、取り込んだ画像がカラー画像である場合に、当該カラー画像をグレースケール化するグレースケール処理部21を備えている。カラー画像を必ずしもグレースケール化する必要はなく、カラー画像のまま、後述するローカル画像強調処理以降を実行してもよい。
 例えば、画像の取り込みは、皮表解析装置1のユーザによって実行可能である。例えば、実体顕微鏡101で拡大した画像を撮像素子(図示せず)で撮像した後、それによって得られた画像データをグレースケール処理部21に読み込む操作が可能に構成されている。本例では、撮像素子から出力された画像データをJPEG形式で保存した画像を用いるが、これに限らず、他の圧縮形式で圧縮した画像データであってもよいし、RAW画像であってもよい。また、本例では、画像のサイズを1600×1200pixel(ピクセル)としているが、これも任意に設定することができる。
 グレースケール処理部21は、カラー画像を例えば8bitの階調でグレースケール化する。具体的には、グレースケール処理部21は、画像を構成する各画素の標本値に輝度以外の情報が含まれていない画像に変換する。このグレースケールは、2値画像と異なっており、画像を輝度が最も強い白から最も弱い黒までの間で、灰色の明暗も含めて表現する。この階調は、8bitに限られるものではなく、任意の階調に設定することができる。
 制御部10bは、ローカル画像強調処理部22を備えている。ローカル画像強調処理部22は、画像入力部20に入力されたグレースケール化された画像の局所領域のコントラストを強調するローカル画像強調処理を実行して強調処理画像を生成する。これにより、画像の細部の可視性が高まる。ローカル画像強調処理は、例えばヒストグラム平坦化処理(histogram equalization)等のように、画像の局所領域のコントラストを強調することで細部の可視性を高める処理を挙げることができる。
 制御部10bは、パッチ画像生成部23を備えている。パッチ画像生成部23は、ローカル画像強調処理部22により生成された強調処理画像を複数のパッチ画像に分割する部分である。具体的には、パッチ画像生成部23は、例えば、1600×1200pixelのサイズの画像が強調処理画像であるとすると、この画像を、1つが256×256pixelのサイズの画像(パッチ画像)となるように分割する。パッチ画像生成部23は、隣合うパッチ画像同士の一部が互いに重複するようにパッチ画像を生成することもできる。つまり、パッチ画像生成部23によって生成されたパッチ画像は、隣合うパッチ画像の一部と重複しており、この重複範囲は、例えば64pixel程度に設定することができる。この重複範囲の設定を例えば「64pixel stride」と呼ぶことができる。尚、上述したpixelの値は一例であり、他の値にすることもできる。
 仮に、複数のパッチ画像に分割する際、隣合うパッチ画像を重複させていない場合には、隣合うパッチ画像の境界にたまたま皮丘のエッジや発汗滴が重なっていることが考えられ、境界に重なっている皮丘や発汗滴の機械学習識別器24(後述する)による判別精度が低下するおそれがある。これに対し、本例のように隣合うパッチ画像同士の一部を互いに重複させていることで、上述した位置にある皮丘や発汗滴であっても精度よく判別できるようになる。
 制御部10bは、機械学習識別器24を備えている。機械学習識別器24は、パッチ画像生成部23により生成された各パッチ画像が入力され、入力された各パッチ画像のセグメンテーションを実行する部分である。機械学習識別器24自体は、周知のディープラーニングの手法に従って入力画像をセグメンテーションし、このセグメンテーションにより、例えば画素毎にどのカテゴリーに属するかを求めて出力画像として出力する。機械学習識別器24は、入力画像が入力される入力層と、出力画像を出力する出力層とを有するとともに、入力層と出力層との間に複数の隠れ層を有している。機械学習識別器24は、多数の教師データを学習することで共通する特徴量を自動で抽出して柔軟な判断を可能にしたものであり、学習が完了している。
 本例では、機械学習識別器24は、入力画像の解像度と出力画像の解像度とを同じにしている。一般的な機械学習識別器の場合、入力画像の解像度が高く、出力画像の解像度を下げて出力するが、本例は細かな皮丘の形状や発汗滴の大きさなどを正確に判別する必要があることから、出力画像の解像度を下げないようにしている。一例を挙げると、機械学習識別器24の入力層に256×256pixelのサイズのパッチ画像が入力された場合、出力層からは256×256pixelのサイズの出力画像を出力される。
 また、本例の機械学習識別器24は、皮丘・皮溝の検出と、発汗滴の検出とを同時に実行できるように構成されている。すなわち、機械学習識別器24は、皮丘・皮溝を検出する皮丘・皮溝検出器24aと、発汗滴を検出する発汗滴検出器24bとを有している。皮丘・皮溝検出器24a及び発汗滴検出器24bは、それぞれ例えばネットワークとしてUnetを用いて構築することができる。
 制御部10bは、全体画像生成部25を備えている。全体画像生成部25は、機械学習識別器24から出力されたセグメンテーション後のパッチ画像を合成して全体画像を生成する部分である。具体的には、全体画像生成部25は、皮丘・皮溝検出器24aから出力されたパッチ画像を分割前の画像のように合成して皮丘・皮溝判別用の全体画像を生成し、また、発汗滴検出器24bから出力されたパッチ画像を同様に合成して発汗滴判別用の全体画像を生成する。全体画像は、分割前の画像サイズと同じになる。
 制御部10bは、尤度マップ生成部26を備えている。尤度マップ生成部26は、全体画像生成部25により生成された皮丘・皮溝判別用の全体画像から機械学習識別器24によるセグメンテーション結果に基づいて皮丘の尤度マップ画像を生成する部分である。尤度マップ画像は、各画素の尤度に応じて色分け表示した画像であり、どの画素の尤度が高い、または低いかを相対的に示している。例えば最も高い尤度を持つ画素を赤、最も低い尤度を持つ画素を青とし、その間を8bitの階調で表現したカラーマップ画像を皮丘・皮溝の尤度マップ画像とすることができる。尚、この表示形態は一例であり、グレースケールで表示してもよいし、明度を変えた表示形態であってもよいし、階調は8bit以外であってもよい。
 また、尤度マップ生成部26は、全体画像生成部25により生成された発汗滴判別用の全体画像から機械学習識別器24によるセグメンテーション結果に基づいて発汗滴の尤度マップ画像を生成する。発汗滴である尤度が最も高い画素を赤、発汗滴である尤度が最も低い画素を青とし、その間を8bitの階調で表現したカラーマップ画像を発汗滴の尤度マップ画像とすることができる。発汗滴の尤度マップ画像は、皮丘・皮溝の場合と同様に、グレースケールで表示してもよいし、明度を変えた表示形態であってもよいし、階調は8bit以外であってもよい。
 制御部10bは、2値化処理部27を有している。2値化処理部27は、尤度マップ生成部26により生成された尤度マップ画像に2値化処理を実行して2値化画像(白黒画像)を生成する部分である。2値化処理時に用いられる閾値Thは、任意の値に設定すればよく、例えば階調が8bitの場合、Th=150等の値に設定することができる。皮丘・皮溝判別用の全体画像に基づいた尤度マップ画像を利用することで、例えば、黒が皮溝、白が皮丘というように判別することができる。また、発汗滴判別用の全体画像に基づくことで、例えば、白が発汗滴、黒が発汗滴以外の部分というように判別することができる。
 制御部10bは、領域抽出部28を備えている。領域抽出部28は、2値化処理部27により生成された2値化画像に基づいて皮丘領域を抽出する部分である。具体的には、2値化画像の黒が皮丘である場合には、2値化画像の白色の画素の集団を皮丘領域として抽出する。また、領域抽出部28は、2値化処理部27により生成された2値化画像に基づいて皮溝領域を抽出してもよい。この場合、2値化画像の黒が皮溝であるとすると、2値化画像の白色の画素の集団を皮溝領域として抽出する。領域抽出部28は、皮溝を抽出した後、その他の領域を皮丘領域であるとして抽出してもよい。また、領域抽出部28は、皮丘を抽出した後、その他の領域を皮溝領域であるとして抽出してもよい。
 制御部10bは、発汗滴抽出部29を備えている。発汗滴抽出部29は、発汗滴の尤度マップ画像に基づいて発汗滴を抽出する部分である。具体的には、発汗滴の尤度マップ画像の白(または赤)が発汗滴である場合には、発汗滴の尤度マップ画像の白色(または赤)の画素の集団を発汗滴として抽出する。また、発汗滴抽出部29は、発汗滴の尤度マップ画像に基づいて発汗滴以外の部分を抽出してもよい。この場合、発汗滴の尤度マップ画像の黒(または青)が発汗滴以外の部分であるとすると、発汗滴の尤度マップ画像の黒色(または赤)の画素の集団を発汗滴以外の部分として抽出する。発汗滴抽出部29は、発汗滴の尤度マップ画像の発汗滴以外の部分を抽出した後、その他の領域を発汗滴であるとして抽出してもよい。
 転写材100には気泡が含まれている場合があり、この気泡が発汗滴であるとして判別されるおそれがある。この場合には、寸法を用いた判別手法も適用する。例えば判別閾値の一例として「40μm」と設定しておくことで、直径が40μm以下の小さな領域は気泡であるとし、直径が40μmを超える領域のみ発汗滴であるとして判別する。判別閾値の別の例としては、面積を挙げることができ、例えば直径が40μmの円の面積を求めておき、その面積以下の小さな領域は気泡であるとし、その面積を超える領域のみ発汗滴であるとして判別することができる。上記「直径」は例えば楕円近似の場合の長径としてもよい。
 制御部10bは、皮丘解析部30を備えている。皮丘解析部30は、領域抽出部28により抽出された皮丘領域の面積を算出する部分である。皮丘解析部30は、例えば、領域抽出部28により抽出された皮丘領域を囲む輪郭線を生成することで、皮丘の形状を取得することができる。皮丘解析部30は、皮丘の輪郭線で囲まれた領域の面積を求めることで、皮丘の面積を算出できる。また、皮丘解析部30は、例えば、領域抽出部28により抽出された皮溝領域を囲む輪郭線を生成することで、皮溝の形状も取得することができる。皮丘解析部30は、皮溝の輪郭線で囲まれた領域の面積を求めることで、皮溝の面積も算出できる。
 皮丘解析部30は、2値化画像上またはグレースケール画像上に所定の大きさのグリッドを複数設定し、各グリッド内の皮丘領域と皮溝領域との割合を算出する。具体的には、皮丘解析部30は、一例として2値化画像を9つに等分割するようにグリッドを設定して第1~第9の分割画像を想定した場合、各分割画像に含まれる皮丘領域の面積と皮溝領域の面積を算出し、皮丘領域の面積と皮溝領域の面積の割合を算出する。例えば皮表のきめ細かさを評価したい場合、2値化画像上またはグレースケール画像上に設定したグリッド内における皮丘領域と皮溝領域との割合に基づいて評価できる。皮丘領域の割合が所定以上である場合には、きめが粗いと判断する基準となり得る。また、皮丘領域の割合が所定未満である場合には、きめが細かいと判断する基準となり得る。
 以降の実施形態の説明では、皮丘解析部30において、皮丘と皮溝(皮丘が白に近い、皮溝が黒に近い)をグレースケール画像で解析した結果を用いた場合である。健常者の場合には、皮丘と皮溝の境界がはっきりしており、皮丘の面積を計測することが可能であるが、アトピー性皮膚炎の患者の場合には、皮丘と皮溝の境界がはっきりしていない場合があり、この場合、グレースケール画像をそのまま解析に用いることで、皮丘と皮溝の割合を複数のグリッドサイズにわけて、そのグリッド内の画素のグレースケールの値を用いることで、皮丘と皮溝の割合を解析し、ヒストグラム表示することで、肌のきめの細かさなどの判断の基準に用いることができる(後述する)。
 また、皮丘解析部30は、上記各グリッド内の皮丘領域と皮溝領域との割合を数値化して度数分布を算出する。具体的には、皮丘領域の面積と皮溝領域の面積の割合を算出した後、これを数値化し、度数分布表の形式にデータ集計する。また、皮丘解析部31は、各皮丘領域の重心位置、皮丘領域の周囲長、矩形近似、楕円近似、円形度、アスペクト比、稠密度等を算出することができる。
 また、病態によっては皮丘の一部に溝ができている場合があり、この場合は、抽出された皮丘領域内に凸でない部分、即ち凹が存在することになる。この凹によって皮丘領域を分割することで、病態や臨床的な評価を適切に行う基準となり得る。このことに対応するように、皮丘解析部30は、皮丘領域の抽出後、抽出された皮丘領域の各部が凸であるか否かを判定し、凸でないと判定された部分によって皮丘領域を分割する。例えば、皮丘領域に溝状の部分が存在している場合があり、この場合、皮丘領域の全部が凸ではなく、一部(溝状の部分)が凹となる。凸でないと判定された部分、即ち凹と判定された部分は溝状の部分であることから、この溝状の部分によって皮丘領域を分割し、これにより、1つの皮丘領域が複数の皮丘領域となる。
 制御部10bは、発汗滴解析部31を備えている。発汗滴解析部31は、発汗滴抽出部29により抽出された発汗滴の分布を算出する。発汗滴解析部31は、例えば、皮表の単位面積当たり(1mm、1cm等)に存在する発汗滴の数、各発汗滴の大きさ(径)、発汗滴の面積等を算出できる。また、発汗滴解析部31は、皮表の単位面積当たりに存在する発汗滴の合計面積を算出することもできる。
 制御部10bは、情報出力部32を備えている。情報出力部32は、領域抽出部28により抽出された皮丘領域の形状に関する情報、発汗滴抽出部29により抽出された発汗滴に関する情報を生成して出力する。皮丘領域の形状に関する情報としては、皮丘解析部30が算出した結果を含んでおり、例えば皮丘領域の面積、皮丘領域の重心位置、皮丘領域の周囲長、矩形近似、楕円近似、円形度、アスペクト比、稠密度等を挙げることができる。また、発汗滴に関する情報としては、発汗滴解析部31が算出した結果を含んでおり、例えば単位面積当たりに存在する発汗滴の数、単位面積当たりに存在する発汗滴の合計面積等を挙げることができる。
 (皮表解析方法)
 次に、上記のように構成された皮表解析装置1を用いて行われる皮表解析方法について、具体的な画像例を示しながら説明する。皮表解析方法の流れは図3及び図4に示すフローチャートのとおりである。図3に示すフローチャートのステップS1では、IMTを実施する。このステップでは、図1に示すように、歯科用のシリコーン印象材を皮膚表面に膜状に塗布して所定時間放置した後、シリコーン印象材を皮膚から剥離して人の皮表構造が転写された転写材100を得る。
 その後、ステップS2に進む。ステップS2では、転写材100を実体顕微鏡101にセットして所定の倍率で観察し、観察視野を撮像素子により撮像する。これにより、JPEG形式のカラー画像(1600×1200pixel)を取得する。続いてステップS3に進み、撮像素子で撮像したカラー画像を皮表解析装置1の制御部10bに読み込む。その後、ステップS4に進み、ステップS3で読み込んだカラー画像をグレースケール処理部21(図2に示す)によって8bitのグレースケール化を行い、グレースケール画像を生成する。生成したグレースケール画像の一例を図6に示す。グレースケール画像上で色が薄い部分が皮丘、色が濃い部分が皮溝であるが、その境界ははっきりとせず、検査員による判別の際に、画像中のどこが皮溝であるか、あるいはどこが皮丘であるかの判定に時間がかかり、一定時間内に処理できるサンプル数には限界があった。制御部10bに読み込まれた画像がグレースケール画像であれば、グレースケール処理は不要である。
 続くステップS5では、グレースケール画像を画像入力部20に入力する。このステップが画像入力ステップである。その後、ステップS6では、ステップS5で入力されたグレースケール画像に対してローカル画像強調処理部22がローカル画像強調処理を実行する。このステップがローカル画像強調処理ステップである。ローカル画像強調処理が実行された画像を図7に示す。図7に示す画像は、図6に示す画像に比べて局所領域のコントラストが強調されて細部の可視性が高められていることが分かる。
 その後、ステップS7に進む。ステップS7では、パッチ画像生成部23がステップS6で生成された強調処理画像を複数のパッチ画像に分割する。図8には、パッチ画像に分割した様子を示しており、グリッド状の線がパッチ画像の境界に相当している。このとき、「64pixel stride」で図の上下方向及び左右方向に隣合うパッチ画像を互いに重複させている。このステップがパッチ画像生成ステップである。
 パッチ画像を生成した後、ステップS8に進む。ステップS8では、ステップS7で生成された各パッチ画像を機械学習識別器24に入力し、入力した各パッチ画像のセグメンテーションを機械学習識別器24によって実行する。このとき、皮丘・皮溝検出器24aと発汗滴検出器24bの両方に同じパッチ画像を入力する(ステップS9、S10)。このステップがセグメンテーションステップである。
 具体的には、図9に示すように、8つのパッチ画像が入力画像として存在していた場合、8つのパッチ画像を皮丘・皮溝検出器24aに入力するとともに、発汗滴検出器24bにも入力する。皮丘・皮溝検出器24aは、入力画像の全てについて皮丘の可能性が高いほど白くなるように、皮丘の可能性が低いほど(皮溝の可能性が高いほど)黒くなるように各画素の色を設定した出力画像を生成して出力する。また、発汗滴検出器24bは、入力画像の全てについて発汗滴の可能性が高いほど白くなるように、発汗滴の可能性が低いほど黒くなるように各画素の色を設定した出力画像を生成して出力する。
 図9では、皮丘・皮溝検出器24aから出力された皮丘・皮溝出力画像及び発汗滴検出器24bから出力された発汗滴出力画像の一例を示している。皮丘・皮溝出力画像中の白い部分が皮丘領域であり、黒い部分が皮溝領域である。また、発汗滴出力画像中の白い部分が発汗滴である。
 本例では、上述したように、ステップS7において複数のパッチ画像に分割する際、隣合うパッチ画像を重複させている。仮に、パッチ画像を重複させないとした場合、隣合うパッチ画像の境界にたまたま皮丘のエッジや発汗滴が重なっていることが考えられ、境界に重なっている皮丘や発汗滴の判別精度が低下するおそれがある。これに対し、本例では、隣合うパッチ画像同士の一部が互いに重複していることで、上述した位置にある皮丘や発汗滴であっても精度よく判別できる。
 その後、ステップS11に進み、ステップS9後の皮丘・皮溝出力画像(パッチ画像)を合成して図10に示すような全体画像を生成する。また、このステップS11では、ステップS9後の発汗滴出力画像(パッチ画像)を合成して図11に示すような全体画像も生成する。各全体画像のピクセル数は、ステップS5で入力された画像のピクセル数と同じになる。このステップが全体画像生成ステップである。
 続いて図4に示すステップS12に進み、ステップS11で生成された全体画像からセグメンテーション結果に基づいて、尤度マップ生成部26が、皮丘の尤度マップ画像及び発汗滴の尤度マップ画像を生成する。このステップが尤度マップ生成ステップである。図12は、皮丘の尤度マップ画像の一例を示している。この図では便宜上、グレースケール画像としているが、本例では、皮丘の尤度が最も高い画素を赤、皮丘の尤度が最も低い画素を青とし、その間を8bitの階調で表現したカラー画像としている。これにより、皮丘領域と皮溝領域との判別が容易になる。
 また、図13は、発汗滴の尤度マップ画像の一例を示している。この画像も本来はカラーであり、発汗滴の尤度が最も高い画素を赤、発汗滴の尤度が最も低い画素を青とし、その間を8bitの階調で表現したカラー画像としている。これにより、発汗滴の判別が容易になる。
 皮丘の尤度マップ画像及び発汗滴の尤度マップ画像を生成した後、ステップS13に進む。ステップS13では、ステップS12で生成された皮丘の尤度マップ画像に2値化処理を実行して2値化画像を生成する。このステップは2値化処理部27が実行するものであり、2値化処理ステップである。図14は、皮丘の尤度マップ画像に2値化処理を実行することによって生成された2値化画像を示している。
 その後、ステップS14に進み、ステップS13で生成された2値化画像に基づいて、領域抽出部28が皮丘領域を抽出する。このとき、皮溝領域を抽出してもよい。図15は、皮丘・皮溝を抽出した画像であり、皮丘領域を黒線で囲むことによって表示している。このステップが領域抽出ステップである。
 また、ステップS15に進むと、ステップS12により生成された発汗滴の尤度マップ画像に基づいて、発汗滴抽出部29が発汗滴を抽出する。このステップが発汗滴抽出ステップである。図16は、発汗滴を抽出した画像であり、発汗滴を黒線で囲むことによって表示している。
 次いでステップS16に進む。ステップS16では、発汗滴の位置と、皮丘・皮溝の比較を行う。発汗滴の位置や範囲は、画像上のXY座標で特定できる。また、皮丘・皮溝の位置や範囲も画像上のXY座標で特定できる。発汗滴の位置や範囲を特定する画像と、皮丘・皮溝の位置や範囲を特定する画像とは、元が同じであることから、図17に示すように、皮丘・皮溝を示した画像上に発汗滴を配置することができる。これにより、発汗滴と、皮丘・皮溝との相対的な位置関係を取得できる。このとき、皮丘の領域、発汗滴の重心位置座標を用いることができる。
 その後、ステップS17に進む。ステップS17では、皮丘・皮溝にある発汗滴の同定を行う。図18は、皮丘・皮溝にある発汗滴の同定を行った画像であり、これにより、皮丘にある発汗滴と、皮溝にある発汗滴とを区別することが可能になる。図18中、丸に近い形状のものが発汗滴である。
 同定を行った後、ステップS18及びステップS19に進む。ステップS18及びステップS19の順番はどちらが先でもよい。ステップS18では、皮丘情報のヒストグラムを作成し、モニタ11に表示させる。まず、皮丘解析部30が、ステップS14で抽出された各皮丘領域の面積をそれぞれ算出する。そして、図19に示すように、横軸に面積をとり、縦軸に度数をとったヒストグラムを作成する。このステップが皮丘解析ステップである。これにより、皮丘領域の面積の分布を把握することができる。例えば、アトピー性皮膚炎の場合には、1つの皮丘の面積が広くなりがちであり、広い面積の度数が高ければ、アトピー性皮膚炎の発汗障害の傾向が強いことが分かる。
 また、ステップS19では、発汗滴のヒートマップ画像を作成し、モニタ11に表示させる。まず、発汗滴解析部31が、ステップS15により抽出された発汗滴の分布を算出する。例えば、図20に示すように、転写材100を撮像した画像上にグリッドを形成し、各グリッド内に存在する発汗滴の数を計数する。これは、ステップS15により抽出された発汗滴の重心位置の座標がどのグリッド内に位置するかを判定していくことで可能である。例えば、発汗滴が存在しないグリッド、発汗滴が1つ存在するグリッド、発汗滴が2つ存在するグリッド、発汗滴が3つ存在するグリッド、…毎に色分けし、各グリッドを着色することで、発汗滴の分布を把握することができ、このように色分け表示した画像のことをヒートマップ画像と呼ぶことができる。このステップが発汗滴解析ステップである。発汗滴の分布が疎であれば、アトピー性皮膚炎の発汗障害の傾向が強いことが分かる。
 また、ヒートマップ画像を作成することで個々の解析エリアでは得られない、あるいは広い範囲でも全体を平均してしまうと判断できない、狭い範囲の発汗および皮丘の状態をパターンとして判断できるという利点もある。また、ヒートマップ画像を時系列で並べてモニタ11に表示させることもできる。例えば、アトピー性皮膚炎の患者が治療を開始してから1週間、2週間、3週間、経過した時点でそれぞれヒートマップ画像を生成しておき、これを一覧形式で表示することで、症状が改善しているか否かを判断することができるとともに、経過を定量的に判断できる。
 図21は、ステップS14で抽出された各皮丘領域を囲む線を示した皮丘領域画像の一例である。この図に示す画像は、皮丘解析部30が生成し、モニタ11に表示させることができる。図中、「15」で示す第15番目の皮丘領域と、「16」で示す第16番目の皮丘領域とが存在している場合、図22に示すように、皮丘解析部30が諸元の測定結果を表形式で作成し、モニタ11に表示させる。
 図22に示す表中、「Label」は、第15番目の皮丘領域と、第16番目の皮丘領域を区別するために設けられている。「Area」は皮丘領域の面積、「XM」及び「YM」は皮丘領域の重心位置、「Perimeter」は皮丘領域の周長、「BX」、「BY」、「Width」及び「Height」は矩形近似、「Major」、「Minor」及び「Angle」は楕円近似、「Circularity」は円形度、「Aspect Ratio」はアスペクト比、「Solidity」は稠密度を示す諸元である。これら諸元値は、例えば画像解析ソフトを用いることで皮丘解析部30が算出可能である。このように、1つの指標だけでなく、複数の指標を用いることで、臨床的な情報と対応させて判断することが可能となる。また、この指標も皮表のきめの細かさの判別に寄与することができるので、機械学習識別器24を用いて皮表のきめの細かさの判別を行うことも可能である。また、図22に示すように、統計的(合計、最大、最小、偏差等)に処理することも可能である。
 図23は、128×128pixelのグリッド当たりの皮丘と皮溝の2次元分布を示すグラフであり、このようなグラフも皮丘解析部30が生成してモニタ11に表示させることができる。例えば、皮丘領域を赤、皮溝領域を青として8bitのカラー画像で表示することができる。例えば、皮表のきめの細かさや、症状改善されてきたことを表現する方法の一例として使用でき、ヒートマップとしてもよいし、皮丘と皮溝の面積の割合で数値化したときに、それをヒストグラムで表示すると、皮表のきめが細かい場合には、中央値周辺の頻度が高くなる一方、アトピー性皮膚炎の場合には、分布が全体的に広くなり、裾がひろがりなる。これにより、2次元的な情報を定量化して診断情報として利用できるようになる。
 図24は、皮丘解析部30が、画像上に所定の大きさのグリッドを複数(本例では18)設定し、グリッド内の皮丘領域と皮溝領域との割合を算出する場合を示すものである。この場合、各グリッド内の皮丘領域と皮溝領域との割合を数値化して度数分布を算出することができ、ヒストグラムの形式でモニタ11に表示させることができる。例えば、皮表のきめの細かさを評価するために、皮丘の面積のみを用いる方法が考えられるが、その場合には、隣合う2つの皮丘が極めて近く1つの皮丘として判別された際、2倍程度の大きさの皮丘になり、解析結果が不正確になるおそれがある。本例のように各グリッドの中の皮丘と皮溝の割合を求めることで、皮表のきめの細かさを定量的に算出することができる。
 図25は、3×3=9視野の撮像領域を合成した画像である。これにより、広い範囲を観察することができ、広い範囲のうち、発汗の平均的な視野の画像について上述した各解析を行う。例えば、1つの視野だけに着目した場合、その視野は発汗が少ない視野であるのか、多い視野であるのか、平均的であるのか判別することができないが、9視野程度の広い視野の全てについて発汗滴を解析しておくことで、発汗が少ない視野及び多い視野を除外して平均的な視野、即ち皮表解析に適した視野を選択することができる。これにより、解析結果が的確なものになる。検査員による解析の場合には、時間的な制約から、処理する視野は3視野程度であったが、本発明により、3視野を大きく超える多数の視野の解析が可能となり、より正確な皮膚表面の解析が可能となる。
 皮丘解析部30は、図25に示すような画像を時系列で並べてモニタ11に表示させることもできる。例えば、アトピー性皮膚炎の患者が治療を開始してから1週間、2週間、3週間、経過した時点でそれぞれ図25に示すように画像を生成しておき、これを一覧形式でモニタ11に表示することで、症状が改善しているか否かを判断することができるとともに、経過具合を定量的に判断できる。
 (皮丘・皮溝の割合に基づく肌のきめの定量化)
 図26は、健常者の前腕の皮丘と皮溝の割合を示すグラフ(ヒストグラム)であり、グレースケール画像において100×100ピクセルサイズのグリッドを設定した場合を示す。横軸は、皮丘と皮溝の割合であり、縦軸は数である。図26の右側のグラフは、カーネル密度推定のグラフも表示している。また、同様に、図27は150×150ピクセルサイズのグリッドを設定した場合、図28は200×200ピクセルサイズのグリッドを設定した場合、図29は250×250ピクセルサイズのグリッドを設定した場合をそれぞれ示している。
 健常者の前腕のように、肌のきめが細かい場合には、100×100、150×150、200×200、250×250ピクセルサイズのグリッドのいずれにおいても、中央部分にピークを持った分布になる。また、グリッドサイズにより、皮丘と皮溝の割合が分かるため、皮丘のみならず、皮溝のサイズも定量化できる。
 次に、アトピー性皮膚炎の患者の場合について説明する。図30~図33は、アトピー性皮膚炎患者の大腿の皮丘と皮溝の割合を示すグラフであり、それぞれ、図26~図29に相当している。健常者を示す図26~図29のグラフに比べて、ピークが中央からずれていたり、複数のピークができていたりするので、これらグラフを見ることで、健常者とアトピー性皮膚炎の患者との相違を把握できる。
 また、図34~図37は、アトピー性皮膚炎患者の額の皮丘と皮溝の割合を示すグラフであり、それぞれ、図26~図29に相当している。健常者を示す図26~図29のグラフに比べて、全体的にピークが右側(皮丘・皮溝の割合の大きい側)にずれていたり、複数のピークができていたりするので、これらグラフを見ることで、健常者とアトピー性皮膚炎の患者との相違を把握できると共に、アトピー性皮膚炎の患者の皮膚のきめの細かさや皮膚の状態を把握できるため、経過観察において、治療効果を客観的な指標として提示することが可能となる。
 また、図38~図41は、アトピー性皮膚炎患者の肘の皮丘と皮溝の割合を示すグラフであり、それぞれ、図26~図29に相当している。健常者を示す図26~図29のグラフに比べて、ピークが中央からずれていたり、複数のピークができていたりするので、これらグラフを見ることで、健常者とアトピー性皮膚炎の患者との相違を把握できると共に、アトピー性皮膚炎の患者の皮膚のきめの細かさや皮膚の状態を把握できるため、経過観察において、治療効果を客観的な指標として提示することが可能となる。
 (実施形態の作用効果)
 以上説明したように、この実施形態によれば、機械学習識別器24を利用して皮表の尤度マップ画像を生成し、尤度マップ画像を利用して皮丘領域や発汗滴を判別することができるので、解析時の個人差を排除して皮表の状態の解析精度を高めることができるとともに、解析に要する時間を短縮できる。
 上述の実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。
 以上説明したように、本発明に係る皮表解析装置及び皮表解析方法は、例えば人の皮表を解析する場合に利用することができる。
1      皮表解析装置
20     画像入力部
21     グレースケール処理部
22     画像強調処理部
23     パッチ画像生成部
24     機械学習識別器
24a    皮丘・皮溝検出器
24b    発汗滴検出器
25     全体画像生成部
26     尤度マップ生成部
27     2値化処理部
28     領域抽出部
29     発汗滴抽出部
30     皮丘解析部
31     発汗滴解析部
100    転写材

Claims (12)

  1.  人の皮表構造が転写された転写材を用いて皮表を解析する皮表解析装置において、
     前記転写材を撮像した画像が入力される画像入力部と、
     前記画像入力部に入力された画像の局所領域のコントラストを強調するローカル画像強調処理を実行して強調処理画像を生成するローカル画像強調処理部と、
     前記ローカル画像強調処理部により生成された強調処理画像を複数のパッチ画像に分割するパッチ画像生成部と、
     前記パッチ画像生成部により生成された各パッチ画像が入力され、入力された各パッチ画像のセグメンテーションを実行する機械学習識別器と、
     前記機械学習識別器から出力されたセグメンテーション後のパッチ画像を合成して全体画像を生成する全体画像生成部と、
     前記全体画像生成部により生成された全体画像から前記セグメンテーション結果に基づいて皮丘の尤度マップ画像を生成する尤度マップ生成部と、
     前記尤度マップ生成部により生成された尤度マップ画像に2値化処理を実行して2値化画像を生成する2値化処理部と、
     前記2値化処理部により生成された2値化画像に基づいて皮丘領域を抽出する領域抽出部と、
     前記領域抽出部により抽出された皮丘領域の面積を算出する皮丘解析部とを備えていることを特徴とする皮表解析装置。
  2.  人の皮表構造が転写された転写材を用いて皮表を解析する皮表解析装置において、
     前記転写材を撮像した画像が入力される画像入力部と、
     前記画像入力部に入力された画像の局所領域のコントラストを強調するローカル画像強調処理を実行して強調処理画像を生成するローカル画像強調処理部と、
     前記ローカル画像強調処理部により生成された強調処理画像を複数のパッチ画像に分割するパッチ画像生成部と、
     前記パッチ画像生成部により生成された各パッチ画像が入力され、入力された各パッチ画像のセグメンテーションを実行する機械学習識別器と、
     前記機械学習識別器から出力されたセグメンテーション後のパッチ画像を合成して全体画像を生成する全体画像生成部と、
     前記全体画像生成部により生成された全体画像から前記セグメンテーション結果に基づいて発汗滴の尤度マップ画像を生成する尤度マップ生成部と、
     前記尤度マップ生成部により生成された尤度マップ画像に基づいて発汗滴を抽出する発汗滴抽出部と、
     前記発汗滴抽出部により抽出された発汗滴の分布を算出する発汗滴解析部とを備えていることを特徴とする皮表解析装置。
  3.  請求項1に記載の皮表解析装置において、
     前記全体画像生成部により生成された全体画像から前記セグメンテーション結果に基づいて発汗滴の尤度マップ画像を生成する尤度マップ生成部と、
     前記尤度マップ生成部により生成された尤度マップ画像に基づいて発汗滴を抽出する発汗滴抽出部と、
     前記発汗滴抽出部により抽出された発汗滴の分布を算出する発汗滴解析部とを備えていることを特徴とする皮表解析装置。
  4.  請求項1から3のいずれか1つに記載の皮表解析装置において、
     前記転写材は、Impresstion mold techniqueで取得されたものであり、
     前記転写材を撮像した画像をグレースケール化するグレースケール処理部を備えていることを特徴とする皮表解析装置。
  5.  請求項1から4のいずれか1つに記載の皮表解析装置において、
     前記パッチ画像生成部は、隣合うパッチ画像同士の一部が互いに重複するようにパッチ画像を生成することを特徴とする皮表解析装置。
  6.  請求項1から5のいずれか1つに記載の皮表解析装置において、
     前記機械学習識別器は、入力画像の解像度と出力画像の解像度とを同じにしていることを特徴とする皮表解析装置。
  7.  請求項1に記載の皮表解析装置において、
     前記皮丘解析部は、画像上に所定の大きさのグリッドを複数設定し、前記各グリッド内の皮丘領域と皮溝領域との割合を算出することを特徴とする皮表解析装置。
  8.  請求項7に記載の皮表解析装置において、
     前記皮丘解析部は、前記各グリッド内の皮丘領域と皮溝領域との割合を数値化して度数分布を算出することを特徴とする皮表解析装置。
  9.  請求項1に記載の皮表解析装置において、
     前記領域抽出部は、皮丘領域の抽出後、抽出された皮丘領域の各部が凸であるか否かを判定し、凸でないと判定された部分によって前記皮丘領域を分割することを特徴とする皮表解析装置。
  10.  請求項3に記載の皮表解析装置において、
     前記領域抽出部により抽出された皮丘領域の形状に関する情報を生成して出力する情報出力部を備えていることを特徴とする皮表解析装置。
  11.  人の皮表構造が転写された転写材を用いて皮表を解析する皮表解析方法において、
     前記転写材を撮像した画像を入力する画像入力ステップと、
     前記画像入力ステップで入力された画像の局所領域のコントラストを強調するローカル画像強調処理を実行して強調処理画像を生成するローカル画像強調処理ステップと、
     前記ローカル画像強調処理ステップにより生成された強調処理画像を複数のパッチ画像に分割するパッチ画像生成ステップと、
     前記パッチ画像生成ステップにより生成された各パッチ画像を機械学習識別器に入力し、入力した各パッチ画像のセグメンテーションを機械学習識別器によって実行するセグメンテーションステップと、
     前記セグメンテーションステップ後のパッチ画像を合成して全体画像を生成する全体画像生成ステップと、
     前記全体画像生成ステップにより生成された全体画像から前記セグメンテーション結果に基づいて皮丘の尤度マップ画像を生成する尤度マップ生成ステップと、
     前記尤度マップ生成ステップにより生成された尤度マップ画像に2値化処理を実行して2値化画像を生成する2値化処理ステップと、
     前記2値化処理ステップにより生成された2値化画像に基づいて皮丘領域を抽出する領域抽出ステップと、
     前記領域抽出ステップにより抽出された皮丘領域の面積を算出する皮丘解析ステップとを備えていることを特徴とする皮表解析方法。
  12.  人の皮表構造が転写された転写材を用いて皮表を解析する皮表解析方法において、
     前記転写材を撮像した画像を入力する画像入力ステップと、
     前記画像入力ステップで入力された画像の局所領域のコントラストを強調するローカル画像強調処理を実行して強調処理画像を生成するローカル画像強調処理ステップと、
     前記ローカル画像強調処理ステップにより生成された強調処理画像を複数のパッチ画像に分割するパッチ画像生成ステップと、
     前記パッチ画像生成ステップにより生成された各パッチ画像を機械学習識別器に入力し、入力した各パッチ画像のセグメンテーションを機械学習識別器によって実行するセグメンテーションステップと、
     前記セグメンテーションステップ後のパッチ画像を合成して全体画像を生成する全体画像生成ステップと、
     前記全体画像生成ステップにより生成された全体画像から前記セグメンテーション結果に基づいて発汗滴の尤度マップ画像を生成する尤度マップ生成ステップと、
     前記尤度マップ生成ステップにより生成された尤度マップ画像に基づいて発汗滴を抽出する発汗滴抽出ステップと、
     前記発汗滴抽出ステップにより抽出された発汗滴の分布を算出する発汗滴解析ステップとを備えていることを特徴とする皮表解析方法。
PCT/JP2021/033184 2020-09-17 2021-09-09 皮表解析装置及び皮表解析方法 WO2022059596A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP21869283.8A EP4216153A4 (en) 2020-09-17 2021-09-09 SKIN SURFACE ANALYSIS DEVICE AND SKIN SURFACE ANALYSIS METHOD
JP2022550513A JPWO2022059596A1 (ja) 2020-09-17 2021-09-09
CN202180061633.1A CN116113984A (zh) 2020-09-17 2021-09-09 皮肤表面分析装置及皮肤表面分析方法
KR1020237011964A KR20230069953A (ko) 2020-09-17 2021-09-09 피부 표면 해석 장치 및 피부 표면 해석 방법
US18/120,366 US20230214970A1 (en) 2020-09-17 2023-03-11 Skin surface analysis device and skin surface analysis method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-156214 2020-09-17
JP2020156214 2020-09-17

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/120,366 Continuation US20230214970A1 (en) 2020-09-17 2023-03-11 Skin surface analysis device and skin surface analysis method

Publications (1)

Publication Number Publication Date
WO2022059596A1 true WO2022059596A1 (ja) 2022-03-24

Family

ID=80777006

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/033184 WO2022059596A1 (ja) 2020-09-17 2021-09-09 皮表解析装置及び皮表解析方法

Country Status (6)

Country Link
US (1) US20230214970A1 (ja)
EP (1) EP4216153A4 (ja)
JP (1) JPWO2022059596A1 (ja)
KR (1) KR20230069953A (ja)
CN (1) CN116113984A (ja)
WO (1) WO2022059596A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264296B1 (ja) 2022-04-20 2023-04-25 堺化学工業株式会社 毛髪の状態を判別する状態判別方法、状態判別装置、および状態判別プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09308619A (ja) * 1996-05-23 1997-12-02 Kao Corp 皮膚表面分析方法及び装置
JP2013188325A (ja) * 2012-03-13 2013-09-26 Shiseido Co Ltd 肌状態解析方法、肌状態解析装置、及び、肌状態解析システム、並びに、該肌状態解析方法を実行させるためのプログラム、及び、該プログラムを記録した記録媒体
WO2018230733A1 (ja) 2017-06-16 2018-12-20 マルホ株式会社 皮膚外用剤
US20200234444A1 (en) * 2019-01-18 2020-07-23 Tissue Analytics, Inc. Systems and methods for the analysis of skin conditions

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793549A (ja) * 1993-09-24 1995-04-07 Shiseido Co Ltd 帰納学習を用いた物理情報分類装置及び帰納学習を用いた物理情報分類規則生成方法
JP6546852B2 (ja) * 2013-08-30 2019-07-17 株式会社ニュートリション・アクト 解析装置、解析方法、およびプログラム
DK179723B1 (en) 2017-02-15 2019-04-12 Vkr Holding A/S A method for attaching a pane element to a sash and a pane module including a pane element

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09308619A (ja) * 1996-05-23 1997-12-02 Kao Corp 皮膚表面分析方法及び装置
JP2013188325A (ja) * 2012-03-13 2013-09-26 Shiseido Co Ltd 肌状態解析方法、肌状態解析装置、及び、肌状態解析システム、並びに、該肌状態解析方法を実行させるためのプログラム、及び、該プログラムを記録した記録媒体
WO2018230733A1 (ja) 2017-06-16 2018-12-20 マルホ株式会社 皮膚外用剤
US20200234444A1 (en) * 2019-01-18 2020-07-23 Tissue Analytics, Inc. Systems and methods for the analysis of skin conditions

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4216153A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7264296B1 (ja) 2022-04-20 2023-04-25 堺化学工業株式会社 毛髪の状態を判別する状態判別方法、状態判別装置、および状態判別プログラム
JP2023159529A (ja) * 2022-04-20 2023-11-01 堺化学工業株式会社 毛髪の状態を判別する状態判別方法、状態判別装置、および状態判別プログラム

Also Published As

Publication number Publication date
EP4216153A4 (en) 2024-04-03
CN116113984A (zh) 2023-05-12
US20230214970A1 (en) 2023-07-06
EP4216153A1 (en) 2023-07-26
JPWO2022059596A1 (ja) 2022-03-24
KR20230069953A (ko) 2023-05-19

Similar Documents

Publication Publication Date Title
Mall et al. Glcm based feature extraction and medical x-ray image classification using machine learning techniques
Yilmaz et al. Computer-aided diagnosis of periapical cyst and keratocystic odontogenic tumor on cone beam computed tomography
Garnavi et al. Automatic segmentation of dermoscopy images using histogram thresholding on optimal color channels
Sumithra et al. Segmentation and classification of skin lesions for disease diagnosis
EP1875863B1 (en) Skin state analyzing method, skin state analyzing device, and recording medium on which skin state analyzing program is recorded
Lee et al. Detection of neovascularization based on fractal and texture analysis with interaction effects in diabetic retinopathy
JP5576775B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US9418422B2 (en) Skin image analysis
Ghaedi et al. An automated dental caries detection and scoring system for optical images of tooth occlusal surface
KR20200108686A (ko) 딥러닝 알고리즘을 이용한 근감소증 분석 프로그램 및 애플리케이션
JPWO2019044095A1 (ja) 医用情報表示装置、方法及びプログラム
WO2022059596A1 (ja) 皮表解析装置及び皮表解析方法
JPWO2019044081A1 (ja) 医用画像表示装置、方法及びプログラム
Shah et al. Algorithm mediated early detection of oral cancer from image analysis
JP5640280B2 (ja) 骨粗鬆症診断支援装置及び骨粗鬆症診断支援プログラム
Marcal et al. Evaluation of the Menzies method potential for automatic dermoscopic image analysis.
JP2007252892A (ja) 皮膚表面の立体形状の目視評価値の推定方法
Selvarasu et al. Image processing techniques and neural networks for automated cancer analysis from breast thermographs-A review
TWM527991U (zh) 醫療影像處理裝置
KR20190104001A (ko) 피부 질환 자동 분류 장치 및 피부 질환 자동 분류 방법
Iyatomi et al. Automated color normalization for dermoscopy images
EP2980757B1 (en) Quantification and imaging methods of the echo-texture feature
Mankar et al. Comparison of different imaging techniques used for chronic wounds
Mishra et al. Automatic separation of basal cell carcinoma from benign lesions in dermoscopy images with border thresholding techniques
JP6390458B2 (ja) 情報処理装置、情報処理システム及び情報処理方法並びに情報処理用プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21869283

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022550513

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20237011964

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021869283

Country of ref document: EP

Effective date: 20230417