WO2020189754A1 - 推定方法、推定モデルの生成方法、プログラム、及び推定装置 - Google Patents

推定方法、推定モデルの生成方法、プログラム、及び推定装置 Download PDF

Info

Publication number
WO2020189754A1
WO2020189754A1 PCT/JP2020/012249 JP2020012249W WO2020189754A1 WO 2020189754 A1 WO2020189754 A1 WO 2020189754A1 JP 2020012249 W JP2020012249 W JP 2020012249W WO 2020189754 A1 WO2020189754 A1 WO 2020189754A1
Authority
WO
WIPO (PCT)
Prior art keywords
skin
estimation
image
feature amount
parameters related
Prior art date
Application number
PCT/JP2020/012249
Other languages
English (en)
French (fr)
Inventor
洋 川崎
英良 川上
恵太 古関
全 海老原
雅行 天谷
成 英次
水野 誠
美樹 伊藤
徹 厚木
由佳子 木村
Original Assignee
学校法人慶應義塾
株式会社コーセー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=72519107&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2020189754(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 学校法人慶應義塾, 株式会社コーセー filed Critical 学校法人慶應義塾
Priority to US17/593,346 priority Critical patent/US11534105B2/en
Priority to JP2021507415A priority patent/JP6983357B2/ja
Priority to KR1020217028038A priority patent/KR102411108B1/ko
Priority to CN202080020708.7A priority patent/CN113574564B/zh
Publication of WO2020189754A1 publication Critical patent/WO2020189754A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/443Evaluating skin constituents, e.g. elastin, melanin, water
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Definitions

  • the present invention relates to an estimation method, an estimation model generation method, a program, and an estimation device.
  • Patent Document 1 a plurality of LEDs (Light Emitting Diodes), each of which irradiates light of a different wavelength, are arranged at different angles with respect to the skin, and benign tissue and malignant tissue are classified from the measured reflectance spectrum.
  • a method of operating an optical transmission diagnostic device for assisting the distinction between the two is disclosed.
  • the method of operation of the optical transmission diagnostic device relates to an optical method for determining some of the morphological parameters and physiological characteristics of living tissue, particularly the morphological parameters and physiological of benign and malignant tissue lesions.
  • Target methods for determining properties are disclosed.
  • Patent Document 2 discloses a skin condition analysis method for analyzing the condition of the skin surface based on the shape of the skin groove on the skin surface.
  • the skin condition analysis method a plurality of optical cross-sectional images which are three-dimensional shape data of the skin groove on the skin surface are acquired by using a confocal microscope, and the condition of the skin surface is evaluated.
  • TEWL transepidermal water loss
  • Patent Document 1 and Patent Document 2 the point of analyzing the state of the living tissue is considered, but the function of the living tissue including the skin barrier function is considered, not the state of the living tissue. It wasn't done. Therefore, these prior arts have not considered the point of estimating the function of living tissue. On the other hand, there has been a demand to accurately estimate the parameters related to the skin function including TEWL and the like to accurately estimate the function of the biological tissue including the skin barrier function and the like.
  • An object of the present invention made in view of such problems is to provide an estimation method, an estimation model generation method, a program, and an estimation device capable of accurately estimating parameters related to skin function.
  • the estimation method is An estimation method for estimating parameters related to skin function.
  • An image acquisition step to acquire a skin image showing the unevenness of the skin surface An extraction step of extracting a feature amount vector based on the phase information of the skin image with respect to the skin image acquired in the image acquisition step.
  • the parameters related to the skin function are estimated based on the feature quantity vector extracted in the extraction step using an estimation model constructed based on the past actual measurement data in which the feature quantity vector and the parameters related to the skin function are associated with each other.
  • Estimating steps and A presentation step that presents the parameters related to the skin function estimated in the estimation step, and including.
  • a method for generating an estimation model is used.
  • a method for generating the estimation model used in the above estimation method An acquisition step for acquiring past actual measurement data in which the feature quantity vector and the parameter related to the skin function are associated with each other.
  • the program according to the embodiment of the present invention Have the information processing apparatus execute the above estimation method or the above estimation model generation method.
  • the estimation device is An estimation device that estimates parameters related to skin function.
  • An image acquisition unit that acquires a skin image showing the unevenness of the skin surface, For the skin image acquired by the image acquisition unit, a feature amount vector based on the phase information of the skin image is extracted, and the past actual measurement data in which the feature amount vector and the parameter related to the skin function are associated with each other is obtained.
  • a control unit that estimates parameters related to the skin function based on the extracted feature quantity vector using the estimation model constructed based on the above.
  • a presenting unit that presents parameters related to the skin function estimated by the control unit, and To be equipped.
  • the estimation method the estimation model generation method, the program, and the estimation device according to the embodiment of the present invention, it is possible to accurately estimate the parameters related to the skin function.
  • FIG. 1 is a block diagram showing a schematic configuration of an estimation device 1 according to an embodiment of the present invention. The configuration and function of the estimation device 1 according to the embodiment of the present invention will be mainly described with reference to FIG.
  • the estimation device 1 acquires a skin image showing irregularities on the skin surface.
  • the estimation device 1 extracts a feature amount vector based on the topological information of the skin image from the acquired skin image.
  • the estimation device 1 estimates the parameters related to skin function based on the extracted feature vector using an estimation model constructed based on the past actual measurement data in which the feature vector and the parameters related to skin function are associated with each other.
  • the estimation device 1 presents parameters related to the estimated skin function.
  • Parameters related to skin function include, for example, TEWL.
  • the parameters relating to the skin function may include any index associated with the function of the living tissue including the skin barrier function and the like.
  • parameters related to skin function may include the amount of water in the skin.
  • the estimation device 1 is, for example, an electronic device that estimates parameters related to skin function based on a skin image showing irregularities on the surface of human skin.
  • the estimation device 1 may be a dedicated electronic device, or may be any general-purpose electronic device such as a smartphone, a PC (Personal Computer), and a server device.
  • the estimation device 1 itself may image a human skin surface to acquire a skin image, and estimate parameters related to skin function based on the skin image.
  • the estimation device 1 is not limited to this, and for example, the estimation device 1 acquires a skin image of the human skin surface imaged by another image pickup device or the like from the other image pickup device or the like by any means such as communication. Parameters related to skin function may be estimated based on the skin image.
  • the estimation device 1 includes a control unit 11, a communication unit 12, a storage unit 13, an image acquisition unit 14, a data acquisition unit 15, and a presentation unit 16.
  • the control unit 11 includes one or more processors.
  • the "processor” is, but is not limited to, a general purpose processor or a dedicated processor specialized for a particular process.
  • the control unit 11 is communicably connected to each of the constituent units constituting the estimation device 1 and controls the operation of the entire estimation device 1.
  • the control unit 11 may control the communication unit 12 and transmit the estimation result by the estimation device 1 to any other information processing device.
  • the control unit 11 may control the storage unit 13 to store the estimation result by the estimation device 1 and the acquired skin image.
  • the control unit 11 may control the image acquisition unit 14 to acquire a skin image in which the unevenness of the skin surface is reflected.
  • the control unit 11 may control the data acquisition unit 15 to acquire past actual measurement data in which the feature amount vector and the parameter related to the skin function are associated with each other.
  • the control unit 11 may control the presentation unit 16 to present the estimation result by the estimation device 1 to the user.
  • the communication unit 12 includes a communication module that connects to a network including a mobile communication network and the Internet.
  • the communication unit 12 may include a communication module corresponding to a mobile communication standard such as 4G (4th Generation) and 5G (5th Generation).
  • the communication unit 12 may include a communication module corresponding to a wired LAN (Local Area Network) standard.
  • the storage unit 13 includes one or more memories.
  • the "memory” is, for example, a semiconductor memory, a magnetic memory, an optical memory, or the like, but is not limited thereto.
  • Each memory included in the storage unit 13 may function as, for example, a main storage device, an auxiliary storage device, or a cache memory.
  • the storage unit 13 stores arbitrary information used for the operation of the estimation device 1.
  • the storage unit 13 may store the system program, the application program, various information acquired by the estimation device 1, the estimation result by the estimation device 1, and the like.
  • the information stored in the storage unit 13 may be updatable with information acquired from the network via, for example, the communication unit 12.
  • the image acquisition unit 14 includes an arbitrary imaging device such as a camera.
  • the image acquisition unit 14 may acquire a skin image in which the unevenness of the skin surface is captured, for example, by imaging using the image pickup device of the image acquisition unit 14 itself.
  • the image acquisition unit 14 may acquire a skin image in which the unevenness of the skin surface is reflected by any method.
  • the image acquisition unit 14 may acquire a skin image of the skin surface imaged by another image pickup device or the like from the other image pickup device or the like by any means such as communication.
  • the data acquisition unit 15 includes, for example, an arbitrary interface capable of acquiring past actual measurement data in which a feature quantity vector and a parameter related to skin function are associated with each other.
  • the data acquisition unit 15 may include an arbitrary input interface capable of accepting an input operation by the user, and may acquire actual measurement data based on the input by the user.
  • the data acquisition unit 15 may include an arbitrary communication interface and acquire actual measurement data from an external device or the like by an arbitrary communication protocol.
  • the presentation unit 16 includes, for example, an arbitrary output interface for outputting an image.
  • the presentation unit 16 includes an arbitrary display such as a liquid crystal display and an organic EL (Electro Luminescence) display.
  • the presentation unit 16 presents the estimation result by the estimation device 1 to the user or the like.
  • the presentation unit 16 presents parameters related to skin function estimated by the control unit 11 of the estimation device 1.
  • FIG. 2 is a flowchart showing an example of the first operation by the estimation device 1 of FIG.
  • FIG. 2 shows a flow in which the estimation device 1 generates an estimation model based on past actual measurement data. That is, FIG. 2 shows a method of generating an estimation model used in the estimation method described later using the estimation device 1.
  • step S101 the control unit 11 of the estimation device 1 uses the data acquisition unit 15 to acquire past actual measurement data in which the feature amount vector and the parameters related to the skin function are associated with each other.
  • step S102 the control unit 11 builds an estimation model that estimates parameters related to skin function based on the feature amount vector based on the past actual measurement data acquired in step S101.
  • the estimation model may be, for example, a machine learning model including a random forest model learned based on the past actual measurement data acquired in step S101.
  • the estimation model is not limited to this, and may be any machine learning model including a neural network, a local regression model, a kernel regression model, and the like.
  • FIG. 3 is a flowchart showing an example of the second operation by the estimation device 1 of FIG.
  • FIG. 3 mainly shows a flow in which the estimation device 1 estimates parameters related to skin function using the estimation model constructed by the flow of FIG. That is, FIG. 3 shows an estimation method for estimating parameters related to skin function using the estimation device 1.
  • step S201 the control unit 11 of the estimation device 1 uses the image acquisition unit 14 to acquire a skin image showing the unevenness of the skin surface.
  • step S202 the control unit 11 extracts a feature amount vector based on the phase information of the skin image from the skin image acquired in step S201. Since step S202 includes a more detailed flow as described later in FIG. 4, the box of step S202 is shown by a double line in FIG.
  • step S203 the control unit 11 estimates the parameters related to the skin function based on the feature amount vector extracted in step S202 by using the estimation model constructed by the flow of FIG.
  • step S204 the control unit 11 presents the parameters related to the skin function estimated in step S203 by using the presentation unit 16.
  • FIG. 4 is a flowchart showing an example of the third operation by the estimation device 1 of FIG.
  • FIG. 4 shows the flow in step S202 of FIG. 3 in more detail.
  • the flow until the control unit 11 of the estimation device 1 extracts the feature amount vector based on the acquired skin image will be described in more detail.
  • step S301 the control unit 11 of the estimation device 1 generates a corrected image obtained by performing brightness correction processing and binarization processing on the skin image acquired in step S201 of FIG.
  • FIG. 5 is a schematic diagram showing an example of the corrected image generated in step S301 of FIG.
  • the control unit 11 uses, for example, a wavelet transform to generate a corrected image as shown in FIG. 5, which includes only information in a predetermined frequency domain. By generating such a corrected image, the control unit 11 removes extra information that may be noise, which is not related to the unevenness of the skin surface, from the skin image acquired in step S201 of FIG.
  • step S302 of FIG. 4 the control unit 11 acquires information on the 0-dimensional feature amount and the 1-dimensional feature amount extracted based on the corrected image generated in step S301.
  • Such information on the 0-dimensional feature amount and the 1-dimensional feature amount constitutes the above-mentioned phase information.
  • FIG. 6 is a schematic diagram showing an example of a method for acquiring topological information in step S302 of FIG. With reference to FIG. 6, a method in which the control unit 11 extracts the 0-dimensional feature amount and the 1-dimensional feature amount based on the corrected image generated in step S301 will be mainly described.
  • the control unit 11 executes the density estimation of white pixels on the corrected image generated in step S301, and generates an image representing the density of white pixels with respect to the pixel area like a topographic map.
  • the density change of white pixels is represented as a peak in the pixel region where the density of white pixels is high and as a valley in the pixel region where the density of black pixels is high.
  • FIG. 6 is a schematic diagram showing one-dimensionally the density change of white pixels along a predetermined row of pixels in such an image.
  • the vertical axis shows the density of white pixels.
  • the horizontal axis indicates the pixel position.
  • the control unit 11 changes the threshold value t of the density of white pixels with respect to the graph showing the density change of white pixels as shown in FIG. 6, for example.
  • the control unit 11 is, for example, a pixel region in which the straight line corresponding to the threshold value t as shown by the broken line in FIG. 6 intersects the graph, and the value of the density of white pixels in the graph becomes larger than the threshold value t. For, all pixels are determined to be white. For example, the control unit 11 determines all the pixels to be black for the other pixel areas.
  • FIG. 7 is a schematic diagram showing an example of changes in the image and the phase information when the threshold value t is changed stepwise. More specifically, the set of images in the upper part of FIG. 7 shows how the white regions are connected, which is obtained when the threshold value t is changed stepwise. The middle part of FIG. 7 shows the state of change in the 0-dimensional feature amount obtained when the threshold value t is changed stepwise. The lower part of FIG. 7 shows the state of change in the one-dimensional feature amount obtained when the threshold value t is changed stepwise.
  • the control unit 11 determines all the pixels in the image to be black because the straight line corresponding to the threshold value t1 and the graph do not intersect. Therefore, as shown in the upper part of FIG. 7, the image at the threshold value t1 is an image that is entirely filled with black.
  • the control unit 11 determines the threshold value t to be t2 in FIG. 6, the straight line corresponding to the threshold value t2 and the graph intersect in the region R2, and the value of the density of white pixels in the graph is higher than the threshold value t2 in the region R2. Is also getting bigger. Therefore, the control unit 11 determines all the pixels in the region R2 to be white. The control unit 11 determines all the pixels to be black for the pixel area other than the area R2. Therefore, as shown in the upper part of FIG. 7, the image at the threshold value t2 is an image in which a slightly white region starts to appear, but there are many black pixels as a whole.
  • the control unit 11 determines the threshold value t to be t3 in FIG. 6, the straight line corresponding to the threshold value t3 and the graph intersect in the region R3, and the value of the density of white pixels in the graph is higher than the threshold value t3 in the region R3. Is also getting bigger. Therefore, the control unit 11 determines all the pixels in the region R3 to be white. The control unit 11 determines all the pixels to be black for the pixel area other than the area R3. Therefore, as shown in the upper part of FIG. 7, the image at the threshold value t3 is an image in which white areas are further increased than the image at the threshold value t2.
  • the control unit 11 determines the threshold value t to be t4 in FIG. 6, the straight line corresponding to the threshold value t4 and the graph intersect in the region R4, and the value of the density of white pixels in the graph is higher than the threshold value t4 in the region R4. Is also getting bigger. Therefore, the control unit 11 determines all the pixels in the region R4 to be white. The control unit 11 determines all the pixels to be black for the pixel area other than the area R4. Therefore, as shown in the upper part of FIG. 7, the image at the threshold value t4 is an image in which white areas are further increased than the image at the threshold value t3.
  • the control unit 11 determines the threshold value t to be t5 in FIG. 6, the straight line corresponding to the threshold value t5 and the graph intersect in the region R5, and the value of the density of white pixels in the graph is higher than the threshold value t5 in the region R5. Is also getting bigger. Therefore, the control unit 11 determines all the pixels in the region R5 to be white. The control unit 11 determines all the pixels to be black for the pixel area other than the area R5. Therefore, as shown in the upper part of FIG. 7, the image at the threshold value t5 has a slightly black region, but has many white pixels as a whole.
  • the control unit 11 determines the threshold value t to be t6 in FIG. 6, the straight line corresponding to the threshold value t6 and the graph intersect in the region R6 as a whole, and the value of the density of white pixels in the graph is in the region R6. It is larger than the threshold value t6. Therefore, the control unit 11 determines all the pixels in the region R6 to be white. Therefore, as shown in the upper part of FIG. 7, the image at the threshold value t6 is an image that is entirely filled with white.
  • control unit 11 gradually changes the threshold value t and acquires a set of a series of images showing the change in how the white areas are connected.
  • the control unit 11 extracts the topological information including the 0-dimensional feature amount and the 1-dimensional feature amount from the acquired series of images.
  • the control unit 11 extracts a portion in which white pixels are connected as a 0-dimensional feature amount from the acquired series of images.
  • the zero-dimensional features correspond to the connected components in the set of images. For example, in an image having a threshold value t1, the number of zero-dimensional features is 0. For example, in an image having a threshold value of t6, the number of zero-dimensional features is 1.
  • the control unit 11 traces white pixels to a set of acquired series of images, and a portion in which a black pixel exists in the center thereof is a one-dimensional feature amount. Extract as.
  • the one-dimensional feature corresponds to a hole in a set of images. For example, in the images of the threshold values t1 and t6, the number of one-dimensional features is 0.
  • the connected components and holes extracted for the set of images shown in the upper part of FIG. 7 are generated and disappear with the change of the threshold value t. That is, given connected component, when to have been generated by a certain threshold tb c, it disappears with another threshold td c having a value smaller than the threshold value tb c. Similarly, if a predetermined hole is created at a certain threshold tb h , it disappears at another threshold td h having a value smaller than the threshold tb h .
  • Control unit 11 stores the set of values of thresholds tb c and td c in the storage unit 13 for each connected component. Similarly, the control unit 11 stores a set of values of the threshold values tb h and td h in the storage unit 13 for each hole.
  • step S303 in FIG. 4 the control unit 11, based on the set of values of thresholds tb c and td c stored in the storage unit 13, a distribution diagram illustrating the persistence of the characteristic amounts with respect to a zero-dimensional feature quantity Generate. Similarly, the control unit 11 generates a distribution map showing the sustainability of each feature amount for the one-dimensional feature amount based on the set of the values of the threshold values tb h and td h stored in the storage unit 13. The control unit 11 generates, for example, a distribution map showing the sustainability of each of the 0-dimensional feature amount and the 1-dimensional feature amount based on the one skin image acquired in step S201 of FIG. May be good. Not limited to this, the control unit 11 shows the sustainability of each feature amount for each of the 0-dimensional feature amount and the 1-dimensional feature amount, based on, for example, the plurality of skin images acquired in step S201 of FIG. A distribution map may be generated.
  • FIG. 8 is a distribution map showing an example of the persistence of 0-dimensional features.
  • the vertical axis represents the difference between the threshold tb c and the threshold td c. That is, the vertical axis of FIG. 8 gives a measure of sustainability of how long the zero-dimensional feature lasts with respect to the change of the threshold value t.
  • the horizontal axis shows the average value between the threshold value tb c and the threshold value td c . That is, the horizontal axis of FIG. 8 gives an indication of what value the threshold value t the 0-dimensional feature amount exists with respect to the change in the threshold value t.
  • each point can take any density value. That is, at each point, a predetermined number of 0-dimensional features overlap.
  • FIG. 9 is a distribution map showing an example of the persistence of one-dimensional features.
  • the vertical axis shows the difference between the threshold value tb h and the threshold value td h . That is, the vertical axis of FIG. 9 gives a measure of sustainability of how long the one-dimensional feature quantity lasts with respect to the change of the threshold value t.
  • the horizontal axis shows the average value between the threshold value tb h and the threshold value td h . That is, the horizontal axis of FIG. 9 gives an indication of what value the one-dimensional feature amount exists at the threshold value t with respect to the change of the threshold value t.
  • each point can take any density value. That is, at each point, a predetermined number of one-dimensional features overlap.
  • step S304 of FIG. 4 the control unit 11 extracts the feature amount vector based on the distribution map generated in step S303.
  • FIG. 10 is a schematic diagram showing an estimation model according to an embodiment based on a random forest.
  • an example of a method of extracting the feature amount vector in step S304 of FIG. 4 and a method of estimating parameters related to skin function in step S203 of FIG. 3 will be mainly described.
  • step S304 of FIG. 4 the control unit 11 defines a grid for each of the distribution map of the 0-dimensional feature amount and the 1-dimensional feature amount generated in step S303, and sets a plurality of regions G.
  • the control unit 11 calculates the number of points included in each of the set plurality of regions G for each region G.
  • the control unit 11 extracts a vector in which the calculated number of points is arranged for each region G as a feature quantity vector. At this time, the density value of each point in the distribution map of the 0-dimensional feature amount and the 1-dimensional feature amount may be taken into consideration.
  • the control unit 11 estimates the parameters related to the skin function based on the feature amount vector extracted through the flow of FIG. 4 using the estimation model constructed by the flow of FIG. More specifically, the control unit 11 estimates parameters related to skin function using a machine learning model including a random forest model. At this time, the control unit 11 may estimate parameters related to skin function based on, for example, the attributes of the subject, in addition to the feature amount vector extracted through the flow of FIG. Subject attributes may include, for example, the subject's age and gender.
  • the control unit 11 randomly selects one or more components of the feature amount vector extracted through the flow of FIG. For example, the control unit 11 associates one or more randomly selected feature vector components with the decision tree 1. For example, the control unit 11 executes the same processing on a plurality of decision trees from the decision tree 2 to the decision tree N. The control unit 11 estimates TEWL using the feature vector component associated with each decision tree as a variable. The control unit 11 averages a plurality of TEWLs estimated for each of the plurality of decision trees to estimate the final TEWL.
  • FIG. 11 is a scatter diagram showing an example of the first estimation result by the estimation device 1 of FIG.
  • the vertical axis shows the measured value of TEWL.
  • the horizontal axis shows the estimated value of TEWL.
  • Black circles show data when using skin images of adult men.
  • Adult men include men over the age of 20.
  • White circles show data when using skin images of minor boys.
  • Minor boys include boys aged 0 to 19 years.
  • White triangles show data when skin images of minor girls are used. Underage girls include girls between the ages of 0 and 19.
  • the measured value of TEWL and the estimated value show a good correspondence relationship. That is, the difference between the TEWL value estimated by the estimation device 1 and the measured value of TEWL is within a predetermined error range.
  • the coefficient of determination at this time was 0.667.
  • a strong correlation was found between the two.
  • the same analysis was performed on the water content of the skin, and as a result, a correlation was found between the two.
  • FIG. 12 is a graph showing an example of a second estimation result by the estimation device 1 of FIG.
  • the vertical axis indicates the type of variable.
  • the horizontal axis shows the importance of the variable.
  • the estimation device 1 can also present the importance of variables in the estimation result. For example, when the control unit 11 estimates parameters related to skin function based on the attributes of the subject in addition to the feature vector, the estimation device 1 uses age and gender as variables in addition to the feature vector component, and these variables are important. It is also possible to calculate the degree. In FIG. 12, it is shown that age is more important as a variable than gender in the estimation result by the estimation device 1. Although the feature vector component and the subject's attributes including age and gender are shown as variables in FIG. 12, the variables used for estimating TEWL may include any other variables. For example, the variable used to estimate TEWL may include skin moisture content.
  • the estimation device 1 it is possible to accurately estimate the parameters related to the skin function. More specifically, the estimation device 1 estimates the parameters related to the skin function using an estimation model constructed based on the past actual measurement data in which the feature quantity vector and the parameters related to the skin function are associated with each other. As a result, the estimation device 1 can accurately estimate the parameters related to the skin function by the learned estimation model. For example, the estimation device 1 can accurately estimate parameters related to skin function by a machine learning model including a random forest model learned based on acquired past actual measurement data.
  • the estimation device 1 Since the parameters related to the skin function can be accurately estimated by the estimation device 1, it is possible to accurately estimate the function of the biological tissue including the skin barrier function. Thereby, the estimation device 1 can be utilized in a wide range of fields such as medical treatment and beauty. For example, the estimation device 1 can also contribute to the diagnosis and evaluation of skin health. The estimation device 1 can also contribute to the verification of the effect on skin treatment and skin care. The estimation device 1 can also contribute to the prediction of the onset of skin diseases.
  • the conventional TEWL measurement and skin conductance measurement it is necessary to wash the test site before the measurement and perform the measurement stably in an environment of constant temperature and humidity. Further, in the conventional TEWL measurement, it is necessary to keep the test site stationary for about 10 seconds during the measurement. As described above, in the prior art, it has been difficult to measure in an environment where the temperature and humidity cannot be controlled, and to measure newborns and infants who have difficulty in keeping the test site stationary. As described above, the convenience of the measuring device using the conventional technique is low.
  • parameters related to skin function can be accurately estimated from a skin image showing irregularities on the skin surface by using a method by machine learning, so that stable measurement is performed as in the prior art. Does not need to be done. That is, the user who uses the estimation device 1 only needs to acquire a skin image showing the unevenness of the skin surface, and the environment and the test subject can be estimated without limitation.
  • the estimation device 1 can be applied to a case where a skin image is directly acquired at a medical site or a beauty-related store, or a skin image of a subject or the like at a remote location is acquired by communication or the like. It can also be applied in cases. Further, in some cases, it is possible to make an estimation without washing the test site. As described above, the estimation device 1 improves the convenience of the user in estimating the parameters related to the skin function.
  • the estimation device 1 can easily present the values of the parameters related to the skin function to the user as compared with the prior art, for example, what kind of moisturizing agent and medicine should be applied to what kind of person, etc. It can also be applied to the creation and use of guidelines that indicate the criteria for. That is, unlike the prior art, it is possible to frequently measure parameters related to skin function using the estimation device 1, so that such a guideline can be easily created and used.
  • the estimation device 1 generates a corrected image obtained by subjecting the acquired skin image to a brightness correction process and a binarization process, thereby providing extra information that may be noise and is not related to the unevenness of the skin surface. It can be removed from the acquired skin image. As a result, the estimation device 1 can estimate the parameters related to the skin function with higher accuracy.
  • the estimation device 1 can accurately separate essential information such as phase information from noise by acquiring a series of image sets in step S302 of FIG. For example, when only one image is used, it is difficult to determine which of the plurality of connected components and holes contained in the image is the essential feature and which is the noise.
  • the estimation device 1 can determine, for example, the persistence of a connected component or a hole existing in a predetermined region by acquiring a series of image sets by changing the threshold value t stepwise. The estimation device 1 can accurately separate essential information from noise based on such persistence.
  • the estimation device 1 reduces the number of required samples by extracting the feature amount vector based on the skin image and then estimating the parameters related to the skin function by the machine learning model. Can be made to. In addition, the estimation device 1 can suppress the amount of calculation. Further, the estimation device 1 facilitates interpretation of what features of the skin image are related to the parameters related to the estimated skin function.
  • step S203 of FIG. 3 the estimation device 1 estimates the parameters related to the skin function based on the attributes of the subject in addition to the feature amount vector, so that the parameters related to the skin function can be estimated more accurately according to the attributes of the subject. Is possible.
  • each step in the estimation method using the estimation device 1 described above and the functions included in each step can be rearranged so as not to be logically inconsistent, and the order of the steps can be changed or a plurality of steps can be changed. It can be combined or divided into one.
  • the present invention can also be realized as a program that describes the processing content that realizes each function of the estimation device 1 described above, or as a storage medium that records the program. It should be understood that the scope of the present invention also includes these.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Dermatology (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Physiology (AREA)
  • Multimedia (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • Debugging And Monitoring (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本発明に係る推定方法は、皮膚機能に関するパラメータを推定する推定方法であって、皮膚表面の凹凸が写っている皮膚画像を取得する画像取得ステップと、画像取得ステップにおいて取得された皮膚画像に対して、皮膚画像の位相的情報に基づく特徴量ベクトルを抽出する抽出ステップと、特徴量ベクトルと皮膚機能に関するパラメータとを関連付けた過去の実測データに基づき構築された推定モデルを用いて、抽出ステップにおいて抽出された特徴量ベクトルに基づき皮膚機能に関するパラメータを推定する推定ステップと、推定ステップにおいて推定された皮膚機能に関するパラメータを提示する提示ステップと、を含む。

Description

推定方法、推定モデルの生成方法、プログラム、及び推定装置 関連出願の相互参照
 本出願は、2019年3月20日に日本国に特許出願された特願2019-053776の優先権を主張するものであり、この出願の開示全体をここに参照のために取り込む。
 本発明は、推定方法、推定モデルの生成方法、プログラム、及び推定装置に関する。
 従来、生体組織の状態を解析するための技術が知られている。
 例えば、特許文献1には、それぞれが異なる波長の光を照射する複数のLED(Light Emitting Diode)を皮膚に対して異なる角度で配置して、測定された反射率スペクトルから良性組織と悪性組織との区別を支援するための光学伝達診断装置の作動方法が開示されている。当該光学伝達診断装置の作動方法は、生体組織の形態学的パラメータ及び生理学的特性のいくつかを決定するための光学的方法に関し、特に、良性及び悪性の組織病変の形態学的パラメータ及び生理学的特性を決定するための方法を対象とする。
 例えば、特許文献2には、皮膚表面の皮溝の形状に基づいて、皮膚表面の状態を解析する肌状態解析方法が開示されている。当該肌状態解析方法では、皮膚表面の皮溝の三次元的形状データである複数の光学的断面像が共焦点顕微鏡を用いて取得され、皮膚表面の状態が評価される。
 例えば、近年、アトピー性皮膚炎の発症機序において、フィラグリン遺伝子異常等による皮膚バリア機能障害が注目されている。皮膚バリア機能の指標の一例として、経表皮水分蒸散量(Transepidermal water loss:TEWL)が主に用いられている。例えば、皮膚バリア機能の働きが高い場合、TEWLは低い。逆に、皮膚バリア機能の働きが低い場合、TEWLは高い。
特許第6035268号公報 特許第6058902号公報
 特許文献1及び特許文献2に記載の従来技術では、生体組織の状態を解析する点については考慮されているが、生体組織の状態ではなく、皮膚バリア機能等を含む生体組織の機能については考慮されていなかった。したがって、これらの従来技術では、生体組織の機能を推定する点については考慮されていなかった。一方で、TEWL等を含む皮膚機能に関するパラメータを精度良く推定して皮膚バリア機能等を含む生体組織の機能の働きを精度良く推定したいという要求があった。
 このような問題点に鑑みてなされた本発明の目的は、皮膚機能に関するパラメータを精度良く推定可能な推定方法、推定モデルの生成方法、プログラム、及び推定装置を提供することにある。
 上記課題を解決するために、本発明の一実施形態に係る推定方法は、
 皮膚機能に関するパラメータを推定する推定方法であって、
 皮膚表面の凹凸が写っている皮膚画像を取得する画像取得ステップと、
 前記画像取得ステップにおいて取得された前記皮膚画像に対して、前記皮膚画像の位相的情報に基づく特徴量ベクトルを抽出する抽出ステップと、
 前記特徴量ベクトルと前記皮膚機能に関するパラメータとを関連付けた過去の実測データに基づき構築された推定モデルを用いて、前記抽出ステップにおいて抽出された前記特徴量ベクトルに基づき前記皮膚機能に関するパラメータを推定する推定ステップと、
 前記推定ステップにおいて推定された前記皮膚機能に関するパラメータを提示する提示ステップと、
 を含む。
 上記課題を解決するために、本発明の一実施形態に係る推定モデルの生成方法は、
 上記の推定方法に用いられる前記推定モデルの生成方法であって、
 前記特徴量ベクトルと前記皮膚機能に関するパラメータとを関連付けた過去の実測データを取得する取得ステップと、
 該取得ステップにおいて取得された前記過去の実測データに基づいて、前記特徴量ベクトルに基づき前記皮膚機能に関するパラメータを推定する前記推定モデルを構築する構築ステップと、
 を含む。
 上記課題を解決するために、本発明の一実施形態に係るプログラムは、
 上記の推定方法又は上記の推定モデルの生成方法を情報処理装置に実行させる。
 上記課題を解決するために、本発明の一実施形態に係る推定装置は、
 皮膚機能に関するパラメータを推定する推定装置であって、
 皮膚表面の凹凸が写っている皮膚画像を取得する画像取得部と、
 前記画像取得部により取得された前記皮膚画像に対して、前記皮膚画像の位相的情報に基づく特徴量ベクトルを抽出し、前記特徴量ベクトルと前記皮膚機能に関するパラメータとを関連付けた過去の実測データに基づき構築された推定モデルを用いて、抽出された前記特徴量ベクトルに基づき前記皮膚機能に関するパラメータを推定する制御部と、
 前記制御部により推定された前記皮膚機能に関するパラメータを提示する提示部と、
 を備える。
 本発明の一実施形態に係る推定方法、推定モデルの生成方法、プログラム、及び推定装置によれば、皮膚機能に関するパラメータを精度良く推定可能である。
本発明の一実施形態に係る推定装置の概略構成を示すブロック図である。 図1の推定装置による第1の動作の例を示すフローチャートである。 図1の推定装置による第2の動作の例を示すフローチャートである。 図1の推定装置による第3の動作の例を示すフローチャートである。 図4のステップS301において生成された補正画像の一例を示す模式図である。 図4のステップS302において位相的情報を取得するための方法の一例を示す模式図である。 閾値を段階的に変化させたときの画像及び位相的情報の変化の例を示す模式図である。 0次元特徴量の持続性の一例を示す分布図である。 1次元特徴量の持続性の一例を示す分布図である。 ランダムフォレストに基づく一実施形態に係る推定モデルを示す模式図である。 図1の推定装置による第1の推定結果の例を示す散布図である。 図1の推定装置による第2の推定結果の例を示すグラフ図である。
 以下、添付図面を参照しながら、本発明の一実施形態について詳細に説明する。
 図1は、本発明の一実施形態に係る推定装置1の概略構成を示すブロック図である。図1を参照しながら、本発明の一実施形態に係る推定装置1の構成及び機能について主に説明する。
 一実施形態の概要として、推定装置1は、皮膚表面の凹凸が写っている皮膚画像を取得する。推定装置1は、取得された皮膚画像に対して、皮膚画像の位相的情報に基づく特徴量ベクトルを抽出する。推定装置1は、特徴量ベクトルと皮膚機能に関するパラメータとを関連付けた過去の実測データに基づき構築された推定モデルを用いて、抽出された特徴量ベクトルに基づき皮膚機能に関するパラメータを推定する。推定装置1は、推定された皮膚機能に関するパラメータを提示する。皮膚機能に関するパラメータは、例えばTEWLを含む。これに限定されず、皮膚機能に関するパラメータは、皮膚バリア機能等を含む生体組織の機能に関連付けられる任意の指標を含んでもよい。例えば、皮膚機能に関するパラメータは、皮膚の水分量を含んでもよい。
 推定装置1は、例えば、人の皮膚表面の凹凸が写っている皮膚画像に基づいて皮膚機能に関するパラメータを推定する電子機器である。例えば、推定装置1は、専用の電子機器であってもよいし、スマートフォン、PC(Personal Computer)、及びサーバ装置等の任意の汎用の電子機器であってもよい。例えば、推定装置1は、それ自体が人の皮膚表面を撮像して皮膚画像を取得し、当該皮膚画像に基づいて皮膚機能に関するパラメータを推定してもよい。これに限定されず、例えば、推定装置1は、他の撮像装置等によって撮像された人の皮膚表面の皮膚画像を通信等の任意の手段によって当該他の撮像装置等から取得し、取得された当該皮膚画像に基づいて皮膚機能に関するパラメータを推定してもよい。
 図1に示すとおり、推定装置1は、制御部11と、通信部12と、記憶部13と、画像取得部14と、データ取得部15と、提示部16と、を有する。
 制御部11は、1つ以上のプロセッサを含む。一実施形態において「プロセッサ」は、汎用のプロセッサ、又は特定の処理に特化した専用のプロセッサであるが、これらに限定されない。制御部11は、推定装置1を構成する各構成部と通信可能に接続され、推定装置1全体の動作を制御する。
 一実施形態では、例えば、制御部11は、通信部12を制御して、推定装置1による推定結果を他の任意の情報処理装置に送信してもよい。例えば、制御部11は、記憶部13を制御して、推定装置1による推定結果及び取得された皮膚画像を記憶してもよい。例えば、制御部11は、画像取得部14を制御して、皮膚表面の凹凸が写っている皮膚画像を取得してもよい。例えば、制御部11は、データ取得部15を制御して、特徴量ベクトルと皮膚機能に関するパラメータとを関連付けた過去の実測データを取得してもよい。例えば、制御部11は、提示部16を制御して、推定装置1による推定結果をユーザに提示してもよい。
 通信部12は、移動体通信網及びインターネット等を含むネットワークに接続する通信モジュールを含む。例えば、通信部12は、4G(4th Generation)及び5G(5th Generation)等の移動体通信規格に対応する通信モジュールを含んでもよい。例えば、通信部12は、有線LAN(Local Area Network)規格に対応する通信モジュールを含んでもよい。
 記憶部13は、1つ以上のメモリを含む。一実施形態において「メモリ」は、例えば半導体メモリ、磁気メモリ、又は光メモリ等であるが、これらに限定されない。記憶部13に含まれる各メモリは、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部13は、推定装置1の動作に用いられる任意の情報を記憶する。例えば、記憶部13は、システムプログラム、アプリケーションプログラム、推定装置1によって取得された各種情報、及び推定装置1による推定結果等を記憶してもよい。記憶部13に記憶された情報は、例えば通信部12を介してネットワークから取得される情報で更新可能であってもよい。
 画像取得部14は、例えばカメラ等の任意の撮像装置を含む。画像取得部14は、例えば、画像取得部14自体が有する撮像装置を用いた撮像によって、皮膚表面の凹凸が写っている皮膚画像を取得してもよい。これに限定されず、画像取得部14は、任意の方法で、皮膚表面の凹凸が写っている皮膚画像を取得してもよい。例えば、画像取得部14は、他の撮像装置等によって撮像された皮膚表面の皮膚画像を通信等の任意の手段によって当該他の撮像装置等から取得してもよい。
 データ取得部15は、例えば、特徴量ベクトルと皮膚機能に関するパラメータとを関連付けた過去の実測データを取得可能な、任意のインタフェースを含む。例えば、データ取得部15は、ユーザによる入力操作を受け付け可能な任意の入力インタフェースを含み、ユーザによる入力に基づいて実測データを取得してもよい。例えば、データ取得部15は、任意の通信インタフェースを含み、任意の通信プロトコルによって外部装置等から実測データを取得してもよい。
 提示部16は、例えば画像を出力する任意の出力インタフェースを含む。提示部16は、例えば液晶ディスプレイ及び有機EL(Electro Luminescence)ディスプレイ等の任意のディスプレイを含む。提示部16は、推定装置1による推定結果をユーザ等に提示する。例えば、提示部16は、推定装置1の制御部11により推定された皮膚機能に関するパラメータを提示する。
 図2は、図1の推定装置1による第1の動作の例を示すフローチャートである。図2は、推定装置1が過去の実測データに基づいて推定モデルを生成するフローを示す。すなわち、図2は、推定装置1を用いた後述する推定方法に用いられる推定モデルの生成方法を示す。
 ステップS101では、推定装置1の制御部11は、データ取得部15を用いて、特徴量ベクトルと皮膚機能に関するパラメータとを関連付けた過去の実測データを取得する。
 ステップS102では、制御部11は、ステップS101において取得された過去の実測データに基づいて、特徴量ベクトルに基づき皮膚機能に関するパラメータを推定する推定モデルを構築する。
 推定モデルは、例えば、ステップS101において取得された過去の実測データに基づき学習されたランダムフォレストモデルを含む機械学習モデルであってもよい。これに限定されず、推定モデルは、ニューラルネットワーク、局所回帰モデル、及びカーネル回帰モデル等を含む任意の機械学習モデルであってもよい。
 図3は、図1の推定装置1による第2の動作の例を示すフローチャートである。図3は、図2のフローによって構築された推定モデルを用いて推定装置1が皮膚機能に関するパラメータを推定するフローを主に示す。すなわち、図3は、推定装置1を用いた皮膚機能に関するパラメータを推定する推定方法を示す。
 ステップS201では、推定装置1の制御部11は、画像取得部14を用いて、皮膚表面の凹凸が写っている皮膚画像を取得する。
 ステップS202では、制御部11は、ステップS201において取得された皮膚画像に対して、皮膚画像の位相的情報に基づく特徴量ベクトルを抽出する。なお、図4において後述するようにステップS202はさらに詳細なフローを含むため、図3においてステップS202のボックスを二重線で示している。
 ステップS203では、制御部11は、図2のフローによって構築された推定モデルを用いて、ステップS202において抽出された特徴量ベクトルに基づき皮膚機能に関するパラメータを推定する。
 ステップS204では、制御部11は、提示部16を用いて、ステップS203において推定された皮膚機能に関するパラメータを提示する。
 図4は、図1の推定装置1による第3の動作の例を示すフローチャートである。図4は、図3のステップS202におけるフローをより詳細に示したものである。図4を参照しながら、取得された皮膚画像に基づいて推定装置1の制御部11が特徴量ベクトルを抽出するまでのフローをより詳細に説明する。
 ステップS301では、推定装置1の制御部11は、図3のステップS201において取得された皮膚画像に対して明るさの補正処理及び二値化処理を施した補正画像を生成する。図5は、図4のステップS301において生成された補正画像の一例を示す模式図である。
 制御部11は、例えばウェーブレット変換を用いて、所定の周波数領域における情報のみが含まれている図5のような補正画像を生成する。制御部11は、このような補正画像を生成することで、皮膚表面の凹凸とは関係ない、ノイズとなり得る余分な情報を図3のステップS201において取得された皮膚画像から除去する。
 図4のステップS302では、制御部11は、ステップS301において生成された補正画像に基づき抽出された0次元特徴量及び1次元特徴量に関する情報を取得する。このような0次元特徴量及び1次元特徴量に関する情報は、上述した位相的情報を構成する。図6は、図4のステップS302において位相的情報を取得するための方法の一例を示す模式図である。図6を参照しながら、ステップS301において生成された補正画像に基づいて制御部11が0次元特徴量及び1次元特徴量を抽出する方法を主に説明する。
 制御部11は、ステップS301において生成された補正画像に対して白いピクセルの密度推定を実行し、ピクセル領域に対する白いピクセルの密度を地形図のように表す画像を生成する。例えば、このような画像において、白いピクセルの密度変化は、白いピクセルの密度が大きいピクセル領域では山として表わされ、黒いピクセルの密度が大きいピクセル領域では谷として表わされる。
 図6は、このような画像において、ピクセルの所定の列に沿った白いピクセルの密度変化を一次元的に示す模式図である。図6において、縦軸は白いピクセルの密度を示す。横軸は、ピクセル位置を示す。
 制御部11は、例えば、図6のような白いピクセルの密度変化を示すグラフに対して、白いピクセルの密度の閾値tを変化させる。制御部11は、例えば、図6において破線で示すような閾値tに対応する直線とグラフとが交わる場合であって、グラフにおける白いピクセルの密度の値が閾値tよりも大きくなるようなピクセル領域については、全てのピクセルを白に決定する。例えば、制御部11は、それ以外のピクセル領域については、全てのピクセルを黒に決定する。
 図7は、閾値tを段階的に変化させたときの画像及び位相的情報の変化の例を示す模式図である。より具体的には、図7の上段における一連の画像の組は、閾値tを段階的に変化させたときに得られる、白い領域のつながり方の変化の様子を示す。図7の中段は、閾値tを段階的に変化させたときに得られる0次元特徴量の変化の様子を示す。図7の下段は、閾値tを段階的に変化させたときに得られる1次元特徴量の変化の様子を示す。
 例えば、制御部11は、閾値tを図6におけるt1に決定した場合、閾値t1に対応する直線とグラフとは交わっていないので、画像における全てのピクセルを黒に決定する。したがって、図7の上段に示すとおり、閾値t1における画像は、全体が黒く塗りつぶされたような画像となる。
 例えば、制御部11が閾値tを図6におけるt2に決定した場合、閾値t2に対応する直線とグラフとは領域R2において交わっており、グラフにおける白いピクセルの密度の値が領域R2において閾値t2よりも大きくなっている。したがって、制御部11は、領域R2における全てのピクセルを白に決定する。制御部11は、領域R2以外のピクセル領域については、全てのピクセルを黒に決定する。したがって、図7の上段に示すとおり、閾値t2における画像は、わずかに白い領域が現れ始めるが、全体的に黒いピクセルが多いような画像となる。
 例えば、制御部11が閾値tを図6におけるt3に決定した場合、閾値t3に対応する直線とグラフとは領域R3において交わっており、グラフにおける白いピクセルの密度の値が領域R3において閾値t3よりも大きくなっている。したがって、制御部11は、領域R3における全てのピクセルを白に決定する。制御部11は、領域R3以外のピクセル領域については、全てのピクセルを黒に決定する。したがって、図7の上段に示すとおり、閾値t3における画像は、閾値t2における画像よりもさらに白い領域が増えたような画像となる。
 例えば、制御部11が閾値tを図6におけるt4に決定した場合、閾値t4に対応する直線とグラフとは領域R4において交わっており、グラフにおける白いピクセルの密度の値が領域R4において閾値t4よりも大きくなっている。したがって、制御部11は、領域R4における全てのピクセルを白に決定する。制御部11は、領域R4以外のピクセル領域については、全てのピクセルを黒に決定する。したがって、図7の上段に示すとおり、閾値t4における画像は、閾値t3における画像よりもさらに白い領域が増えたような画像となる。
 例えば、制御部11が閾値tを図6におけるt5に決定した場合、閾値t5に対応する直線とグラフとは領域R5において交わっており、グラフにおける白いピクセルの密度の値が領域R5において閾値t5よりも大きくなっている。したがって、制御部11は、領域R5における全てのピクセルを白に決定する。制御部11は、領域R5以外のピクセル領域については、全てのピクセルを黒に決定する。したがって、図7の上段に示すとおり、閾値t5における画像は、わずかに黒い領域が残っているが、全体的に白いピクセルが多いような画像となる。
 例えば、制御部11が閾値tを図6におけるt6に決定した場合、閾値t6に対応する直線とグラフとは領域R6において全体的に交わっており、グラフにおける白いピクセルの密度の値が領域R6において閾値t6よりも大きくなっている。したがって、制御部11は、領域R6における全てのピクセルを白に決定する。したがって、図7の上段に示すとおり、閾値t6における画像は、全体が白く塗りつぶされたような画像となる。
 以上のように、制御部11は、閾値tを徐々に変化させ、白い領域のつながり方の変化を示す一連の画像の組を取得する。制御部11は、取得された一連の画像の組に対して、0次元特徴量及び1次元特徴量を含む位相的情報を抽出する。
 例えば、図7の中段に示すとおり、制御部11は、取得された一連の画像の組に対して、白いピクセルが連結している部分を0次元特徴量として抽出する。このように、0次元特徴量は、一連の画像の組における連結成分に対応する。例えば、閾値t1の画像において、0次元特徴量の数は0である。例えば、閾値t6の画像において、0次元特徴量の数は1である。
 例えば、図7の下段に示すとおり、制御部11は、取得された一連の画像の組に対して、白いピクセルをたどって、その中央部に黒いピクセルが存在するような部分を1次元特徴量として抽出する。このように、1次元特徴量は、一連の画像の組における穴に対応する。例えば、閾値t1及びt6の画像において、1次元特徴量の数は0である。
 図7の上段に示す一連の画像の組に対して抽出された連結成分及び穴は、閾値tの変化と共に生成され、消滅する。すなわち、所定の連結成分は、ある閾値tbcで生成されたとすると、閾値tbcよりも小さい値を有する他の閾値tdcで消滅する。同様に、所定の穴は、ある閾値tbhで生成されたとすると、閾値tbhよりも小さい値を有する他の閾値tdhで消滅する。
 制御部11は、各連結成分について閾値tbc及びtdcの値の組を記憶部13に記憶させる。同様に、制御部11は、各穴について閾値tbh及びtdhの値の組を記憶部13に記憶させる。
 図4のステップS303では、制御部11は、記憶部13に記憶された閾値tbc及びtdcの値の組に基づき、各特徴量の持続性を示す分布図を0次元特徴量に対して生成する。同様に、制御部11は、記憶部13に記憶された閾値tbh及びtdhの値の組に基づき、各特徴量の持続性を示す分布図を1次元特徴量に対して生成する。制御部11は、例えば図3のステップS201において取得された1つの皮膚画像に基づき、0次元特徴量及び1次元特徴量のそれぞれに対して各特徴量の持続性を示す分布図を生成してもよい。これに限定されず、制御部11は、例えば図3のステップS201において取得された複数の皮膚画像に基づき、0次元特徴量及び1次元特徴量のそれぞれに対して各特徴量の持続性を示す分布図を生成してもよい。
 図8は、0次元特徴量の持続性の一例を示す分布図である。図8において、縦軸は閾値tbcと閾値tdcとの差を示す。すなわち、図8の縦軸は、閾値tの変化に対して0次元特徴量がどの程度持続するかという持続性の尺度を与える。図8において、横軸は閾値tbcと閾値tdcとの間の平均値を示す。すなわち、図8の横軸は、閾値tの変化に対して0次元特徴量がどのような値の閾値tで存在するかの目安を与える。図8の分布図において、簡便な図示を目的として全ての点が同一の態様で描かれているが、各点において0次元特徴量の密度の値が異なっている。例えば、各点は、任意の密度値をとりうる。すなわち、各点において、所定の数の0次元特徴量が重なっている。
 図9は、1次元特徴量の持続性の一例を示す分布図である。図9において、縦軸は閾値tbhと閾値tdhとの差を示す。すなわち、図9の縦軸は、閾値tの変化に対して1次元特徴量がどの程度持続するかという持続性の尺度を与える。図9において、横軸は閾値tbhと閾値tdhとの間の平均値を示す。すなわち、図9の横軸は、閾値tの変化に対して1次元特徴量がどのような値の閾値tで存在するかの目安を与える。図9の分布図において、簡便な図示を目的として全ての点が同一の態様で描かれているが、各点において1次元特徴量の密度の値が異なっている。例えば、各点は、任意の密度値をとりうる。すなわち、各点において、所定の数の1次元特徴量が重なっている。
 図4のステップS304では、制御部11は、ステップS303で生成された分布図に基づいて特徴量ベクトルを抽出する。
 図10は、ランダムフォレストに基づく一実施形態に係る推定モデルを示す模式図である。図10を参照しながら、図4のステップS304における特徴量ベクトルの抽出方法及び図3のステップS203における皮膚機能に関するパラメータの推定方法の一例について主に説明する。
 図4のステップS304において、制御部11は、ステップS303で生成された0次元特徴量及び1次元特徴量の分布図のそれぞれに対してグリッドを定め、複数の領域Gを設定する。制御部11は、設定された複数の領域Gのそれぞれに含まれる点の数を領域Gごとに算出する。制御部11は、算出された点の数を領域Gごとに配列したベクトルを特徴量ベクトルとして抽出する。このとき、0次元特徴量及び1次元特徴量の分布図における各点の密度値が考慮されてもよい。
 制御部11は、図2のフローによって構築された推定モデルを用いて、図4のフローを経て抽出された特徴量ベクトルに基づき皮膚機能に関するパラメータを推定する。より具体的には、制御部11は、ランダムフォレストモデルを含む機械学習モデルを用いて皮膚機能に関するパラメータを推定する。このとき、制御部11は、図4のフローを経て抽出された特徴量ベクトルに加えて、例えば被験者の属性に基づき皮膚機能に関するパラメータを推定してもよい。被験者の属性は、例えば被験者の年齢及び性別を含んでもよい。
 図10に示すとおり、例えば、制御部11は、図4のフローを経て抽出された特徴量ベクトルの1つ以上の成分をランダムに選択する。例えば、制御部11は、ランダムに選択された1つ以上の特徴量ベクトル成分と決定木1とを関連付ける。例えば、制御部11は、同様の処理を、決定木2から決定木Nまでの複数の決定木に対して実行する。制御部11は、各決定木に関連付けられている特徴量ベクトル成分を変数として用いてTEWLを推定する。制御部11は、複数の決定木に対してそれぞれ推定された複数のTEWLを平均化して、最終的なTEWLを推定する。
 図11は、図1の推定装置1による第1の推定結果の例を示す散布図である。図11において、縦軸はTEWLの実測値を示す。横軸はTEWLの推定値を示す。黒丸は、成人男性の皮膚画像を用いたときのデータを示す。成人男性は、20歳以上の男性を含む。白丸は、未成年男子の皮膚画像を用いたときのデータを示す。未成年男子は、0歳から19歳までの男子を含む。白三角は、未成年女子の皮膚画像を用いたときのデータを示す。未成年女子は、0歳から19歳までの女子を含む。
 図11に示すとおり、推定装置1による推定結果において、TEWLの実測値と推定値とは、良好な対応関係を示している。すなわち、推定装置1を用いて推定されたTEWLの値と、TEWLの実測値との差分が所定の誤差の範囲内におさまっている。このときの決定係数は、0.667であった。加えて、皮膚のバリア機能を反映していると考えられているTEWLとの回帰分析を行った結果、両者に強い相関が認められた。皮膚機能に関するパラメータの他の例として皮膚の水分量についても同様の分析を行った結果、両者にも相関が認められた。
 図12は、図1の推定装置1による第2の推定結果の例を示すグラフ図である。図12において、縦軸は変数の種類を示す。横軸は変数の重要度を示す。
 推定装置1は、推定結果において、変数の重要性を提示することも可能である。例えば、特徴量ベクトルに加えて被験者の属性に基づき皮膚機能に関するパラメータを制御部11が推定する場合、推定装置1は、特徴量ベクトル成分に加えて年齢及び性別を変数として、これらの変数の重要度を算出することも可能である。図12では、推定装置1による推定結果において、性別よりも年齢の方が変数としてより重要であることが示されている。なお、図12では、特徴量ベクトル成分、並びに年齢及び性別を含む被験者の属性が変数として示されているが、TEWLを推定するために用いられる変数は、他の任意の変数を含んでもよい。例えば、TEWLを推定するために用いられる変数は、皮膚の水分量を含んでもよい。
 以上のような一実施形態に係る推定装置1によれば、皮膚機能に関するパラメータを精度良く推定可能である。より具体的には、推定装置1は、特徴量ベクトルと皮膚機能に関するパラメータとを関連付けた過去の実測データに基づき構築された推定モデルを用いて皮膚機能に関するパラメータを推定する。これにより、推定装置1は、学習済みの推定モデルにより皮膚機能に関するパラメータを精度良く推定することが可能となる。例えば、推定装置1は、取得された過去の実測データに基づき学習されたランダムフォレストモデルを含む機械学習モデルにより皮膚機能に関するパラメータを精度良く推定することが可能となる。
 推定装置1によって皮膚機能に関するパラメータが精度良く推定可能であることで、皮膚バリア機能等を含む生体組織の機能の働きを精度良く推定することが可能となる。これにより、推定装置1は、例えば医療及び美容等の広範な分野で活用することができる。例えば、推定装置1は、皮膚の健全性の診断及び評価に寄与することもできる。推定装置1は、皮膚の治療及びスキンケアに対する効果の検証に寄与することもできる。推定装置1は、皮膚疾患の発症予測に寄与することもできる。
 例えば、従来のTEWL測定及び皮膚コンダクタンス測定等では、測定前の被験部位を洗浄して、恒温恒湿度の環境下で安定して測定が行われる必要があった。また、従来のTEWL測定では、測定中は10秒程度、被験部位を静止させる必要もあった。以上により、従来技術では、温度及び湿度を制御することができないような環境下での測定、並びに被験部位を静止させることが困難である新生児及び乳幼児等に対する測定は困難であった。このように、従来技術を用いた測定装置の利便性は低かった。
 一実施形態に係る推定装置1では、機械学習による手法を用いて、皮膚表面の凹凸が写っている皮膚画像から皮膚機能に関するパラメータが精度良く推定可能であるので、従来技術のように安定した測定が行われる必要はない。すなわち、推定装置1を用いるユーザは皮膚表面の凹凸が写っている皮膚画像を取得すればよく、環境及び被験対象者が限定されない推定が可能となる。例えば、推定装置1は、医療現場及び美容関連の店舗等で皮膚画像を直接取得するような場合にも応用可能であるし、遠隔地にいる被験者等の皮膚画像を通信等により取得するような場合にも応用可能である。さらに、場合によっては被験部位を洗浄せずに推定を行うことも可能となる。以上のように、推定装置1は、皮膚機能に関するパラメータの推定におけるユーザの利便性を向上させる。
 推定装置1は、従来技術と比較して皮膚機能に関するパラメータの値をユーザに容易に提示することができるので、例えばどのような人にどのような保湿剤及び薬等を適用すればよいか等の基準を示すガイドラインの作成及び利用にも応用可能である。すなわち、従来技術と異なり、推定装置1を用いて皮膚機能に関するパラメータを頻繁に測定することが可能となるので、このようなガイドラインの作成及び利用が容易となる。
 推定装置1は、取得された皮膚画像に対して明るさの補正処理及び二値化処理を施した補正画像を生成することで、皮膚表面の凹凸とは関係ない、ノイズとなり得る余分な情報を取得された皮膚画像から除去することができる。これにより、推定装置1は、皮膚機能に関するパラメータをより精度良く推定することが可能となる。
 推定装置1は、図4のステップS302において一連の画像の組を取得することで、位相的情報等の本質的な情報とノイズとを正確に分離させることができる。例えば、1つの画像のみを用いた場合、その画像の中に含まれている複数の連結成分及び穴のうちどれが本質的な特徴でどれがノイズであるのかを決定することは困難である。推定装置1は、閾値tを段階的に変化させて一連の画像の組を取得することで、例えば所定の領域に存在している連結成分又は穴の持続性を決定することができる。推定装置1は、このような持続性に基づいて、本質的な情報とノイズとを正確に分離させることができる。
 推定装置1は、図3のステップS202のように、皮膚画像に基づいて特徴量ベクトルを抽出してから機械学習モデルにより皮膚機能に関するパラメータを推定することで、必要とされるサンプルの数を低減させることができる。加えて、推定装置1は、計算量を抑制可能である。さらに、推定装置1は、皮膚画像のどのような特徴が推定される皮膚機能に関するパラメータに関連しているのか等の解釈を容易とする。
 推定装置1は、図3のステップS203において、特徴量ベクトルに加えて被験者の属性に基づき皮膚機能に関するパラメータを推定することで、皮膚機能に関するパラメータを被験者の属性に合わせてより精度良く推定することが可能となる。
 本発明は、その精神又はその本質的な特徴から離れることなく、上述した実施形態以外の他の所定の形態で実現できることは当業者にとって明白である。したがって、先の記述は例示的であり、これに限定されない。発明の範囲は、先の記述によってではなく、付加した請求項によって定義される。あらゆる変更のうちその均等の範囲内にあるいくつかの変更は、その中に包含されるとする。
 例えば、上述した推定装置1を用いた推定方法における各ステップ及び各ステップに含まれる機能等は、論理的に矛盾しないように再配置可能であり、ステップの順序を変更したり、複数のステップを1つに組み合わせたり、又は分割したりすることが可能である。
 例えば、本発明は、上述した推定装置1の各機能を実現する処理内容を記述したプログラム又はプログラムを記録した記憶媒体としても実現し得る。本発明の範囲には、これらも包含されると理解されたい。
1   推定装置
11  制御部
12  通信部
13  記憶部
14  画像取得部
15  データ取得部
16  提示部
G、R2、R3、R4、R5、R6 領域
t、t1、t2、t3、t4、t5、t6、tbc、tdc、tbh、tdh 閾値

Claims (11)

  1.  皮膚機能に関するパラメータを推定する推定方法であって、
     皮膚表面の凹凸が写っている皮膚画像を取得する画像取得ステップと、
     前記画像取得ステップにおいて取得された前記皮膚画像に対して、前記皮膚画像の位相的情報に基づく特徴量ベクトルを抽出する抽出ステップと、
     前記特徴量ベクトルと前記皮膚機能に関するパラメータとを関連付けた過去の実測データに基づき構築された推定モデルを用いて、前記抽出ステップにおいて抽出された前記特徴量ベクトルに基づき前記皮膚機能に関するパラメータを推定する推定ステップと、
     前記推定ステップにおいて推定された前記皮膚機能に関するパラメータを提示する提示ステップと、
     を含む、
     推定方法。
  2.  前記抽出ステップにおいて、取得された前記皮膚画像に対して明るさの補正処理及び二値化処理を施した補正画像が生成される、
     請求項1に記載の推定方法。
  3.  前記位相的情報は、生成された前記補正画像に基づいて抽出された0次元特徴量及び1次元特徴量に関する情報を含む、
     請求項2に記載の推定方法。
  4.  前記抽出ステップにおいて、前記0次元特徴量及び前記1次元特徴量のそれぞれに対して、各特徴量の持続性を示す分布図が生成され、生成された前記分布図に基づいて前記特徴量ベクトルが抽出される、
     請求項3に記載の推定方法。
  5.  前記推定ステップにおいて、被験者の属性に基づき前記皮膚機能に関するパラメータが推定される、
     請求項1乃至4のいずれか1項に記載の推定方法。
  6.  前記皮膚機能に関するパラメータは、経表皮水分蒸散量を含む、
     請求項1乃至5のいずれか1項に記載の推定方法。
  7.  前記皮膚機能に関するパラメータは、皮膚の水分量を含む、
     請求項1乃至5のいずれか1項に記載の推定方法。
  8.  請求項1乃至7のいずれか1項に記載の推定方法に用いられる前記推定モデルの生成方法であって、
     前記特徴量ベクトルと前記皮膚機能に関するパラメータとを関連付けた過去の実測データを取得する取得ステップと、
     該取得ステップにおいて取得された前記過去の実測データに基づいて、前記特徴量ベクトルに基づき前記皮膚機能に関するパラメータを推定する前記推定モデルを構築する構築ステップと、
     を含む、
     推定モデルの生成方法。
  9.  前記推定モデルは、前記取得ステップにおいて取得された前記過去の実測データに基づき学習されたランダムフォレストモデルを含む機械学習モデルである、
     請求項8に記載の推定モデルの生成方法。
  10.  請求項1乃至7のいずれか1項に記載の推定方法又は請求項8若しくは9に記載の推定モデルの生成方法を情報処理装置に実行させるプログラム。
  11.  皮膚機能に関するパラメータを推定する推定装置であって、
     皮膚表面の凹凸が写っている皮膚画像を取得する画像取得部と、
     前記画像取得部により取得された前記皮膚画像に対して、前記皮膚画像の位相的情報に基づく特徴量ベクトルを抽出し、前記特徴量ベクトルと前記皮膚機能に関するパラメータとを関連付けた過去の実測データに基づき構築された推定モデルを用いて、抽出された前記特徴量ベクトルに基づき前記皮膚機能に関するパラメータを推定する制御部と、
     前記制御部により推定された前記皮膚機能に関するパラメータを提示する提示部と、
     を備える、
     推定装置。
PCT/JP2020/012249 2019-03-20 2020-03-19 推定方法、推定モデルの生成方法、プログラム、及び推定装置 WO2020189754A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/593,346 US11534105B2 (en) 2019-03-20 2020-03-19 Estimation method, estimation model generation method, program, and estimation device
JP2021507415A JP6983357B2 (ja) 2019-03-20 2020-03-19 推定方法、推定モデルの生成方法、プログラム、及び推定装置
KR1020217028038A KR102411108B1 (ko) 2019-03-20 2020-03-19 추정 방법, 추정 모델의 생성 방법, 프로그램, 및 추정 장치
CN202080020708.7A CN113574564B (zh) 2019-03-20 2020-03-19 推测方法、推测模型的生成方法、程序和推测装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019053776 2019-03-20
JP2019-053776 2019-03-20

Publications (1)

Publication Number Publication Date
WO2020189754A1 true WO2020189754A1 (ja) 2020-09-24

Family

ID=72519107

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/012249 WO2020189754A1 (ja) 2019-03-20 2020-03-19 推定方法、推定モデルの生成方法、プログラム、及び推定装置

Country Status (6)

Country Link
US (1) US11534105B2 (ja)
JP (1) JP6983357B2 (ja)
KR (1) KR102411108B1 (ja)
CN (1) CN113574564B (ja)
TW (1) TWI770480B (ja)
WO (1) WO2020189754A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7348448B1 (ja) 2022-06-01 2023-09-21 株式会社 サティス製薬 Ai肌水分量解析方法、装置、またはシステムおよび学習済みai肌水分量解析モデル

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012519894A (ja) * 2009-03-06 2012-08-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 少なくとも1の生物体の画像の処理
US20180035941A1 (en) * 2016-08-04 2018-02-08 Samsung Electronics Co., Ltd. Apparatus and method for estimating skin condition

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6035268B2 (ja) 1976-04-06 1985-08-13 松下電器産業株式会社 布の貼着け方法
JPS6058902B2 (ja) 1980-06-16 1985-12-23 セイコーエプソン株式会社 液晶性エステル化合物
JP4808975B2 (ja) 2005-02-15 2011-11-02 株式会社 資生堂 肌の凹凸状態を評価・模擬するシミュレーション装置及びシミュレーション方法
US9823189B2 (en) 2008-03-18 2017-11-21 Balter, As. Optical method for determining morphological parameters and physiological properties of tissue
JP5733570B2 (ja) * 2011-05-23 2015-06-10 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および、記録媒体
JP5794889B2 (ja) 2011-10-25 2015-10-14 富士フイルム株式会社 シミ種別分類装置の作動方法、シミ種別分類装置およびシミ種別分類プログラム
JP6058902B2 (ja) 2012-03-13 2017-01-11 株式会社 資生堂 肌状態解析方法、肌状態解析装置、及び、肌状態解析システム、並びに、該肌状態解析方法を実行させるためのプログラム、及び、該プログラムを記録した記録媒体
WO2014027522A1 (ja) * 2012-08-17 2014-02-20 ソニー株式会社 画像処理装置、画像処理方法、プログラムおよび画像処理システム
US9256963B2 (en) 2013-04-09 2016-02-09 Elc Management Llc Skin diagnostic and image processing systems, apparatus and articles
US10667744B2 (en) * 2013-06-28 2020-06-02 Panasonic Intellectual Property Corporation Of America Skin function evaluation device and skin evaluation method
CN104887183B (zh) * 2015-05-22 2017-12-22 杭州雪肌科技有限公司 基于光学的肌肤健康监测和预诊断智能方法
EP3236840B1 (en) * 2015-06-15 2024-03-27 E.S.I. Novel Ltd. System and method for adaptive cosmetic skin treatment
CN105427306B (zh) * 2015-11-19 2018-02-23 上海家化联合股份有限公司 皮肤光泽度的图像分析方法和装置
JP6245590B1 (ja) * 2016-06-20 2017-12-13 公立大学法人大阪市立大学 皮膚診断装置、皮膚状態出力方法、プログラムおよび記録媒体
KR101992403B1 (ko) * 2016-10-18 2019-06-24 성균관대학교산학협력단 영상을 이용한 피부 수분도 측정 방법
US20180103915A1 (en) * 2016-10-18 2018-04-19 Alcare Co., Ltd. Operation processing aparatus calculating numerical value representing skin barrier function, equipument, computer readable medium, and method for evaluating skin barrier function
US10425633B2 (en) * 2016-12-30 2019-09-24 Konica Minolta Laboratory U.S.A., Inc. Method and system for capturing images for wound assessment with moisture detection
JP7444362B2 (ja) * 2019-02-04 2024-03-06 国立研究開発法人理化学研究所 皮膚疾患の予防、改善または治療用医薬組成物
KR20210057506A (ko) * 2019-11-12 2021-05-21 삼성전자주식회사 피부 장벽 기능 추정 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012519894A (ja) * 2009-03-06 2012-08-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 少なくとも1の生物体の画像の処理
US20180035941A1 (en) * 2016-08-04 2018-02-08 Samsung Electronics Co., Ltd. Apparatus and method for estimating skin condition

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7348448B1 (ja) 2022-06-01 2023-09-21 株式会社 サティス製薬 Ai肌水分量解析方法、装置、またはシステムおよび学習済みai肌水分量解析モデル

Also Published As

Publication number Publication date
TWI770480B (zh) 2022-07-11
CN113574564B (zh) 2022-09-13
CN113574564A (zh) 2021-10-29
JPWO2020189754A1 (ja) 2021-11-11
JP6983357B2 (ja) 2021-12-17
KR20210118192A (ko) 2021-09-29
TW202100098A (zh) 2021-01-01
US11534105B2 (en) 2022-12-27
US20220142561A1 (en) 2022-05-12
KR102411108B1 (ko) 2022-06-22

Similar Documents

Publication Publication Date Title
US11670143B2 (en) Method for estimating a quantity of a blood component in a fluid receiver and corresponding error
US9619883B2 (en) Systems and methods for evaluating hyperspectral imaging data using a two layer media model of human tissue
Lee et al. Detection of neovascularization based on fractal and texture analysis with interaction effects in diabetic retinopathy
US9870625B2 (en) Method for estimating a quantity of a blood component in a fluid receiver and corresponding error
US20160338603A1 (en) Signal processing device, signal processing method, and computer-readable recording medium
JP6544648B2 (ja) 骨粗鬆症診断支援装置
JP6743129B2 (ja) 心機能測定装置、心機能測定方法および心機能測定プログラム
US20110243415A1 (en) Image processing apparatus, control method thereof, and program
Onat et al. The contributions of image content and behavioral relevancy to overt attention
US20210133473A1 (en) Learning apparatus and learning method
US20150110376A1 (en) Methods, Systems and Computer Program Products for Dynamic Optical Histology Using Optical Coherence Tomography
JP2018521764A (ja) 光干渉断層像スキャンの処理
Li et al. Retinal vessel detection and measurement for computer-aided medical diagnosis
US20220192521A1 (en) Systems and methods for processing laser speckle signals
WO2020189754A1 (ja) 推定方法、推定モデルの生成方法、プログラム、及び推定装置
US20230113721A1 (en) Functional measurements of vessels using a temporal feature
TWI528296B (zh) 皮脂量的推定方法、皮脂量推定裝置及皮脂量推定程式
CN111598966A (zh) 一种基于生成对抗网络的磁共振成像方法及装置
KR102239575B1 (ko) 피부 진단 장치 및 방법
Hani et al. Non-invasive contrast enhancement for retinal fundus imaging
KR102340152B1 (ko) 피판술 후 조직 괴사 및 손상의 조기 예측 시스템 및 그 방법
Krishnamurthy et al. Spatio-temporal feature analysis of laser speckle images for simultaneous quantification of skin thickness and perfusion demonstrated using in-vitro scleroderma phantoms
US20230180999A1 (en) Learning apparatus, learning method, program, trained model, and endoscope system
Ti et al. Contrast measurement for MRI images using histogram of second-order derivatives
Thompson et al. Measuring Doppler-like power spectra and dermal perfusion using laser speckle contrast with multiple exposures

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20773526

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021507415

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20217028038

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20773526

Country of ref document: EP

Kind code of ref document: A1