WO2023018257A1 - 사용자 문진 데이터와 피부 영상 데이터를 이용한 접촉 피부염의 원인 추정 방법 및 장치 - Google Patents

사용자 문진 데이터와 피부 영상 데이터를 이용한 접촉 피부염의 원인 추정 방법 및 장치 Download PDF

Info

Publication number
WO2023018257A1
WO2023018257A1 PCT/KR2022/012033 KR2022012033W WO2023018257A1 WO 2023018257 A1 WO2023018257 A1 WO 2023018257A1 KR 2022012033 W KR2022012033 W KR 2022012033W WO 2023018257 A1 WO2023018257 A1 WO 2023018257A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
cause
user
skin
image data
Prior art date
Application number
PCT/KR2022/012033
Other languages
English (en)
French (fr)
Inventor
손상욱
이승학
손성진
황인태
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of WO2023018257A1 publication Critical patent/WO2023018257A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Definitions

  • Embodiments described below relate to a technology for diagnosing skin diseases based on deep learning technology.
  • Skin disorders are generally caused by environmental factors along with other causes. However, methods necessary for early detection of skin diseases have not yet been developed. In order to solve this problem, active research is being conducted all over the world.
  • a patch test should be performed 2 days after the causative substance is applied to the patient's skin and then 4-7 days later to see if reactions such as skin rash appear. do.
  • the patch test takes about a week to confirm the results, and has limitations such as that the patient must be restricted from taking the treatment during the test.
  • doctors in hospitals often guess and diagnose the cause of dermatitis only by visual inspection based on the patient's interview and the doctor's experience.
  • a method for estimating a cause of contact dermatitis using user medical examination data and skin image data includes receiving skin image data for estimating a cause of a skin disease from a user terminal; Receiving user medical examination data related to the skin disease; obtaining result data including information on a cause of the skin disease from the skin image data and the user medical examination data using a learned deep learning model; The method may include providing the result data to the user terminal, and the result data may include cause items of the skin disease and a probability value of each cause item.
  • the receiving of the user medical examination data may include identifying a body part having the skin disease from the skin image data or determining a body part having the skin disease according to the user's selection; providing predefined medical examination items corresponding to the body part where the skin disease appears through the user terminal; and acquiring user medical examination data including response information of the user corresponding to each of the medical examination items.
  • a cause estimation method may include extracting a skin lesion area from the skin image data; and generating skin lesion image data in which the extracted skin lesion regions are separated, wherein the obtaining of the result data comprises the step of generating the skin lesion image data based on the skin image data, the skin lesion image data, and the user medical examination data. It may include acquiring result data.
  • the obtaining of the result data may include determining a weight representing a degree of influence on the result data for each of the skin image data and the user medical examination data; and obtaining the result data based on a result of applying the weight to the skin image data and the user medical examination data.
  • the user medical examination data includes user estimation information on cause items of the skin disease, and the obtaining of the result data includes weighting the skin disease cause factors based on the user estimation information on the skin disease items. It may include applying to the probability values of the causal items of .
  • An apparatus for estimating the cause of contact dermatitis using user medical examination data and skin image data includes a memory and a processor, the memory stores instructions executable by the processor, and the instructions When executed by the processor, the processor receives skin image data for estimating the cause of a skin disease from a user terminal, receives user medical examination data related to the skin disease, and uses a learned deep learning model to determine the skin image data.
  • Obtaining result data including information on the cause of the skin disease from skin image data and the user medical examination data, providing the result data to the user terminal, and the result data includes cause items and Possibility values of each cause item may be included.
  • the processor identifies a body part where the skin disease appears from the skin image data or determines a body part where the skin disease appears according to the user's selection, and determines a predefined body part corresponding to the skin disease It is possible to provide medical examination items through the user terminal, and obtain user medical examination data including user response information corresponding to each of the medical examination items.
  • the processor determines a weight representing a degree of influence on the result data for each of the skin image data and the user medical examination data, and based on a result of applying the weight to the skin image data and the user medical examination data, Result data can be obtained.
  • the type of skin disease may be classified based on the medical examination data and the image data of the skin lesion, and diagnosis information regarding severity may be provided.
  • contact dermatitis or the like it is possible to prevent contact dermatitis or the like from recurring in the patient by providing the patient with information about a product or situation that can be exposed to a causative agent of skin lesions, such as contact dermatitis.
  • the level of subjective diagnosis results of medical personnel may be qualitatively improved through artificial intelligence skin disease diagnosis technology provided through a mobile device.
  • FIG. 1 is a diagram showing the overall configuration of a skin disease diagnosis system according to an embodiment.
  • FIG. 2 is a diagram for explaining a deep learning model for estimating the cause of contact dermatitis according to an embodiment.
  • FIG. 3 is a flowchart illustrating the operation of a method for estimating the cause of contact dermatitis according to an embodiment.
  • FIG. 4 is a diagram for explaining adjusting a diagnosis result based on user medical examination data according to an exemplary embodiment.
  • FIG. 5 is a block diagram showing the configuration of an apparatus for estimating the cause of contact dermatitis according to an embodiment.
  • FIG. 6 is a block diagram illustrating a configuration of a user terminal according to an embodiment.
  • FIG. 1 is a diagram showing the overall configuration of a skin disease diagnosis system according to an embodiment.
  • the system for diagnosing skin diseases may estimate the cause or causative substance of contact dermatitis based on image data showing skin lesions and user questionnaire data, and provide the information to the user.
  • the skin disease diagnosis system is capable of diagnosing multiple skin conditions (eg, acute and chronic urticaria, seborrheic keratosis, psoriasis, acne, shingles, viral warts, contact dermatitis, atopic dermatitis).
  • the skin disease diagnosis system may include a user terminal 100 , a skin disease diagnosis server 110 , a data backup server 120 and a diagnoser terminal 130 .
  • the skin disease diagnosis server 110 may be implemented as a cloud server and may include a service server 112 , an analysis server 114 , and a storage 116 .
  • the skin disease diagnosis server 110 and the data backup server 120 may be replaced with a 'skin disease diagnosis device' and a 'data backup device', respectively, and the service server 112 and analysis server 114 are respectively 'service management' It can be replaced by 'device' and 'analysis device'.
  • the skin disease diagnosis server 110 may correspond to a device for estimating the cause of contact dermatitis (eg, the device for estimating the cause 500 of FIG. 5 ).
  • 'diagnosis' of a skin disease may mean that a computing device analyzes input data (eg, user questionnaire data, image data) to generate diagnostic data for a skin disease.
  • the user terminal 100 is a terminal of a user who wants to diagnose a skin disease, and may be, for example, a smart phone, a tablet computer, a PDA, a personal computer, a laptop computer, or the like, but is not limited thereto.
  • the user terminal 100 may transmit user data including user information (eg, age, gender, medical history, etc.), user medical examination data, and image data related to a skin disease to the skin disease diagnosis server 110 .
  • the image data related to the skin disease may be skin image data showing skin lesions of the user.
  • the user of the user terminal 100 may input user data through an application program and create user questionnaire data.
  • the user may generate image data by capturing a skin lesion area through a function provided by a corresponding application program.
  • the service server 112 may receive user data, user medical examination data, and image data from the user terminal 100 and store the received user data, user medical examination data, and image data in the storage 116 .
  • the service server 112 may transmit a request signal for requesting an analysis of a skin disease requested by a user to the analysis server 114 .
  • the analysis server 114 retrieves data (user data, user medical examination data, image data) to be used for analysis from the storage 116, and analyzes the user's skin disease using the searched data. .
  • the analysis server 114 may derive an analysis result by analyzing the user's skin disease based on the analysis model of the deep learning model.
  • the analysis server 114 may provide, for example, analysis results regarding the type of skin disease of the user, possible causes of the skin disease, and the like.
  • the analysis model is, for example, a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted boltzmann machine (RBM), DBN ( It may be one of a deep belief network, a bidirectional recurrent deep neural network (BRDNN), a deep Q-network, or a combination of two or more of them, and is not limited to the above examples.
  • DNN deep neural network
  • CNN convolutional neural network
  • RNN recurrent neural network
  • RBM restricted boltzmann machine
  • DBN DBN
  • It may be one of a deep belief network, a bidirectional recurrent deep neural network (BRDNN), a deep Q-network, or a combination of two or more of them, and is not limited to the above examples.
  • At least part of the analysis model may be implemented in software, hardware including a neural processor, or a combination of software and hardware.
  • the analysis model may be a model learned by a learning device.
  • the learning device may update parameters of the analysis model (eg, weight and bias of the neural network) based on the result value output from the analysis model. For example, the learning device calculates a loss based on a difference between a result value output by inputting training data to an analysis model and a target value corresponding to the learning data, and sets parameters of the analysis model to reduce the loss. can be adjusted Various loss functions may be used to calculate the loss, and adjustments of the parameters may be made by, for example, a back propagation algorithm.
  • the learning device may repeatedly perform this process for each of a large number of training data, and through this, the parameters of the analysis model may be gradually adjusted in a desirable direction.
  • the learning device may train the analysis model using various machine learning algorithms in addition to the learning method described herein.
  • the analysis result data generated by the analysis server 114 may be transferred to the storage 116 and stored therein.
  • the analysis result data stored in the storage 116 is transmitted to the service server 112 , and the service server 112 may provide the analysis result data to the user terminal 100 .
  • information on the type of skin disease, a list of suspected causes of skin disease, countermeasures for each cause of contact dermatitis, and dermatology to be recommended to the user may be transmitted to the user terminal 100 .
  • the skin disease diagnosis server 110 may recommend a suitable dermatology clinic around the user through a location-based service, and with the consent of the user, user data, user questionnaire data, skin image data, and diagnosis result data may be sent to a medical institution of the dermatology department. can transmit
  • the application program of the user terminal 100 may provide the corresponding information to the user.
  • the user may be provided with information on skin disease and information on countermeasures through an application running on the user terminal 100 without visiting a hospital or meeting a doctor.
  • the skin disease diagnosis server 110 may perform data backup by transferring data used for skin disease diagnosis (eg, user data, user medical examination data, image data) and diagnosis result data to the data backup server 120 .
  • the data backup server 120 may continuously update the analysis model used by the analysis server 114 .
  • the skin disease diagnosis server 110 may provide data (eg, user data, user medical examination data, image data) received from the user terminal 100 to the diagnoser terminal 130, which is a medical staff terminal. Alternatively, corresponding data may be directly transmitted from the user terminal 100 to the diagnoser terminal 130 .
  • diagnosis result data may be transmitted from the skin disease diagnosis server 110 to the diagnoser terminal 130 .
  • the diagnoser (eg, medical staff) of the diagnoser terminal 130 diagnoses the user's skin disease based on the received data, and provides the diagnosis result to the user of the user terminal 100 through the skin disease server 110 or Alternatively, the skin disease diagnosis result diagnosed by the skin disease diagnosis server 110 may be verified.
  • the user can perform self-monitoring for the cause of allergic contact dermatitis using the application program of the user terminal 100 through the above skin disease diagnosis system.
  • a diagnoser such as a medical practitioner can more accurately diagnose a skin disease by using the diagnostic information on allergic contact dermatitis provided by the skin disease diagnosis system as an aid.
  • the user can quickly and accurately diagnose skin diseases.
  • FIG. 2 is a diagram for explaining a deep learning model for estimating the cause of contact dermatitis according to an embodiment.
  • the cause estimating device may estimate the cause of allergic contact dermatitis based on user medical examination data 220 and skin image data 210. .
  • the cause estimation device may extract a skin lesion area from the skin image data 210 to generate skin lesion image data 215 in which the skin lesion area is distinguished, and the cause estimation device may extract the skin image data ( 210), the cause of contact dermatitis may be estimated based on the skin lesion image data 215 and the user questionnaire data 220.
  • the cause estimation device may extract a skin lesion area from the skin image data 210 using the learned deep learning model to generate skin lesion image data 215 in which the skin lesion area is distinguished. Brightness information of each region may be obtained through the image skin image data 210 , and topological pattern information of the skin may be obtained through the skin lesion image data 215 .
  • the deep learning model 200 may estimate the cause of contact dermatitis based on the obtained brightness information and phase pattern information.
  • the user medical examination data 220 may be obtained from information input by the user through an application or site installed on the user terminal.
  • the user questionnaire data 220 may include the user's age, primary skin eruption, rash patterns (eg, round, oval, irregular shape), size, patch, skin It may include history data on whether the lesions are bilateral or unilateral, the color of the rash, and a personal history of inflammatory dermatosis.
  • age is one of the important features in contact skin diseases. In general, atopic dermatitis and acne vulgaris are prevalent in adolescence, but seborrheic keratosis is prevalent in old age, so information about age helps determine the type and cause of contact dermatitis.
  • the application of the user terminal may provide the user with questions for obtaining the user questionnaire data 220 .
  • the application is 'time of symptoms of skin disease', 'current symptoms of affected area', 'past symptom history', 'feeling of affected area', 'family history of skin disease', 'presence of other diseases', 'Medicine in use', 'Possible cause related to allergic skin disease', 'Possible cause related to infectious skin disease', 'Primary skin rash', 'Rash within skin', 'Rash pattern', 'Shape of skin lesion border', ' Receive selection/input information from the user regarding 'accompanying skin symptoms', 'companing systemic symptoms', 'tone of skin lesions', 'number of skin lesions', 'size of skin lesions' and 'distribution pattern of skin rash'; , It is possible to determine the user medical examination data 220 based on the received
  • the cause estimation device may obtain a diagnosis result for the cause of contact dermatitis using the learned deep learning model 200 .
  • the trained deep learning model 200 may be based on, for example, a convolutional neural network (CNN), a deep neural network, a recurrent neural network (RNN), a random forest, or the like. However, it is not limited thereto.
  • Skin image data 210 (or additional skin lesion image data 215) and user medical examination data 220 are input to the deep learning model 200, and diagnostic data for the cause of contact dermatitis from the deep learning model 200 230 may be output.
  • the diagnosis data 230 includes information on the cause of skin disease, and specifically, may include cause items of the skin disease and probability values for each cause item.
  • the diagnostic data 230 may provide a list of items (eg, hair dye, cosmetics, ointments, accessories, etc.) that may correspond to the cause of allergic contact dermatitis and probability information that each item corresponds to the actual cause of contact dermatitis. .
  • items eg, hair dye, cosmetics, ointments, accessories, etc.
  • the deep learning model 200 may be a model learned based on a dataset of supervised learning data or unsupervised learning data built based on existing patient data and open big data.
  • the deep learning model 200 may be trained based on learning data including image data showing skin lesions, user medical examination data, and diagnosis result data corresponding to the image data.
  • parameters eg, connection weights
  • the deep learning model 200 are used to receive image data and user medical examination data and output diagnosis result data corresponding to the image data and user medical examination data. can be adjusted
  • the deep learning model 200 extracts features from the input skin image data 210, skin lesion image data 215, and user medical examination data 220, and generates diagnostic data 230 based on the extracted features.
  • the cause estimation device can quickly and accurately estimate the cause of allergic contact dermatitis from the patient's image data and user questionnaire data (additionally user data) to replace the existing patch test using the deep learning model 200.
  • the deep learning model 200 is, for example, a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted boltzmann machine (RBM) ), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of them, and is not limited to the above examples.
  • DNN deep neural network
  • CNN convolutional neural network
  • RNN recurrent neural network
  • RBM restricted boltzmann machine
  • DNN deep belief network
  • BNN bidirectional recurrent deep neural network
  • deep Q-networks deep Q-networks
  • the deep learning model 200 may be a model learned by a learning device.
  • the learning device may update parameters (eg, weights and biases of a neural network) of an analysis model based on result values output from the deep learning model 200 .
  • the learning device calculates a loss based on the difference between a result value output by inputting training data to the deep learning model 200 and a target value corresponding to the training data, and deep learning to reduce the loss.
  • Parameters of the learning model 200 may be adjusted.
  • Various loss functions may be used to calculate the loss, and adjustments of the parameters may be made by, for example, a back propagation algorithm.
  • the learning device may repeatedly perform this process for each of a large number of training data, and through this, parameters of the deep learning model 200 may be gradually adjusted in a desirable direction.
  • the learning device may train the deep learning model 200 using various machine learning algorithms in addition to the learning method described herein.
  • the cause estimation method may be performed by a cause estimation device described herein (eg, the cause estimation device 500 of FIG. 5 ).
  • the cause estimating device may receive skin image data for estimating the cause of a skin disease and user questionnaire data related to the skin disease from a user terminal.
  • the cause estimation apparatus may perform image preprocessing on skin image data in which skin lesions appear. For example, the cause estimating apparatus may obtain preprocessed image data by removing noise from the image data and adjusting the size of the image to a predetermined reference size.
  • the user may select corresponding items or input related contents to the paperweight items output to the application program of the user terminal (eg, the user terminal 100 of FIG. 1), and through this, user paperweight data may be generated. There is, and the generated user medical examination data may be transmitted to the cause estimation device.
  • medical examination items may be selected according to a body part indicated in the skin image data or a target body part according to a user's selection, and then provided to the user.
  • the cause estimation device may identify a body part with a skin disease from skin image data or determine a body part with a skin disease according to a user's selection.
  • the cause estimating device may provide predefined medical examination items corresponding to the body part where the skin disease appears through the user terminal, and obtain user medical examination data including user response information corresponding to each of the medical examination items. there is.
  • the user questionnaire data may include, for example, at least one of the user's job at which the skin lesion appears, behavior before the skin lesion appears to the user, the body part where the skin lesion appears, and the user's characteristics related to the skin lesion. .
  • the characteristics of the user associated with the skin lesion may include information about whether the user has a history of travel and, if there is a history of travel, information about a travel destination.
  • the user's characteristics related to skin lesions may cause itchiness or rash on the user's skin, such as the user's hobbies, whether the user dyes hair, whether the user wears accessories, whether the user uses perfume, and whether the user has recently changed cosmetics. It may include user specifics related to the element in the
  • a shaping algorithm of the user medical examination data may be performed in the course of acquiring the user medical examination data. For example, a process of removing outliers from the questionnaire results or a process of selecting and providing clinically meaningful questionnaire items may be performed.
  • the cause estimation device may obtain result data including information about the cause of the skin disease from the skin image data and the user medical examination data using the learned deep learning model.
  • the result data may include cause items of the skin disease and probability values of each cause item.
  • the cause estimating device determines a weight representing the degree of influence on the result data for each of the skin image data and the user medical examination data, and the result is obtained based on a result of applying the weight to the skin image data and the user medical examination data.
  • data can be obtained.
  • the cause estimating device may apply weights to the skin image data and the user medical examination data to determine which data to place more weight on. For example, if it is determined that there is little meaningful information in the user medical examination data, the cause estimating device controls to generate result data mainly based on the skin image data by setting the weight of the skin image data higher than that of the user medical examination data. can These weights may be determined through a separate user questionnaire data analysis model.
  • the cause estimation device may extract a skin lesion area from skin image data and generate skin lesion image data in which the extracted skin lesion area is divided.
  • the cause estimation device may generate skin lesion image data by extracting a skin region from skin image data and extracting a region where a skin lesion appears from the extracted skin region.
  • the cause estimation device may obtain result data based on skin image data, skin lesion image data, and user medical examination data. Skin image data, skin lesion image data, and user medical examination data are input to the trained deep learning model, and the deep learning model may output result data for allergic contact dermatitis diagnosis based on the input data.
  • the user medical examination data may include user estimation information on causes of skin diseases.
  • the user medical examination data may include a cause item selected by the user as having a high probability of corresponding to the cause of contact dermatitis or a cause item selected as not likely to correspond to the cause of contact dermatitis for each of the exemplary skin disease cause items. information may be included.
  • the cause estimating apparatus may adjust the diagnosis result data by applying weights based on user estimation information on the cause items of the skin disease to the probability values of the cause items of the skin disease.
  • the cause estimation device may exclude a cause item selected by the user as having a high probability of not corresponding to the cause of contact dermatitis from the cause item of the result data or apply a weight to reduce the probability value of the corresponding cause item.
  • the cause estimating device may apply a weight to increase the probability value of the cause item selected by the user as being highly likely to correspond to the cause of contact dermatitis.
  • the cause estimation device may provide the result data obtained in step 320 to the user terminal.
  • the user terminal may receive result data from the cause estimation device and provide the result data to the user through an application program.
  • the user may be provided with information on the cause items of allergic contact dermatitis, the probability values for each cause item, and a countermeasure plan for each causative substance. Accordingly, the user can perform immediate treatment or prevention of allergic contact dermatitis.
  • the cause estimation device increases the accuracy of skin disease diagnosis through a configuration of estimating the cause of skin disease using user medical examination data and skin image data, and enables immediate treatment by providing information on the cause of skin disease to the user. It provides a beneficial effect that As a result, the device for estimating the cause provides excellent accessibility to patients suffering from allergic contact dermatitis and enables quick treatment, thereby reducing medical expenses and freeing them from skin diseases, leading to a high quality of life.
  • FIG. 4 is a diagram for explaining adjusting a diagnosis result based on user medical examination data according to an exemplary embodiment.
  • the cause estimation apparatus receives user medical examination data together with skin image data from a user terminal (410).
  • the user medical examination data is the cause item selected by the user as likely to correspond to the cause of contact dermatitis or the cause item selected as not likely to correspond to the cause of contact dermatitis for each of the exemplary skin disease cause items. It may include user estimation information about the cause item indicating information about
  • the cause estimation device analyzes the received user medical examination data (420).
  • the cause estimating device determines (430) the weight to be applied to each cause item based on the user estimation information included in the user medical examination data, and uses the determined weight to estimate the cause items of the user's contact dermatitis and the probability value of each cause item.
  • Result data including may be applied (440).
  • the cause estimation device excludes a cause item selected by the user as having a high probability of not corresponding to the cause of contact dermatitis from the cause item of the result data, or applies a weight to reduce the probability value of the corresponding cause item to the result data, and the user For the cause item selected as likely to correspond to the cause of contact dermatitis, a weight to increase the probability of the corresponding cause item may be applied to the result data.
  • the cause item list or the probability value for each cause item may be modified, and the cause estimation device may provide the corrected result data to the user terminal (450).
  • FIG. 5 is a block diagram showing the configuration of an apparatus for estimating the cause of contact dermatitis according to an embodiment.
  • the cause estimation device 500 is a computing device for estimating the cause of allergic contact dermatitis based on skin image data and user questionnaire data provided by the user, and the skin disease diagnosis server 110 of FIG. can respond to
  • the cause estimating device 500 may include a processor 510, a memory 520, and a communication device 530, and each component of the cause estimating device 500 may communicate with each other through a communication bus 540. there is.
  • the processor 510 controls the overall operation of the cause estimating device 500 .
  • the processor 510 may include one or a plurality of processors, and the one or plurality of processors may include a general-purpose processor such as a central processing unit (CPU), an application processor (AP), a digital signal processor (DSP), a graphic processor (GPU), and the like. unit), a graphics-only processor such as a vision processing unit (VPU), or a neural processing unit (NPU).
  • CPU central processing unit
  • AP application processor
  • DSP digital signal processor
  • GPU graphic processor
  • unit graphics-only processor such as a vision processing unit (VPU), or a neural processing unit (NPU).
  • Memory 520 stores information necessary for processor 510 to perform processing operations.
  • the memory 520 may store instructions executable by the processor 510 and a deep learning model, and may store related information while software or programs are executed in the cause estimation device 500 .
  • Memory 520 may include volatile memory, such as RAM, DRAM, SRAM, and/or non-volatile memory known in the art, such as flash memory.
  • the processor 510 may control the cause estimation device 500 to perform one or more operations described above through FIGS. 1 to 4 by executing executable instructions stored in the memory 520 .
  • the processor 510 may receive skin image data for estimating the cause of a skin disease and user medical examination data related to a skin disease from a user terminal.
  • the processor 510 may identify the body part where the skin disease appears from the skin image data or determine the body part where the skin disease appears according to the user's selection.
  • the processor 510 provides predefined medical examination items corresponding to the body part where the skin disease appears through the user terminal, and obtains user medical examination data including user response information corresponding to each of the medical examination items. can do.
  • the processor 510 may obtain result data including information on the cause of a skin disease from skin image data and user questionnaire data using the learned deep learning model.
  • the result data may include cause items of the skin disease and probability values of each cause item.
  • the processor 510 determines a weight representing the degree of influence on the result data for each of the skin image data and the user questionnaire data, and the result is based on a result of applying the weight to the skin image data and the user questionnaire data. data can be obtained.
  • the user medical examination data may include user estimated information on cause items of the skin disease, and the processor 510 assigns a weight based on the user estimated information on the cause items of the skin disease. It can be applied to the probability number of items.
  • the user medical examination data may include a cause item selected by the user as having a high probability of corresponding to the cause of contact dermatitis or a cause item selected as not likely to correspond to the cause of contact dermatitis for each of the exemplary skin disease cause items. information may be included.
  • the processor 510 may adjust diagnosis result data by applying weights based on user estimation information on cause items of skin diseases to probability values of cause items of skin diseases.
  • the processor 510 may exclude a cause item selected by the user as having a high probability of not corresponding to the cause of contact dermatitis from the cause item of the result data or apply a weight to reduce the probability value of the corresponding cause item.
  • the processor 510 may apply a weight to increase the probability value of the cause item selected by the user as having a high probability of being the cause of contact dermatitis.
  • the processor 510 may provide result data of the contact dermatitis diagnosis obtained through the above process to the user terminal.
  • the communication device 530 may support establishment of a direct (eg, wired) communication channel or wireless communication channel between the cause estimation device 500 and an external device, and communication through the established communication channel.
  • the communication device 530 is a wireless communication module (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (eg, a local area network (LAN)). ) communication module, or power line communication module).
  • GNSS global navigation satellite system
  • LAN local area network
  • a wireless communication module may be used in a short-distance communication network (eg Bluetooth, wireless fidelity (WiFi) direct or infrared data association (IrDA)) or a long-distance communication network (eg legacy cellular network, 5G network, next-generation communication network, the Internet, or a computer network (eg Ex: LAN or WAN)) can communicate with external devices.
  • a short-distance communication network eg Bluetooth, wireless fidelity (WiFi) direct or infrared data association (IrDA)
  • WiFi wireless fidelity
  • IrDA infrared data association
  • a long-distance communication network eg legacy cellular network, 5G network, next-generation communication network, the Internet, or a computer network (eg Ex: LAN or WAN)
  • a short-distance communication network eg Bluetooth, wireless fidelity (WiFi) direct or infrared data association (IrDA)
  • a long-distance communication network eg legacy
  • FIG. 6 is a block diagram illustrating a configuration of a user terminal according to an embodiment.
  • a user terminal 600 may correspond to the user terminal described herein (eg, the user terminal 100 of FIG. 1 ).
  • the user terminal 600 may include a processor 610 , a storage device 620 and a communicator 630 . Elements of the user terminal 600 may communicate with each other through the communication bus 635 .
  • the user terminal 600 may further include a user input interface 640, a display 650, and a camera 660 according to embodiments.
  • the storage device 620 is connected to the processor 610 and may store instructions executable by the processor 610, data to be calculated by the processor 610, or data processed by the processor 610.
  • storage device 620 may include non-transitory computer readable media such as high-speed random access memory and/or non-volatile computer readable storage media (e.g., one or more disk storage devices, flash memory devices, or other non-volatile solid state media). state memory device), and an optical recording medium.
  • the communicator 630 provides an interface for communication with external devices (eg, the cause estimation device 500 and the skin disease server 110).
  • the communicator 630 may communicate with an external device through a wired or wireless network.
  • the communicator 630 may transmit skin image data and user medical examination data to the cause estimation device, and may receive result data for skin disease diagnosis from the cause estimation device.
  • the communicator 630 may be a wireless communication module (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (eg, a local area network (LAN) communication module). module, or a power line communication module).
  • GNSS global navigation satellite system
  • a wireless communication module may be used in a short-distance communication network (eg Bluetooth, wireless fidelity (WiFi) direct or infrared data association (IrDA)) or a long-distance communication network (eg legacy cellular network, 5G network, next-generation communication network, the Internet, or a computer network (eg Ex: LAN or WAN)) can communicate with external devices.
  • a short-distance communication network eg Bluetooth, wireless fidelity (WiFi) direct or infrared data association (IrDA)
  • WiFi wireless fidelity
  • IrDA infrared data association
  • a long-distance communication network eg legacy cellular network, 5G network, next-generation communication network, the Internet, or a computer network (eg Ex: LAN or WAN)
  • a short-distance communication network eg Bluetooth, wireless fidelity (WiFi) direct or infrared data association (IrDA)
  • a long-distance communication network eg legacy
  • the display 650 may display a screen related to the user terminal 600 receiving cause analysis information of allergic contact dermatitis.
  • the display 650 may display a screen associated with executing an application program related to detecting the cause of allergic contact dermatitis and display result data received from the cause estimation device.
  • the camera 660 may obtain skin image data showing skin lesions.
  • the user input interface 640 may receive an execution request for an application program input by a user and input data for a user questionnaire item.
  • the user input interface 640 may correspond to a touch screen, a keyboard, or a touch input device.
  • the processor 610 may control the user terminal 600 so that the user terminal 600 can perform one or more operations related to the operation of the user terminal 600 .
  • the processor 610 may control the user terminal 600 to execute an application program, obtain user medical examination data through a user input, and control the user terminal 600 to acquire skin image data. .
  • the processor 610 allows the user terminal 600 to transmit the skin image data and user medical examination data to the cause estimation device, and in response to the transmission, the user terminal to receive diagnosis result data for skin lesions from the cause estimation device. (600) can be controlled.
  • the user terminal 600 may perform one or more operations of the user terminal described above with reference to FIGS. 1 to 5 as it is, and duplicate descriptions will be omitted.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium.
  • Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like.
  • program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
  • Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device.
  • Software and/or data may be any tangible machine, component, physical device, virtual equipment, or computer storage medium or It can be permanently or temporarily embodied in a device.
  • Software may be distributed on networked computer systems and stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable media.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Dermatology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

사용자 문진 데이터와 피부 영상 데이터를 이용한 접촉 피부염의 원인 추정 방법 및 장치가 개시된다. 접촉 피부염의 원인 추정 방법은 사용자 단말로부터 피부 질환의 원인을 추정하기 위한 피부 영상 데이터를 수신하는 단계, 피부 질환과 관련된 사용자 문진 데이터를 수신하는 단계, 학습된 딥러닝 모델을 이용하여 피부 영상 데이터 및 사용자 문진 데이터로부터 피부 질환의 원인에 대한 정보를 포함하는 결과 데이터를 획득하는 단계, 및 결과 데이터를 상기 사용자 단말로 제공하는 단계를 포함하고, 결과 데이터는 피부 질환의 원인 항목들과 각 원인 항목들의 가능성 수치를 포함할 수 있다.

Description

사용자 문진 데이터와 피부 영상 데이터를 이용한 접촉 피부염의 원인 추정 방법 및 장치
아래에서 설명되는 실시예들은 딥러닝 기술에 기반한 피부 질환의 진단 기술에 관한 것이다.
피부 질환은 일반적으로 다른 원인과 함께 환경 요인으로 인하여 발생한다. 그러나, 아직까지 피부 질환을 조기에 발견하기 위해 필요한 방법은 개발되지 않았다. 이를 해결하기 위하여 전 세계적으로 활발히 연구가 진행되고 있다.
환자의 피부에 가려움을 유발하거나 붓는 발진 등이 발생된 원인을 찾기 위해서는 문진(history) 및 발생 부위 (topographic approach) 등에 대한 정보가 중요하다. 그 예로, 1주일 전에 염색을 한 환자의 이마, 귀 등에 가려움을 동반하는 붉은 발진이 생겼다면, 의사는 환자가 염색을 하였다는 이력과 발진이 발생된 부위 등에 대한 정보로 염모제가 피부염의 원인일 수 있음을 추정할 수 있다.
그러나, 추정된 원인 물질에 대한 확진을 위해서는, 환자의 피부에 원인 물질을 도포하고 2일 후에 그리고 다시 4-7일 후에 피부 발진 등의 반응이 나타나는지를 확인하는 첩포 검사(patch test)를 시행해야 한다. 첩포 검사는 결과를 확인하기까지 1주일 정도의 시간이 소요되며, 검사 중에 환자가 치료제를 복용하는 것을 제한해야 한다는 등의 한계를 가진다. 또한, 첩보 검사는 과정이 번거롭기 때문에, 실제로 병원에서 의사는 환자에 대한 문진과 의사의 경험에 기반하여 시진으로만 피부염의 원인을 추측하여 진단하곤 한다.
환자의 피부에 알러지(allergy) 증상이 발생하였을 때, 즉각적으로 원인 물질을 예측하고, 환자가 원인 물질을 회피하도록 하는 것이 중요하기 때문에, 종래의 검사 방법의 한계를 보완할 수 있는 방법에 대한 요구와 필요성이 매우 크다.
일 실시예에 따른 사용자 문진 데이터와 피부 영상 데이터를 이용한 접촉 피부염의 원인 추정 방법은, 사용자 단말로부터 피부 질환의 원인을 추정하기 위한 피부 영상 데이터를 수신하는 단계; 상기 피부 질환과 관련된 사용자 문진 데이터를 수신하는 단계; 학습된 딥러닝 모델을 이용하여 상기 피부 영상 데이터 및 상기 사용자 문진 데이터로부터 상기 피부 질환의 원인에 대한 정보를 포함하는 결과 데이터를 획득하는 단계; 상기 결과 데이터를 상기 사용자 단말로 제공하는 단계를 포함하고, 상기 결과 데이터는, 상기 피부 질환의 원인 항목들과 각 원인 항목들의 가능성 수치를 포함할 수 있다.
상기 사용자 문진 데이터를 수신하는 단계는, 상기 피부 영상 데이터로부터 상기 피부 질환이 나타난 신체 부위를 식별하거나 또는 상기 사용자의 선택에 의해 상기 피부 질환이 나타난 신체 부위를 결정하는 단계; 상기 피부 질환이 나타난 신체 부위에 대응하는 미리 정의된 문진 항목들을 상기 사용자 단말을 통해 제공하는 단계; 및 상기 문진 항목들 각각에 대응하는 사용자의 응답 정보를 포함하는 사용자 문진 데이터를 획득하는 단계를 포함할 수 있다.
일 실시예에 따른 원인 추정 방법은, 상기 피부 영상 데이터로부터 피부 병변 영역을 추출하는 단계; 및 상기 추출한 피부 병변 영역이 구분된 피부 병변 영상 데이터를 생성하는 단계를 더 포함하고, 상기 결과 데이터를 획득하는 단계는, 상기 피부 영상 데이터, 상기 피부 병변 영상 데이터 및 상기 사용자 문진 데이터에 기초하여 상기 결과 데이터를 획득하는 단계를 포함할 수 있다.
상기 결과 데이터를 획득하는 단계는, 상기 피부 영상 데이터와 상기 사용자 문진 데이터 각각에 대해 상기 결과 데이터에 영향을 미치는 정도를 나타내는 가중치를 결정하는 단계; 및 상기 가중치를 상기 피부 영상 데이터 및 상기 사용자 문진 데이터에 적용한 결과에 기초하여 상기 결과 데이터를 획득하는 단계를 포함할 수 있다.
상기 사용자 문진 데이터는, 상기 피부 질환의 원인 항목들에 대한 사용자 추정 정보를 포함하고, 상기 결과 데이터를 획득하는 단계는, 상기 피부 질환의 원인 항목들에 대한 사용자 추정 정보에 기초한 가중치를 상기 피부 질환의 원인 항목들의 가능성 수치에 적용하는 단계를 포함할 수 있다.
일 실시예에 따른 사용자 문진 데이터와 피부 영상 데이터를 이용한 접촉 피부염의 원인 추정 장치는, 메모리 및 프로세서를 포함하고, 상기 메모리는 상기 프로세서에 의해 실행 가능한 인스트럭션들(instructions)을 저장하고, 상기 인스트럭션들이 상기 프로세서에 의해 실행될 때, 상기 프로세서는, 사용자 단말로부터 피부 질환의 원인을 추정하기 위한 피부 영상 데이터를 수신하고, 상기 피부 질환과 관련된 사용자 문진 데이터를 수신하고, 학습된 딥러닝 모델을 이용하여 상기 피부 영상 데이터 및 상기 사용자 문진 데이터로부터 상기 피부 질환의 원인에 대한 정보를 포함하는 결과 데이터를 획득하고, 상기 결과 데이터를 상기 사용자 단말로 제공하고, 상기 결과 데이터는, 상기 피부 질환의 원인 항목들과 각 원인 항목들의 가능성 수치를 포함할 수 있다.
상기 프로세서는, 상기 피부 영상 데이터로부터 상기 피부 질환이 나타난 신체 부위를 식별하거나 또는 상기 사용자의 선택에 의해 상기 피부 질환이 나타난 신체 부위를 결정하고, 상기 피부 질환이 나타난 신체 부위에 대응하는 미리 정의된 문진 항목들을 상기 사용자 단말을 통해 제공하고, 상기 문진 항목들 각각에 대응하는 사용자의 응답 정보를 포함하는 사용자 문진 데이터를 획득할 수 있다.
상기 프로세서는, 상기 피부 영상 데이터와 상기 사용자 문진 데이터 각각에 대해 상기 결과 데이터에 영향을 미치는 정도를 나타내는 가중치를 결정하고, 상기 가중치를 상기 피부 영상 데이터 및 상기 사용자 문진 데이터에 적용한 결과에 기초하여 상기 결과 데이터를 획득할 수 있다.
일 실시예에 따르면, 피부에 가려움을 유발하거나 붓는 발진 등이 발생되었을 때, 알러지성 접촉 피부염인지 여부를 확인하고, 접촉성 피부염의 원인을 추정하기 위한 방법 및 이와 관련된 애플리케이션을 제공할 수 있다.
일 실시예에 따르면, 접촉성 피부염의 증상이 나타난 환자가 즉각적으로 원인 물질을 회피할 수 있도록 하여, 환자의 피부염이 악화되는 것을 예방할 수 있고, 환자의 피부염을 조기에 치료할 수 있다.
일 실시예에 따르면, 문진 데이터 및 피부 병변의 이미지 데이터에 기초하여 피부 질환의 종류를 분류하고 중증도에 대한 진단 정보를 제공할 수 있다.
일 실시예에 따르면, 접촉성 피부염 등과 같은 피부 병변의 원인 물질에 노출될 수 있는 제품이나 상황 등에 대한 정보를 환자에게 제공하여, 환자에게 접촉성 피부염 등이 재발하는 것을 예방할 수 있다.
일 실시예에 따르면, 모바일 장치를 통해 제공되는 인공지능 피부 질환 진단 기술을 통해, 의료인의 주관적인 진단 결과의 수준을 질적으로 향상시킬 수 있다.
일 실시예에 따르면, 피부 질환을 조기에 진단할 수 있고, 의료 서비스의 질적인 수준을 향상시키는 인공지능 기반의 비침습적인 진단 기술을 통해 사용자의 건강 증진에 기여할 수 있다.
도 1은 일 실시예에 따른 피부 질환 진단 시스템의 전체적인 구성을 도시하는 도면이다.
도 2는 일 실시예에 따른 접촉 피부염의 원인을 추정하는 딥러닝 모델을 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 접촉 피부염의 원인 추정 방법의 동작을 도시하는 흐름도이다.
도 4는 일 실시예에 따른 사용자 문진 데이터에 기반하여 진단 결과를 조정하는 것을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 접촉 피부염의 원인 추정 장치의 구성을 도시하는 블록도이다.
도 6은 일 실시예에 따른 사용자 단말의 구성을 도시하는 블록도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안 된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 실시예에 따른 피부 질환 진단 시스템의 전체적인 구성을 도시하는 도면이다.
도 1을 참조하면, 일 실시예에 따른 피부 질환 진단 시스템은 접촉 피부염에 대한 피부 병변이 나타난 영상 데이터와 사용자 문진 데이터에 기반하여 접촉 피부염의 원인 또는 원인 물질을 추정하여 사용자에게 제공할 수 있다. 어떤 실시예에서, 피부 질환 진단 시스템은 여러 피부 질환(예: 급성 및 만성 두드러기, 지루각화증, 건선, 여드름, 대상 포진, 바이러스성 사마귀, 접촉성 피부염, 아토피피부염)을 진단할 수 있다. 피부 질환 진단 시스템은 사용자 단말(100), 피부 질환 진단 서버(110), 데이터 백업 서버(120) 및 진단자 단말(130)을 포함할 수 있다. 피부 질환 진단 서버(110)는 클라우드 서버로 구현될 수 있고, 서비스 서버(112), 분석 서버(114) 및 스토리지(116)를 포함할 수 있다. 피부 질환 진단 서버(110) 및 데이터 백업 서버(120)는 각각 '피부 질환 진단 장치' 및 '데이터 백업 장치'로 대체될 수 있고, 서비스 서버(112) 및 분석 서버(114)는 각각 '서비스 관리 장치' 및 '분석 장치'로 대체될 수 있다. 본 명세서에서 피부 질환 진단 서버(110)는 접촉 피부염의 원인 추정 장치(예: 도 5의 원인 추정 장치(500))에 대응할 수 있다. 본 명세서에서 피부 질환에 대한 '진단'은 컴퓨팅 장치가 입력 데이터(예: 사용자 문진 데이터, 영상 데이터)를 기반으로 분석하여 피부 병변에 대한 진단 데이터를 생성하는 것을 의미할 수 있다.
사용자 단말(100)은 피부 질환 진단을 원하는 사용자의 단말로서, 예를 들어 스마트폰, 태블릿 컴퓨터, PDA, 퍼스널 컴퓨터, 랩탑 컴퓨터 노트북 등일 수 있으나 이에 제한되는 것은 아니다. 사용자 단말(100)은 피부 질환 진단 서버(110)에 사용자 정보(예: 나이, 성별, 병력 등)가 포함된 사용자 데이터, 사용자 문진 데이터, 피부 질환과 관련된 영상 데이터를 전송할 수 있다. 피부 질환과 관련된 영상 데이터는 사용자의 피부 병변이 나타난 피부 영상 데이터일 수 있다. 일 실시예에서, 사용자 단말(100)의 사용자는 애플리케이션 프로그램을 통해 사용자 데이터를 입력하고, 사용자 문진 데이터를 작성할 수 있다. 또한, 사용자는 해당 애플리케이션 프로그램에서 제공하는 기능을 통해 피부 병변 영역을 촬영하여 영상 데이터를 생성할 수도 있다.
서비스 서버(112)는 사용자 단말(100)로부터 사용자 데이터, 사용자 문진 데이터 및 영상 데이터를 수신하고, 수신한 사용자 데이터, 사용자 문진 데이터 및 영상 데이터를 스토리지(116)에 저장할 수 있다. 또한, 서비스 서버(112)는 분석 서버(114)에 사용자가 요청한 피부 질환에 대한 분석을 요청하기 위한 요청 신호를 전송할 수 있다. 요청 신호를 수신한 분석 서버(114)는 스토리지(116)로부터 분석에 이용할 데이터(사용자 데이터, 사용자 문진 데이터, 영상 데이터)를 검색하고, 검색한 데이터를 이용하여 사용자의 피부 질환을 분석할 수 있다. 분석 서버(114)는 딥러닝 모델의 분석 모델에 기초하여 사용자의 피부 질환을 분석하여 분석 결과를 도출할 수 있다. 분석 서버(114)는 예를 들어 사용자의 피부 질환의 종류가 무엇인지, 피부 질환의 가능한 원인들이 무엇인지 등에 대한 분석 결과를 제공할 수 있다.
분석 모델은 예를 들어 심층 뉴럴 네트워크(deep neural network, DNN), 컨볼루션 뉴럴 네트워크(convolutional neural network; CNN), 재귀적 뉴럴 네트워크(recurrent neural network, RNN), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 이들 중 둘 이상의 조합 중 하나일 수 있으며, 전술한 예에 한정되지 않는다. 분석 모델의 적어도 일부는 소프트웨어로 구현되거나, 뉴럴 프로세서(neural processor)를 포함하는 하드웨어로 구현되거나, 또는 소프트웨어 및 하드웨어의 조합으로 구현될 수 있다.
일 실시예에서, 분석 모델은 학습 장치에 의해 학습된 모델일 수 있다. 학습 장치는 분석 모델로부터 출력된 결과 값에 기초하여 분석 모델의 파라미터들(예: 뉴럴 네트워크의 가중치(weight), 바이어스(bias))을 업데이트할 수 있다. 예를 들어, 학습 장치는 분석 모델에 학습 데이터를 입력하여 출력된 결과 값과 학습 데이터에 대응하는 목적 값 간의 차이에 기초하여 손실(loss)을 계산하고, 해당 손실이 줄어들도록 분석 모델의 파라미터들을 조정할 수 있다. 손실을 계산하기 위해 다양한 손실 함수가 이용될 수 있고, 파라미터들의 조정은 예를 들어 역전파(back propagation) 알고리즘에 의해 이루어질 수 있다. 학습 장치는 많은 수의 학습 데이터 각각에 대해 이와 같은 과정을 반복적으로 수행할 수 있고, 이를 통해 분석 모델의 파라미터들은 점차 바람직한 방향으로 조정될 수 있다. 학습 장치는 여기서 설명된 학습 방법 이외에도 다양한 기계 학습 알고리즘을 이용하여 분석 모델을 학습시킬 수 있다.
분석 서버(114)에 의해 생성된 분석 결과 데이터는 스토리지(116)로 전달되어 스토리지에 저장될 수 있다. 스토리지(116)에 저장된 분석 결과 데이터는 서비스 서버(112)에 전송되고, 서비스 서버(112)는 분석 결과 데이터를 사용자 단말(100)에 제공할 수 있다. 예를 들어, 피부 질환 종류, 피부 질환의 원인 추정 물질 리스트, 접촉 피부염의 원인별 대응 조치 방안, 사용자에게 추천할 피부과 등에 대한 정보가 사용자 단말(100)에 전송될 수 있다. 피부 질환 진단 서버(110)는 위치 기반 서비스를 통해 사용자의 주변의 적합한 피부과를 추천해 줄 수 있고, 사용자의 동의 하에 사용자 데이터, 사용자 문진 데이터, 피부 영상 데이터, 진단 결과 데이터를 피부과의 의료 기관에 전송할 수 있다. 사용자 단말(100)의 애플리케이션 프로그램은 해당 정보를 사용자에게 제공할 수 있다. 사용자는 사용자 단말(100)에서 실행되는 애플리케이션을 통해 병원에 방문하지 않고, 또는 의사와 대면하지 않고도 피부 질환에 대한 정보와 대응 방안에 대한 정보 등을 제공받을 수 있다.
피부 질환 진단 서버(110)는 피부 질환 진단에 이용된 데이터(예: 사용자 데이터, 사용자 문진 데이터, 영상 데이터)와 진단 결과 데이터를 데이터 백업 서버(120)에 전달하여 데이터 백업을 수행할 수 있다. 데이터 백업 서버(120)는 분석 서버(114)가 이용하는 분석 모델을 지속적으로 업데이트할 수도 있다.
실시예에 따라, 피부 질환 진단 서버(110)는 사용자 단말(100)로부터 수신한 데이터(예: 사용자 데이터, 사용자 문진 데이터, 영상 데이터)를 의료진의 단말인 진단자 단말(130)에 제공할 수도 있고, 또는 사용자 단말(100)로부터 직접 진단자 단말(130)로 해당 데이터가 전송될 수도 있다. 또한, 피부 질환 진단 서버(110)로부터 진단 결과 데이터가 진단자 단말(130)로 전송될 수 있다. 진단자 단말(130)의 진단자(예: 의료진)는 수신한 데이터를 기초로 사용자의 피부 질환을 진단하고, 진단 결과를 피부 질환 서버(110)를 통해 사용자 단말(100)의 사용자에게 제공하거나, 또는 피부 질환 진단 서버(110)가 진단한 피부 질환 진단 결과를 검증할 수 있다.
사용자는 위와 같은 피부 질환 진단 시스템을 통해 사용자 단말(100)의 애플리케이션 프로그램을 이용하여 알러지성 접촉 피부염의 원인에 대한 자가 모니터링을 수행할 수 있다. 또한, 의료인과 같은 진단자는 피부 질환 진단 시스템이 제공하는 알러지성 접촉 피부염에 대한 진단 정보를 보조적으로 이용하여 보다 정확히 피부 질환을 진단할 수 있게 된다. 또한, 위 설명된 피부 질환 진단 시스템을 통해 사용자는 빠르고 정확하게 피부 질환 진단에 대한 도움을 받을 수 있다.
도 2는 일 실시예에 따른 접촉 피부염의 원인을 추정하는 딥러닝 모델을 설명하기 위한 도면이다.
도 2를 참조하면, 원인 추정 장치(예: 도 5의 원인 추정 장치(500))는 사용자 문진 데이터(220)와 피부 영상 데이터(210)에 기초하여 알러지성 접촉 피부염의 원인을 추정할 수 있다.
실시예에 따라, 원인 추정 장치는 피부 영상 데이터(210)로부터 피부 병변 영역을 추출하여 피부 병변 영역이 구별된 피부 병변 영상 데이터(215)를 생성할 수 있고, 이 원인 추정 장치는 피부 영상 데이터(210), 피부 병변 영상 데이터(215) 및 사용자 문진 데이터(220)에 기반하여 접촉 피부염의 원인을 추정할 수도 있다. 원인 추정 장치는 학습된 딥러닝 모델을 이용하여 피부 영상 데이터(210)로부터 피부 병변 영역을 추출하여 피부 병변 영역이 구별된 피부 병변 영상 데이터(215)를 생성할 수 있다. 영상 피부 영상 데이터(210)를 통해 각 영역의 밝기 정보를 얻을 수 있고, 피부 병변 영상 데이터(215)를 통해 피부의 위상 패턴(topological pattern) 정보를 얻을 수 있다. 딥러닝 모델(200)은 이렇게 얻은 밝기 정보와 위상 패턴 정보에 기초하여 접촉 피부염의 원인을 추정할 수 있다.
일 실시예에서, 사용자 문진 데이터(220)는 사용자가 사용자 단말에 설치된 애플리케이션이나 사이트를 통해 입력한 정보로부터 획득될 수 있다. 예를 들어, 사용자 문진 데이터(220)는 사용자의 나이, 원발성 피부 발진(primary skin eruption) 여부, 발진 패턴(rash patterns)(예: 원형, 타원형, 불규칙형), 크기, 패치(patch), 피부 병변이 양측성 또는 일측성인지 여부, 발진의 색깔, 염증성 피부병의 개인 병력 등에 대한 문진 데이터를 포함할 수 있다. 예를 들어, 연령의 경우 접촉성 피부 질환에서 중요한 특징 중 하나이다. 일반적으로 아토피 피부염과 심상성 여드름은 청소년기에 만연하지만, 지루성 각화증은 노년기에 만연하기 때문에, 연령에 대한 정보는 접촉성 피부염의 타입과 원인을 결정하는데 도움을 준다.
일 실시예에서, 사용자 단말의 애플리케이션은 사용자에게 사용자 문진 데이터(220)의 획득을 위한 질문들을 제공할 수 있다. 예를 들어, 애플리케이션은 '피부 질환의 증상이 생긴 시점 ', '환부의 현재 증상', '과거 증상 이력', '환부에 대한 촉감', '피부 질환에 대한 가족력', '다른 질병 유무', '복용 중인 약', '알러지성 피부 질환 관련 원인 가능성', '감염성 피부 질환 관련 원인 가능성', '피부 원발진', 피부 속발진', '발진 패턴', '피부 병변 경계의 모양', '동반 피부 증상', '동반 전신 증상', '피부 병변의 색조', '피부 병변의 개수', '피부 병변의 크기' 및 '피부 발진의 분포 양상'에 관하여 사용자로부터 선택/입력 정보를 수신하고, 수신한 선택/입력 정보를 기초로 사용자 문진 데이터(220)를 결정할 수 있다.
원인 추정 장치는 학습된 딥러닝 모델(200)을 이용하여 접촉 피부염의 원인에 대한 진단 결과를 획득할 수 있다. 학습된 딥러닝 모델(200)은 예를 들어 컨볼루션 뉴럴 네트워크(convolutional neural network, CNN), 딥 뉴럴 네트워크, 리커런트 뉴럴 네트워크(recurrent neural network, RNN), 랜덤 포레스트(random forest) 등에 기반할 수 있으나, 이에 제한되는 것은 아니다. 딥러닝 모델(200)에 피부 영상 데이터(210)(또는 추가적으로 피부 병변 영상 데이터(215)) 및 사용자 문진 데이터(220)가 입력되고, 딥러닝 모델(200)로부터 접촉 피부염의 원인에 대한 진단 데이터(230)가 출력될 수 있다. 진단 데이터(230)는 피부 질환의 원인에 대한 정보를 포함하고, 구체적으로는 피부 질환의 원인 항목들과 각 원인 항목들에 대한 가능성 수치를 포함할 수 있다. 진단 데이터(230)는 알러지성 접촉 피부염의 원인에 해당할 수 있는 항목 리스트(예: 염색약, 화장품, 연고, 액세서리 등)과 각 항목이 접촉 피부염의 실제 원인에 해당할 확률 정보를 제공할 수 있다.
딥러닝 모델(200)은 기존 환자의 데이터 및 오픈 빅데이터에 기초하여 구축된 지도 학습 데이터나 비지도 학습 데이터의 데이터셋에 기초하여 학습된 모델일 수 있다. 딥러닝 모델(200)은 피부 병변이 나타난 이미지 데이터, 사용자 문진 데이터와 이미지 데이터에 대응하는 진단 결과 데이터를 포함하는 학습 데이터에 기초하여 학습될 수 있다. 딥러닝 모델(200)의 학습 과정에서는 이미지 데이터 및 사용자 문진 데이터를 입력받아 이미지 데이터와 사용자 문진 데이터에 대응하는 진단 결과 데이터를 출력하도록 딥러닝 모델(200)의 파라미터들(예: 연결 가중치)이 조정될 수 있다.
딥러닝 모델(200)은 입력된 피부 영상 데이터(210), 피부 병변 영상 데이터(215), 사용자 문진 데이터(220)로부터 특징을 추출하고, 추출된 특징에 기초하여 진단 데이터(230)를 생성할 수 있다. 원인 추정 장치는 딥러닝 모델(200)을 이용하여 기존 첩포 검사를 대신할 환자의 영상 데이터와 사용자 문진 데이터(추가적으로 사용자 데이터)로부터 알러지성 접촉 피부염의 원인을 빠르고 정확하게 추정할 수 있다.
딥러닝 모델(200)은 예를 들어 심층 뉴럴 네트워크(deep neural network, DNN), 컨볼루션 뉴럴 네트워크(convolutional neural network; CNN), 재귀적 뉴럴 네트워크(recurrent neural network, RNN), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 이들 중 둘 이상의 조합 중 하나일 수 있으며, 전술한 예에 한정되지 않는다. 분석 모델의 적어도 일부는 소프트웨어로 구현되거나, 뉴럴 프로세서(neural processor)를 포함하는 하드웨어로 구현되거나, 또는 소프트웨어 및 하드웨어의 조합으로 구현될 수 있다.
일 실시예에서, 딥러닝 모델(200)은 학습 장치에 의해 학습된 모델일 수 있다. 학습 장치는 딥러닝 모델(200)로부터 출력된 결과 값에 기초하여 분석 모델의 파라미터들(예: 뉴럴 네트워크의 가중치(weight), 바이어스(bias))을 업데이트할 수 있다. 예를 들어, 학습 장치는 딥러닝 모델(200)에 학습 데이터를 입력하여 출력된 결과 값과 학습 데이터에 대응하는 목적 값 간의 차이에 기초하여 손실(loss)을 계산하고, 해당 손실이 줄어들도록 딥러닝 모델(200)의 파라미터들을 조정할 수 있다. 손실을 계산하기 위해 다양한 손실 함수가 이용될 수 있고, 파라미터들의 조정은 예를 들어 역전파(back propagation) 알고리즘에 의해 이루어질 수 있다. 학습 장치는 많은 수의 학습 데이터 각각에 대해 이와 같은 과정을 반복적으로 수행할 수 있고, 이를 통해 딥러닝 모델(200)의 파라미터들은 점차 바람직한 방향으로 조정될 수 있다. 학습 장치는 여기서 설명된 학습 방법 이외에도 다양한 기계 학습 알고리즘을 이용하여 딥러닝 모델(200)을 학습시킬 수 있다.
도 3은 일 실시예에 따른 접촉 피부염의 원인 추정 방법의 동작을 도시하는 흐름도이다. 원인 추정 방법은 본 명세서에서 설명되는 원인 추정 장치(예: 도 5의 원인 추정 장치(500))에 의해 수행될 수 있다.
도 3을 참조하면, 단계(310)에서 원인 추정 장치는 사용자 단말로부터 피부 질환의 원인을 추정하기 위한 피부 영상 데이터와 해당 피부 질환과 관련된 사용자 문진 데이터를 수신할 수 있다.
실시예에 따라, 원인 추정 장치는 피부 병변이 나타난 피부 영상 데이터에 대해 영상 전처리를 수행할 수 있다. 예를 들어, 원인 추정 장치는 영상 데이터에서 노이즈를 제거하고, 영상의 크기를 미리 정해진 기준 크기로 조정함으로써 전처리된 영상 데이터를 획득할 수 있다.
사용자는 사용자 단말(예: 도 1의 사용자 단말(100))의 애플리케이션 프로그램에 출력된 문진 항목들에 대해 해당되는 사항을 선택하거나 관련 내용을 입력할 수 있고, 이를 통해 사용자 문진 데이터가 생성될 수 있고, 생성된 사용자 문진 데이터가 원인 추정 장치로 전송될 수 있다. 사용자 문진 데이터의 경우, 피부 영상 데이터에 나타난 신체 부위 또는 사용자 선택에 따른 대상 신체 부위별로 문진 항목들이 선별하여 사용자에게 제공될 수 있다. 원인 추정 장치는 피부 영상 데이터로부터 피부 질환이 나타난 신체 부위를 식별하거나 또는 사용자의 선택에 의해 피부 질환이 나타난 신체 부위를 결정할 수 있다. 원인 추정 장치는 피부 질환이 나타난 신체 부위에 대응하는 미리 정의된 문진 항목들을 상기 사용자 단말을 통해 제공할 수 있고, 문진 항목들 각각에 대응하는 사용자의 응답 정보를 포함하는 사용자 문진 데이터를 획득할 수 있다.
사용자 문진 데이터는 예를 들어, 피부 병변의 징후가 나타난 사용자의 직업, 사용자에게 피부 병변이 나타나기 이전의 행동, 피부 병변이 나타난 신체 부위 및 피부 병변과 관련된 사용자의 특징 중 적어도 하나를 포함할 수 있다. 피부 병변과 관련된 사용자의 특징은 사용자가 여행을 다녀온 이력이 있는지에 대한 정보를 포함하고, 여행을 다녀온 이력이 있다면 여행지에 대한 정보를 포함할 수 있다. 또한, 피부 병변과 관련된 사용자의 특징은 사용자의 취미, 사용자의 염색 여부, 사용자의 액세서리 착용 여부, 사용자의 향수 사용 여부 및 사용자의 최근 화장품 교체 여부 등과 같이 사용자의 피부에 가려움이나 발진 등을 일으킬 수 있는 요소와 관련된 사용자의 특이 사항들을 포함할 수 있다.
일 실시예에서, 사용자 문진 데이터를 획득하는 과정에서 사용자 문진 데이터의 정형 알고리즘이 수행될 수 있다. 예를 들어, 문진 결과에서 이상치를 제거하는 과정이나 임상학적으로 유의미한 문진 항목을 선별하여 제공하는 과정이 수행될 수 있다.
단계(320)에서, 원인 추정 장치는 학습된 딥러닝 모델을 이용하여 피부 영상 데이터 및 사용자 문진 데이터로부터 피부 질환의 원인에 대한 정보를 포함하는 결과 데이터를 획득할 수 있다. 결과 데이터는 피부 질환의 원인 항목들과 각 원인 항목들의 가능성 수치를 포함할 수 있다.
다른 실시예에서, 원인 추정 장치는 피부 영상 데이터와 사용자 문진 데이터 각각에 대해 결과 데이터에 영향을 미치는 정도를 나타내는 가중치를 결정하고, 가중치를 상기 피부 영상 데이터 및 사용자 문진 데이터에 적용한 결과에 기초하여 결과 데이터를 획득할 수 있다. 원인 추정 장치는 피부 영상 데이터와 사용자 문진 데이터에 가중치를 적용하여 어느 데이터에 더 비중을 둘지를 결정할 수 있다. 예를 들어, 원인 추정 장치는 사용자 문진 데이터에 유의미한 정보가 적다고 판단되면, 피부 영상 데이터의 가중치를 사용자 문진 데이터의 가중치보다 크게 설정하여, 주로 피부 영상 데이터에 기초하여 결과 데이터가 생성하도록 제어할 수 있다. 이러한 가중치는 별도의 사용자 문진 데이터 분석 모델을 통해 결정될 수 있다.
또 다른 실시예에서, 원인 추정 장치는 피부 영상 데이터로부터 피부 병변 영역을 추출하고, 추출한 피부 병변 영역이 구분된 피부 병변 영상 데이터를 생성할 수 있다. 예를 들어, 원인 추정 장치는 피부 영상 데이터에서 피부 영역을 추출하고, 추출된 피부 영역에서 피부 병변이 나타난 영역을 추출하여 피부 병변 영상 데이터를 생성할 수 있다. 이 경우 원인 추정 장치는 피부 영상 데이터, 피부 병변 영상 데이터 및 사용자 문진 데이터에 기초하여 결과 데이터를 획득할 수 있다. 피부 영상 데이터, 피부 병변 영상 데이터 및 사용자 문진 데이터가 학습된 딥러닝 모델에 입력되고, 딥러닝 모델은 입력된 데이터들을 기초로 알러지성 접촉 피부염 진단에 대한 결과 데이터를 출력할 수 있다.
실시예에 따라, 사용자 문진 데이터는 피부 질환의 원인 항목들에 대한 사용자 추정 정보를 포함할 수 있다. 예를 들어, 사용자 문진 데이터는 사용자가 예시적인 피부 질환의 원인 항목들 각각에 대하여 접촉 피부염의 원인에 해당할 가능성이 높다고 선택한 원인 항목이나 접촉 피부염의 원인에 해당하지 않을 가능성이 높다고 선택한 원인 항목에 대한 정보를 포함할 수 있다. 이 경우, 원인 추정 장치는 피부 질환의 원인 항목들에 대한 사용자 추정 정보에 기초한 가중치를 피부 질환의 원인 항목들의 가능성 수치에 적용하여 진단 결과 데이터를 조정할 수 있다. 예를 들어, 원인 추정 장치는 사용자가 접촉 피부염의 원인에 해당하지 않을 가능성이 높다고 선택한 원인 항목은 결과 데이터의 원인 항목에서 제외하거나 해당 원인 항목의 가능성 수치를 줄이기 위한 가중치를 적용할 수 있다. 원인 추정 장치는 사용자가 접촉 피부염의 원인에 해당할 가능성이 높다고 선택한 원인 항목에 대해서는 해당 원인 항목의 가능성 수치를 높이기 위한 가중치를 적용할 수 있다.
단계(330)에서, 원인 추정 장치는 단계(320)에서 획득된 결과 데이터를 사용자 단말로 제공할 수 있다. 사용자 단말은 원인 추정 장치로부터 결과 데이터를 수신하고, 애플리케이션 프로그램을 통해 결과 데이터를 사용자에게 제공할 수 있다. 사용자는 결과 데이터를 통해 알러지성 접촉 피부염의 원인 항목들과 각 원인 항목에 대한 가능성 수치에 대한 정보, 원인 물질별 대응 조치 방안을 제공받을 수 있다. 이에 따라, 사용자는 알러지성 접촉 피부염에 대한 즉각적인 처치나 예방을 수행할 수 있게 된다.
위와 같이, 원인 추정 장치는 사용자 문진 데이터와 피부 영상 데이터를 이용하여 피부 질환의 원인을 추정하는 구성을 통해 피부 질환 진단의 정확도를 높이고, 사용자에게 피부 질환의 원인 정보를 제공하여 즉각적인 처치를 가능하게 한다는 유리한 효과를 제공한다. 결과적으로, 원인 추정 장치는 알러지성 접촉 피부염을 겪는 환자들에게 뛰어난 접근성을 제공하여 빠른 처치를 가능하게 함으로 의료비에 대한 절감과 피부 질환으로부터 벗어남으로 높은 삶의 질을 영위하게 할 수 있다.
도 4는 일 실시예에 따른 사용자 문진 데이터에 기반하여 진단 결과를 조정하는 것을 설명하기 위한 도면이다.
도 4를 참조하면, 원인 추정 장치는 사용자 단말로부터 피부 영상 데이터와 함께 사용자 문진 데이터를 수신(410)한다. 사용자 문진 데이터는 사용자 문진 데이터는 사용자가 예시적인 피부 질환의 원인 항목들 각각에 대하여 접촉 피부염의 원인에 해당할 가능성이 높다고 선택한 원인 항목이나 접촉 피부염의 원인에 해당하지 않을 가능성이 높다고 선택한 원인 항목에 대한 정보를 나타내는 원인 항목에 대한 사용자 추정 정보를 포함할 수 있다.
원인 추정 장치는 수신한 사용자 문진 데이터를 분석(420)한다. 원인 추정 장치는 사용자 문진 데이터에 포함된 사용자 추정 정보를 기초로 각각의 원인 항목에 적용될 가중치를 결정(430)하고, 결정된 가중치를 추정된 사용자의 접촉 피부염의 원인 항목들과 각 원인 항목들의 가능성 수치를 포함하는 결과 데이터 적용(440)할 수 있다. 예를 들어, 원인 추정 장치는 사용자가 접촉 피부염의 원인에 해당하지 않을 가능성이 높다고 선택한 원인 항목은 결과 데이터의 원인 항목에서 제외하거나 해당 원인 항목의 가능성 수치를 줄이기 위한 가중치를 결과 데이터 적용하고, 사용자가 접촉 피부염의 원인에 해당할 가능성이 높다고 선택한 원인 항목에 대해서는 해당 원인 항목의 가능성 수치를 높이기 위한 가중치를 결과 데이터에 적용할 수 있다.
결과 데이터에 가중치가 적용됨에 따라 원인 항목 리스트나 원인 항목별 가능성 수치가 수정될 수 있고, 원인 추정 장치는 수정된 결과 데이터를 사용자 단말에 제공(450)할 수 있다.
도 5는 일 실시예에 따른 접촉 피부염의 원인 추정 장치의 구성을 도시하는 블록도이다.
도 5를 참조하면, 원인 추정 장치(500)는 사용자가 제공한 피부 영상 데이터와 사용자 문진 데이터에 기반하여 알러지성 접촉 피부염의 원인을 추정하는 컴퓨팅 장치로, 도 1의 피부 질환 진단 서버(110)에 대응할 수 있다. 원인 추정 장치(500)는 프로세서(510), 메모리(520) 및 통신 장치(530)를 포함할 수 있으며, 원인 추정 장치(500)의 각 구성 요소들은 통신 버스(540)를 통해 서로 통신할 수 있다.
프로세서(510)는 원인 추정 장치(500)의 전체적인 동작을 제어한다. 프로세서(510)는 하나 또는 복수의 프로세서로 구성될 수 있고, 하나 또는 복수의 프로세서는 CPU(central processing unit), AP(application processor), DSP(digital signal processor) 등과 같은 범용 프로세서, GPU(graphic processor unit), VPU(vision processing unit) 등과 같은 그래픽 전용 프로세서, 또는 NPU(neural processing unit)을 포함할 수 있다.
메모리(520)는 프로세서(510)가 처리 동작을 수행하는데 필요한 정보를 저장한다. 예를 들어, 메모리(520)는 프로세서(510)에 의해 실행 가능한 인스트럭션들과 딥러닝 모델을 저장할 수 있고, 원인 추정 장치 (500)에서 소프트웨어 또는 프로그램이 실행되는 동안 관련 정보를 저장할 수 있다. 메모리(520)는 RAM, DRAM, SRAM과 같은 휘발성 메모리 및/또는 플래쉬 메모리와 같은 이 기술 분야에서 알려진 비휘발성 메모리를 포함할 수 있다.
프로세서(510)는 메모리(520)에 저장된 실행 가능한 인스트럭션들을 실행함으로써, 원인 추정 장치(500)가 도 1 내지 도 4를 통하여 전술한 하나 이상의 동작을 수행하도록 제어할 수 있다. 예를 들어, 프로세서(510)는 사용자 단말로부터 피부 질환의 원인을 추정하기 위한 피부 영상 데이터와 피부 질환과 관련된 사용자 문진 데이터를 수신할 수 있다. 일 실시예에서, 프로세서(510)는 피부 영상 데이터로부터 상기 피부 질환이 나타난 신체 부위를 식별하거나 또는 사용자의 선택에 의해 피부 질환이 나타난 신체 부위를 결정할 수 있다. 이 경우, 프로세서(510)는 피부 질환이 나타난 신체 부위에 대응하는 미리 정의된 문진 항목들을 상기 사용자 단말을 통해 제공하고, 문진 항목들 각각에 대응하는 사용자의 응답 정보를 포함하는 사용자 문진 데이터를 획득할 수 있다.
프로세서(510)는 학습된 딥러닝 모델을 이용하여 피부 영상 데이터 및 사용자 문진 데이터로부터 피부 질환의 원인에 대한 정보를 포함하는 결과 데이터를 획득할 수 있다. 결과 데이터는 피부 질환의 원인 항목들과 각 원인 항목들의 가능성 수치를 포함할 수 있다.
일 실시예에서, 프로세서(510)는 피부 영상 데이터와 사용자 문진 데이터 각각에 대해 결과 데이터에 영향을 미치는 정도를 나타내는 가중치를 결정하고, 가중치를 피부 영상 데이터 및 사용자 문진 데이터에 적용한 결과에 기초하여 결과 데이터를 획득할 수 있다.
다른 실시예에서, 사용자 문진 데이터는 피부 질환의 원인 항목들에 대한 사용자 추정 정보를 포함할 수 있고, 프로세서(510)는 피부 질환의 원인 항목들에 대한 사용자 추정 정보에 기초한 가중치를 피부 질환의 원인 항목들의 가능성 수치에 적용할 수 있다. 예를 들어, 사용자 문진 데이터는 사용자가 예시적인 피부 질환의 원인 항목들 각각에 대하여 접촉 피부염의 원인에 해당할 가능성이 높다고 선택한 원인 항목이나 접촉 피부염의 원인에 해당하지 않을 가능성이 높다고 선택한 원인 항목에 대한 정보를 포함할 수 있다. 프로세서(510)는 피부 질환의 원인 항목들에 대한 사용자 추정 정보에 기초한 가중치를 피부 질환의 원인 항목들의 가능성 수치에 적용하여 진단 결과 데이터를 조정할 수 있다. 예를 들어, 프로세서(510)는 사용자가 접촉 피부염의 원인에 해당하지 않을 가능성이 높다고 선택한 원인 항목은 결과 데이터의 원인 항목에서 제외하거나 해당 원인 항목의 가능성 수치를 줄이기 위한 가중치를 적용할 수 있다. 프로세서(510)는 사용자가 접촉 피부염의 원인에 해당할 가능성이 높다고 선택한 원인 항목에 대해서는 해당 원인 항목의 가능성 수치를 높이기 위한 가중치를 적용할 수 있다.
프로세서(510)는 위와 같은 과정을 통해 획득된 접촉 피부염 진단의 결과 데이터를 사용자 단말로 제공할 수 있다.
통신 장치(530)는 원인 추정 장치(500)와 외부의 장치 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 일 실시예에 따르면, 통신 장치(530)는 무선 통신 모듈 (예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈 (예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 무선 통신 모듈은 근거리 통신 네트워크(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)) 또는 원거리 통신 네트워크(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN))를 통하여 외부의 장치와 통신할 수 있다.
도 6은 일 실시예에 따른 사용자 단말의 구성을 도시하는 블록도이다.
도 6을 참조하면, 사용자 단말(600)은 본 명세서에서 설명된 사용자 단말(예: 도 1의 사용자 단말(100))에 대응할 수 있다. 사용자 단말(600)은 프로세서(610), 저장 장치(620) 및 통신기(630)를 포함할 수 있다. 사용자 단말(600)의 구성 요소들은 통신 버스(635)를 통해 서로 통신할 수 있다. 또한, 사용자 단말(600)은 실시예에 따라 사용자 입력 인터페이스(640) 디스플레이(650) 및 카메라(660)를 더 포함할 수도 있다.
저장 장치(620)는 프로세서(610)에 연결되고, 프로세서(610)에 의해 실행가능한 인스트럭션들, 프로세서(610)가 연산할 데이터 또는 프로세서(610)에 의해 처리된 데이터를 저장할 수 있다. 예를 들어, 저장 장치(620)는 비일시적인 컴퓨터 판독가능 매체, 예컨대 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체(예컨대, 하나 이상의 디스크 저장 장치, 플래쉬 메모리 장치, 또는 기타 비휘발성 솔리드 스테이트 메모리 장치), 광학적 기록 매체를 포함할 수 있다.
통신기(630)는 외부 장치(예: 원인 추정 장치(500), 피부 질환 서버(110))와 통신하기 위한 인터페이스를 제공한다. 예를 들어, 통신기(630)는 유선 또는 무선 네트워크를 통해 외부 장치와 통신할 수 있다. 통신기(630)는 피부 영상 데이터 및 사용자 문진 데이터를 원인 추정 장치에 전송할 수 있고, 원인 추정 장치로부터 피부 질환 진단에 대한 결과 데이터를 수신할 수 있다. 실시예에 따르면, 통신기(630)는 무선 통신 모듈 (예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈 (예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 무선 통신 모듈은 근거리 통신 네트워크(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)) 또는 원거리 통신 네트워크(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN))를 통하여 외부의 장치와 통신할 수 있다.
디스플레이(650)는 사용자 단말(600)이 알러지성 접촉 피부염의 원인 분석 정보를 제공받는 것과 관련된 화면을 디스플레이할 수 있다. 예를 들어, 디스플레이(650)는 알러지성 접촉 피부염의 원인을 검출하는 것과 관련된 애플리케이션 프로그램을 실행하는 것과 관련된 화면을 디스플레이할 수 있고, 원인 추정 장치로부터 수신한 결과 데이터를 디스플레이할 수 있다. 카메라(660)는 피부 병변이 나타난 피부 영상 데이터를 획득할 수 있다.
사용자 입력 인터페이스(640)는 사용자에 의해 입력되는 애플리케이션 프로그램에 대한 실행 요청 및 사용자 문진 항목에 대한 입력 데이터를 수신할 수 있다. 예를 들어 사용자 입력 인터페이스(640)는 터치 스크린, 키보드, 터치 입력 장치 등이 해당될 수 있다.
프로세서(610)는 사용자 단말(600)의 동작과 관련된 하나 이상의 동작을 사용자 단말(600)이 수행할 수 있도록 사용자 단말(600)을 제어할 수 있다.
예를 들어, 프로세서(610)는 사용자 단말(600)이 애플리케이션 프로그램을 실행하도록 제어하고, 사용자 입력을 통해 사용자 문진 데이터를 획득하고, 피부 영상 데이터를 획득하도록 사용자 단말(600)을 제어할 수 있다. 또한, 프로세서(610)는 사용자 단말(600)이 피부 영상 데이터 및 사용자 문진 데이터를 원인 추정 장치에 전송하고, 해당 전송에 응답하여, 원인 추정 장치로부터 피부 병변에 대한 진단 결과 데이터를 수신하도록 사용자 단말(600)을 제어할 수 있다.
사용자 단말(600)은 위 도 1 내지 도 5에서 설명된 사용자 단말의 하나 이상의 동작을 그대로 수행할 수 있으며, 중복되는 설명은 생략한다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 또는 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (10)

  1. 사용자 문진 데이터와 피부 영상 데이터를 이용한 접촉 피부염의 원인 추정 방법에 있어서,
    사용자 단말로부터 피부 질환의 원인을 추정하기 위한 피부 영상 데이터를 수신하는 단계;
    상기 피부 질환과 관련된 사용자 문진 데이터를 수신하는 단계;
    학습된 딥러닝 모델을 이용하여 상기 피부 영상 데이터 및 상기 사용자 문진 데이터로부터 상기 피부 질환의 원인에 대한 정보를 포함하는 결과 데이터를 획득하는 단계; 및
    상기 결과 데이터를 상기 사용자 단말로 제공하는 단계를 포함하고,
    상기 결과 데이터는,
    상기 피부 질환의 원인 항목들과 각 원인 항목들의 가능성 수치를 포함하는, 접촉 피부염의 원인 추정 방법.
  2. 제1항에 있어서,
    상기 사용자 문진 데이터를 수신하는 단계는,
    상기 피부 영상 데이터로부터 상기 피부 질환이 나타난 신체 부위를 식별하거나 또는 상기 사용자의 선택에 의해 상기 피부 질환이 나타난 신체 부위를 결정하는 단계;
    상기 피부 질환이 나타난 신체 부위에 대응하는 미리 정의된 문진 항목들을 상기 사용자 단말을 통해 제공하는 단계; 및
    상기 문진 항목들 각각에 대응하는 사용자의 응답 정보를 포함하는 사용자 문진 데이터를 획득하는 단계
    를 포함하는 접촉 피부염의 원인 추정 방법.
  3. 제1항에 있어서,
    상기 피부 영상 데이터로부터 피부 병변 영역을 추출하는 단계; 및
    상기 추출한 피부 병변 영역이 구분된 피부 병변 영상 데이터를 생성하는 단계
    를 더 포함하고,
    상기 결과 데이터를 획득하는 단계는,
    상기 피부 영상 데이터, 상기 피부 병변 영상 데이터 및 상기 사용자 문진 데이터에 기초하여 상기 결과 데이터를 획득하는 단계
    를 포함하는 접촉 피부염의 원인 추정 방법.
  4. 제1항에 있어서,
    상기 결과 데이터를 획득하는 단계는,
    상기 피부 영상 데이터와 상기 사용자 문진 데이터 각각에 대해 상기 결과 데이터에 영향을 미치는 정도를 나타내는 가중치를 결정하는 단계; 및
    상기 가중치를 상기 피부 영상 데이터 및 상기 사용자 문진 데이터에 적용한 결과에 기초하여 상기 결과 데이터를 획득하는 단계
    를 포함하는 접촉 피부염의 원인 추정 방법.
  5. 제1항에 있어서,
    상기 사용자 문진 데이터는,
    상기 피부 질환의 원인 항목들에 대한 사용자 추정 정보를 포함하고,
    상기 결과 데이터를 획득하는 단계는,
    상기 피부 질환의 원인 항목들에 대한 사용자 추정 정보에 기초한 가중치를 상기 피부 질환의 원인 항목들의 가능성 수치에 적용하는 단계
    를 포함하는 접촉 피부염의 원인 추정 방법.
  6. 사용자 문진 데이터와 피부 영상 데이터를 이용한 접촉 피부염의 원인 추정 장치에 있어서,
    메모리 및 프로세서를 포함하고,
    상기 메모리는 상기 프로세서에 의해 실행 가능한 인스트럭션들(instructions)을 저장하고,
    상기 인스트럭션들이 상기 프로세서에 의해 실행될 때, 상기 프로세서는,
    사용자 단말로부터 피부 질환의 원인을 추정하기 위한 피부 영상 데이터를 수신하고,
    상기 피부 질환과 관련된 사용자 문진 데이터를 수신하고,
    학습된 딥러닝 모델을 이용하여 상기 피부 영상 데이터 및 상기 사용자 문진 데이터로부터 상기 피부 질환의 원인에 대한 정보를 포함하는 결과 데이터를 획득하고,
    상기 결과 데이터를 상기 사용자 단말로 제공하고,
    상기 결과 데이터는, 상기 피부 질환의 원인 항목들과 각 원인 항목들의 가능성 수치를 포함하는,
    접촉 피부염의 원인 추정 장치.
  7. 제6항에 있어서,
    상기 프로세서는,
    상기 피부 영상 데이터로부터 상기 피부 질환이 나타난 신체 부위를 식별하거나 또는 상기 사용자의 선택에 의해 상기 피부 질환이 나타난 신체 부위를 결정하고,
    상기 피부 질환이 나타난 신체 부위에 대응하는 미리 정의된 문진 항목들을 상기 사용자 단말을 통해 제공하고,
    상기 문진 항목들 각각에 대응하는 사용자의 응답 정보를 포함하는 사용자 문진 데이터를 획득하는,
    접촉 피부염의 원인 추정 장치
  8. 제6항에 있어서,
    상기 프로세서는,
    상기 피부 영상 데이터와 상기 사용자 문진 데이터 각각에 대해 상기 결과 데이터에 영향을 미치는 정도를 나타내는 가중치를 결정하고,
    상기 가중치를 상기 피부 영상 데이터 및 상기 사용자 문진 데이터에 적용한 결과에 기초하여 상기 결과 데이터를 획득하는,
    접촉 피부염의 원인 추정 장치.
  9. 제6항에 있어서,
    상기 사용자 문진 데이터는,
    상기 피부 질환의 원인 항목들에 대한 사용자 추정 정보를 포함하고,
    상기 프로세서는,
    상기 피부 질환의 원인 항목들에 대한 사용자 추정 정보에 기초한 가중치를 상기 피부 질환의 원인 항목들의 가능성 수치에 적용하는,
    접촉 피부염의 원인 추정 장치.
  10. 제6항에 있어서,
    상기 프로세서는,
    상기 피부 영상 데이터로부터 피부 병변 영역을 추출하고,
    상기 추출한 피부 병변 영역이 구분된 피부 병변 영상 데이터를 생성하고,
    상기 피부 영상 데이터, 상기 피부 병변 영상 데이터 및 상기 사용자 문진 데이터에 기초하여 상기 결과 데이터를 획득하는,
    접촉 피부염의 원인 추정 장치.
PCT/KR2022/012033 2021-08-11 2022-08-11 사용자 문진 데이터와 피부 영상 데이터를 이용한 접촉 피부염의 원인 추정 방법 및 장치 WO2023018257A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0106133 2021-08-11
KR20210106133 2021-08-11

Publications (1)

Publication Number Publication Date
WO2023018257A1 true WO2023018257A1 (ko) 2023-02-16

Family

ID=85200144

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/012033 WO2023018257A1 (ko) 2021-08-11 2022-08-11 사용자 문진 데이터와 피부 영상 데이터를 이용한 접촉 피부염의 원인 추정 방법 및 장치

Country Status (2)

Country Link
KR (1) KR20230024233A (ko)
WO (1) WO2023018257A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170107778A (ko) * 2016-03-16 2017-09-26 동국대학교 산학협력단 피부질환 진단 방법 및 피부질환 진단 시스템
KR20190079157A (ko) * 2017-12-27 2019-07-05 임민혁 온라인 기반의 건강 관리 방법 및 장치
KR20200030137A (ko) * 2018-09-06 2020-03-20 주식회사 비즈모델라인 피부 상태 분석정보 제공 방법
US10878567B1 (en) * 2019-09-18 2020-12-29 Triage Technologies Inc. System to collect and identify skin conditions from images and expert knowledge
KR102211852B1 (ko) * 2020-03-20 2021-02-03 주식회사 루닛 데이터의 특징점을 취합하여 기계 학습하는 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170107778A (ko) * 2016-03-16 2017-09-26 동국대학교 산학협력단 피부질환 진단 방법 및 피부질환 진단 시스템
KR20190079157A (ko) * 2017-12-27 2019-07-05 임민혁 온라인 기반의 건강 관리 방법 및 장치
KR20200030137A (ko) * 2018-09-06 2020-03-20 주식회사 비즈모델라인 피부 상태 분석정보 제공 방법
US10878567B1 (en) * 2019-09-18 2020-12-29 Triage Technologies Inc. System to collect and identify skin conditions from images and expert knowledge
KR102211852B1 (ko) * 2020-03-20 2021-02-03 주식회사 루닛 데이터의 특징점을 취합하여 기계 학습하는 방법 및 장치

Also Published As

Publication number Publication date
KR20230024233A (ko) 2023-02-20

Similar Documents

Publication Publication Date Title
Keel et al. Development and validation of a deep‐learning algorithm for the detection of neovascular age‐related macular degeneration from colour fundus photographs
Bellemo et al. Artificial intelligence screening for diabetic retinopathy: the real-world emerging application
Pan et al. Multi-label classification of retinal lesions in diabetic retinopathy for automatic analysis of fundus fluorescein angiography based on deep learning
WO2020054918A1 (ko) 인지 장애 진단 방법 및 컴퓨터 프로그램
WO2019182297A1 (ko) 임상실험 결과 예측 장치 및 방법
Yan et al. Attention‐based deep learning system for automated diagnoses of age‐related macular degeneration in optical coherence tomography images
Antonucci et al. Multivariate classification of schizophrenia and its familial risk based on load-dependent attentional control brain functional connectivity
WO2023273297A1 (zh) 基于多模态的活体检测方法、装置、电子设备及存储介质
WO2019225910A1 (ko) Nihss를 이용한 뇌졸중 중증도의 예측 및 분석 방법과 시스템
WO2021201582A1 (ko) 피부 병변의 원인 분석 방법 및 장치
Cai et al. DeepStroke: An efficient stroke screening framework for emergency rooms with multimodal adversarial deep learning
EP4049239A1 (en) Multi-variable heatmaps for computer-aided diagnostic models
Bhuiyan et al. Combined automated screening for age-related macular degeneration and diabetic retinopathy in primary care settings
WO2023018257A1 (ko) 사용자 문진 데이터와 피부 영상 데이터를 이용한 접촉 피부염의 원인 추정 방법 및 장치
CN112397195A (zh) 用于生成体格检查模型的方法、装置、电子设备和介质
WO2024080450A1 (ko) 행동 패턴 및 의료 영상을 이용한 정신 건강 질환 평가 방법 및 장치
Tian et al. Glaucoma Progression Detection and Humphrey Visual Field Prediction Using Discriminative and Generative Vision Transformers
WO2023085594A1 (ko) 인공지능 기반의 뇌졸중 재발 예측 및 관리 서비스 제공 방법 및 장치
Di Martino et al. A computational framework to support the treatment of bedsores during COVID-19 diffusion
WO2022119325A1 (ko) 두부단순촬영 영상을 활용한 수면 무호흡증 진단 보조 시스템 및 이를 이용한 진단 보조 정보의 제공 방법
WO2022031067A1 (ko) 챗봇을 이용한 피부 질환 진단 방법 및 장치
WO2024053996A1 (ko) 사마귀 또는 티눈 예측에 대한 정보 제공 방법 및 이를 이용한 장치
WO2024029697A1 (ko) 뇌질환 위험도를 예측하는 방법 및 뇌질환 위험도 분석 모델의 학습 방법
valli Gogula et al. A diabetic retinopathy detection method using an improved pillar K-means algorithm
WO2023195554A1 (ko) 녹내장 위험도 진단 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22856250

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22856250

Country of ref document: EP

Kind code of ref document: A1