KR20220129209A - 인공지능을 이용한 욕창 단계 평가 및 치료 추천을 제공하는 장치 및 방법 - Google Patents

인공지능을 이용한 욕창 단계 평가 및 치료 추천을 제공하는 장치 및 방법 Download PDF

Info

Publication number
KR20220129209A
KR20220129209A KR1020210033792A KR20210033792A KR20220129209A KR 20220129209 A KR20220129209 A KR 20220129209A KR 1020210033792 A KR1020210033792 A KR 1020210033792A KR 20210033792 A KR20210033792 A KR 20210033792A KR 20220129209 A KR20220129209 A KR 20220129209A
Authority
KR
South Korea
Prior art keywords
information
pressure
image data
bedsores
existing
Prior art date
Application number
KR1020210033792A
Other languages
English (en)
Other versions
KR102550631B1 (ko
Inventor
신현경
Original Assignee
(주)파인헬스케어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)파인헬스케어 filed Critical (주)파인헬스케어
Priority to KR1020210033792A priority Critical patent/KR102550631B1/ko
Priority to US17/693,667 priority patent/US20220301171A1/en
Publication of KR20220129209A publication Critical patent/KR20220129209A/ko
Application granted granted Critical
Publication of KR102550631B1 publication Critical patent/KR102550631B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/447Skin evaluation, e.g. for skin disorder diagnosis specially adapted for aiding the prevention of ulcer or pressure sore development, i.e. before the ulcer or sore has developed
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4836Diagnosis combined with treatment in closed-loop systems or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4842Monitoring progression or stage of a disease
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F13/00Bandages or dressings; Absorbent pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F13/00Bandages or dressings; Absorbent pads
    • A61F2013/00361Plasters
    • A61F2013/00365Plasters use
    • A61F2013/00387Plasters use skin protection
    • A61F2013/00404Plasters use skin protection against blisters or bed sores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Dermatology (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Bioethics (AREA)
  • Vascular Medicine (AREA)
  • Nursing (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)

Abstract

본 개시는 욕창 관리를 위한 장치 및 욕창 관리를 위한 장치의 동작 방법에 관한 것으로서, 본 개시는 욕창 관리를 위한 장치의 동작 방법은 복수의 기존 욕창의 영상 데이터를 획득하는 단계, 상기 복수의 기존 욕창의 영상 데이터에 대응되는 기존 욕창에 관한 정보를 획득하는 단계, 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창에 관한 정보 간의 관계를 CNN(Convolutional Neural Network)으로 학습하여 기계학습모델을 획득하는 단계, 현재 환자의 욕창 영상 데이터를 획득하는 단계, 상기 현재 환자의 욕창 영상 데이터에 상기 기계학습모델을 적용하여 상기 현재 환자의 욕창에 관한 정보 및 욕창 치료 정보를 결정하는 단계, 및 상기 현재 환자의 욕창에 관한 정보 또는 상기 욕창 치료 정보를 출력하는 단계를 포함하고, 상기 기존 욕창에 관한 정보는 상기 기존 욕창의 욕창 단계 정보 및 욕창 진단 정보 중 적어도 하나를 포함하고, 상기 현재 환자의 욕창에 관한 정보는 상기 현재 환자의 욕창의 욕창 단계 정보 및 욕창 진단 정보 중 적어도 하나를 포함하고, 상기 욕창 치료 정보는 욕창을 치료하기 위한 드레싱 정보를 포함하는 것을 특징으로 하는 욕창 관리 장치의 동작 방법이다.

Description

욕창 관리를 위한 장치 및 욕창 관리를 위한 장치의 동작 방법 {An apparatus for pressure sore management and operations thereof}
본 개시는 욕창 관리를 위한 장치 및 욕창 관리를 위한 장치의 동작 방법에 관한 것이다.
욕창이라 함은 환자의 몸무게에 눌린 피부와 혈액이 원할하지 못함에 따라 환자의 등, 허리, 어깨, 팔꿈치, 엉덩이 주변의 항문 등이 바닥면과 접촉되어 발생되는 피부 상해를 일컫는다. 일반적으로 욕창은 장기간 입원 중인 환자나 뇌 척수 신경 장애로 체위를 자유롭게 바꿀 수 없는 환자에게 발생된다. 또한, 욕창은 부목이나 깁스에 압박받아 생기는 경우에도 발생된다. 욕창 발생의 주된 요인은 장시간 피부와 딱딱한 물질 부위 압착이 지속적으로 진행될 경우, 피부 압착 부위에 습기가 발생하고 통풍이 이루어지지 않을 경우, 영양 부족 또는 청결 상태 또는 건강 상태가 좋지 않을 경우이다.
욕창이 발생하게 되면 압박된 부분의 혈행이 나빠지기 때문에 처음에는 창백해지고 주위가 붉어져 압통이 생기다가, 증상이 악화되면 수포(물집)가 생기고, 더 진행될 경우 거무스름 해지고 괴저를 일으킨 부분에 궤양이 형성되어 악취가 나는 분비물이 나오면서 위험한 수준에 이르게 된다.
욕창은 만성질환으로 오랜 기간 동안 관리해야 하므로 입원 치료보다는 재택 관리와 통원 치료를 병행하는 경우가 많으나, 질환의 특성상 대상 환자가 통원 치료를 진행하기에는 거동이 불편한 경우가 대부분이라는 문제점이 있다.
이에 욕창의 대상 환자가 통원 치료 또는 입원 치료를 하지 않고도 욕창을 관리하고 치료할 수 있게 함으로써 환자의 불편함을 해소하고, 경제적 및 사회적 비용을 줄일 수 있는 기술의 개발이 절실히 요망되고 있다.
한편, 영상 의료 기술 분야에서 인공지능기술이 활용되는 비중이 매우 높아지고 있다. 현대 의학에서 효과적인 질병의 진단 및 환자의 치료를 위해 의료영상은 매우 핵심적인 도구이며, 영상기술의 발달로 더욱 정교한 의료 영상 데이터를 획득 가능하게 되었고, 데이터의 양은 점차 방대해지고 있다. 방대하게 수집된 의료 데이터를 체계적으로 분석하여 질병의 발병 후 치료뿐만 아니라 질병을 예측할 수 있는 인공 지능 기술이 반드시 필요한 시점에 다가오고 있다.
본 개시의 욕창 관리 장치의 동작 방법은, 복수의 기존 욕창의 영상 데이터를 획득하는 단계, 상기 복수의 기존 욕창의 영상 데이터에 대응되는 기존 욕창에 관한 정보를 획득하는 단계, 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창에 관한 정보 간의 관계를 CNN(Convolutional Neural Network)으로 학습하여 기계학습모델을 획득하는 단계, 현재 환자의 욕창 영상 데이터를 획득하는 단계, 상기 현재 환자의 욕창 영상 데이터에 상기 기계학습모델을 적용하여 상기 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 결정하는 단계, 및 상기 현재 환자의 욕창에 관한 정보 또는 상기 욕창 치료 정보를 출력하는 단계를 포함하고, 상기 기존 욕창에 관한 정보 는 상기 기존 욕창의 욕창 단계 정보 및 욕창 진단 정보 중 적어도 하나를 포함하고, 상기 현재 환자의 욕창에 관한 정보는 상기 현재 환자의 욕창의 욕창 단계 정보 및 욕창 진단 정보 중 적어도 하나를 포함하고, 상기 욕창 치료 정보는 욕창을 치료하기 위한 드레싱 정보를 포함하는 것을 특징으로 한다.
본 개시의 욕창 관리 장치의 동작 방법에 있어서, 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창에 관한 정보 간의 관계를 CNN으로 학습하여 기계학습모델을 획득하는 단계는, 상기 복수의 기존 욕창의 영상 데이터를 전처리하는 단계, 상기 전처리된 영상 데이터로부터 이미지 특징 데이터를 추출하는 단계, 상기 이미지 특징 데이터를 이용하여 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창의 욕창 단계 정보 간의 관계를 R-CNN(Region-based Convolutional Neural Network)을 이용하여 학습하는 단계 및 상기 복수의 기존 욕창의 욕창 위치 정보 및 욕창 단계 정보 간의 관계에 대한 정보를 출력하는 단계를 포함하는 것을 특징으로 한다.
본 개시의 욕창 관리 장치의 동작 방법에 있어서, 상기 복수의 기존 욕창의 영상 데이터를 전처리하는 단계는, 상기 복수의 기존 욕창의 영상 데이터에 어노테이션(annotation) 처리를 수행하는 것을 포함하고, 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창의 욕창 단계 정보 간의 관계를 R-CNN을 이용하여 학습하는 단계는, RPN(region proposal network)을 이용하는 것을 특징으로 한다.
본 개시의 욕창 관리 장치의 동작 방법에 있어서, 상기 현재 환자의 욕창 영상 데이터에 상기 기계학습모델을 적용하여 상기 현재 환자의 욕창에 관한 정보 및 욕창 치료 정보를 결정하는 단계는, 드레싱 추천 알고리즘을 사용하여 상기 욕창 단계 정보 및 상기 욕창 진단 정보 중 적어도 하나에 따라 욕창을 치료하기 위해 필요한 드레싱 정보를 결정하는 것을 특징으로 한다.
본 개시의 욕창 관리 장치의 동작 방법에 있어서, 상기 드레싱 추천 알고리즘은 딥 디시전 트리 부스팅(Deep Decision Tree Boosting) 모델을 적용하여 결정되는 것을 특징으로 한다.
본 개시의 욕창 관리 장치는 프로세서 및 메모리를 포함하고, 상기 프로세서는 메모리에 저장된 명령어에 기초하여, 복수의 기존 욕창의 영상 데이터를 획득하는 단계, 상기 복수의 기존 욕창의 영상 데이터에 대응되는 기존 욕창에 관한 정보를 획득하는 단계, 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창에 관한 정보 간의 관계를 CNN으로 학습하여 기계학습모델을 획득하는 단계, 현재 환자의 욕창 영상 데이터를 획득하는 단계, 상기 현재 환자의 욕창 영상 데이터에 상기 기계학습모델을 적용하여 상기 현재 환자의 욕창에 관한 정보 및 욕창 치료 정보를 결정하는 단계, 및 상기 현재 환자의 욕창에 관한 정보 또는 상기 욕창 치료 정보를 출력하는 단계를 수행하고, 상기 기존 욕창에 관한 정보는 상기 기존 욕창의 욕창 단계 정보, 욕창 진단 정보 및 기존 욕창 치료 정보 중 적어도 하나를 포함하고, 상기 현재 환자의 욕창에 관한 정보는 상기 현재 환자의 욕창의 욕창 단계 정보 및 욕창 진단 정보 중 적어도 하나를 포함하고, 상기 욕창 치료 정보는 욕창을 치료하기 위한 드레싱 정보를 포함하는 것을 특징으로 한다.
본 개시의 욕창 관리 장치의 프로세서는, 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창에 관한 정보 간의 관계를 CNN으로 학습하여 기계학습모델을 획득하기 위해, 메모리에 저장된 명령어에 기초하여, 상기 복수의 기존 욕창의 영상 데이터를 전처리하는 단계, 상기 전처리된 영상 데이터로부터 이미지 특징 데이터를 추출하는 단계, 상기 이미지 특징 데이터를 이용하여 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창의 욕창 단계 정보 간의 관계를 R-CNN을 이용하여 학습하는 단계 및 상기 복수의 기존 욕창의 욕창 위치 정보 및 욕창 단계 정보 간의 관계에 대한 정보를 출력하는 단계를 수행하는 것을 특징으로 한다.
본 개시의 욕창 관리 장치의 프로세서는, 복수의 기존 욕창의 영상 데이터를 전처리하기 위해, 메모리에 저장된 명령어에 기초하여, 상기 복수의 기존 욕창의 영상 데이터에 어노테이션 처리를 수행하고, 상기 프로세서는, 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창의 욕창 단계 정보 간의 관계를 R-CNN을 이용하여 학습하기 위해, 메모리에 저장된 명령어에 기초하여, RPN을 이용한 기계학습을 수행하는 것을 특징으로 한다.
본 개시의 욕창 관리 장치의 프로세서는, 상기 현재 환자의 욕창 영상 데이터에 상기 기계학습모델을 적용하여 상기 현재 환자의 욕창에 관한 정보 및 욕창 치료 정보를 결정하기 위해, 메모리에 저장된 명령어에 기초하여, 드레싱 추천 알고리즘을 사용하여 상기 욕창 단계 정보 및 상기 욕창 진단 정보 중 적어도 하나에 따라 욕창을 치료하기 위해 필요한 드레싱 정보를 결정하는 단계를 수행하는 것을 특징으로 한다.
본 개시의 욕창 관리 장치에 있어서, 상기 드레싱 추천 알고리즘은 딥 디시전 트리 부스팅 모델을 적용하여 결정되는 것을 특징으로 한다.
또한, 상술한 바와 같은 욕창 관리 장치의 동작 방법을 구현하기 위한 프로그램은 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다.
본 개시의 욕창 관리를 위한 장치 및 욕창 관리를 위한 장치의 동작 방법은 욕창 사진과 욕창에 관한 정보 간의 관계를 기계학습하여 욕창의 단계를 평가하고 그에 따른 드레싱 치료제를 안내할 수 있게 함으로써, 의료비 지출을 감소시키고 의료 서비스의 효율성을 높일 수 있을 것으로 기대된다.
도 1은 본 개시의 일 실시예에 따른 욕창 관리 장치(100)의 블록도이다.
도 2는 본 개시의 일 실시예에 따른 욕창 관리 시스템을 나타낸 도면이다.
도 3 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작을 나타낸 흐름도이다.
도 4는 본 개시의 일 실시예에 따른 욕창 관리 장치를 나타낸 블록도이다.
도 5는 본 개시의 일 실시예에 따른 기존 욕창의 영상 데이터에 대한 어노테이션 처리를 위한 인터페이스 및 프로세스의 예시를 나타낸 도면이다.
도 6은 본 개시의 일 실시예에 따른 복수의 기존 욕창의 영상 데이터의 기계학습을 위한 인터페이스 및 프로세스의 예시를 나타낸 도면이다.
도 7은 본 개시의 일 실시예에 따른 욕창 관리 장치를 나타낸 블록도이다.
도 8은 본 개시의 일 실시예에 따른 드레싱 추천 알고리즘을 나타낸 순서도이다.
도 9는 본 개시의 일 실시예에 따른 드레싱 추천 알고리즘을 나타낸 순서도이다.
도 10은 본 개시의 일 실시예에 따른 드레싱 추천 알고리즘을 나타낸 순서도이다.
도 11은 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작 흐름의 예시를 나타낸 것이다.
도 12는 본 개시의 일 실시예에 따른 기계학습모델의 평가 프로세스의 예시를 나타낸 것이다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다.
본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
본 개시의 일 실시예에 따르면 "부"는 프로세서 및 메모리로 구현될 수 있다. 용어 "프로세서" 는 범용 프로세서, 중앙 처리 장치 (CPU), 마이크로프로세서, 디지털 신호 프로세서 (DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서는, "프로세서" 는 주문형 반도체 (ASIC), 프로그램가능 로직 디바이스 (PLD), 필드 프로그램가능 게이트 어레이 (FPGA) 등을 지칭할 수도 있다. 용어 "프로세서" 는, 예를 들어, DSP 와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다.
용어 "메모리" 는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. 용어 메모리는 임의 액세스 메모리 (RAM), 판독-전용 메모리 (ROM), 비-휘발성 임의 액세스 메모리 (NVRAM), 프로그램가능 판독-전용 메모리 (PROM), 소거-프로그램가능 판독 전용 메모리 (EPROM), 전기적으로 소거가능 PROM (EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.
아래에서는 첨부한 도면을 참고하여 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.
도 1은 본 개시의 일 실시예에 따른 욕창 관리 장치(100)의 블록도이다.
도 1을 참조하면, 일 실시예에 따른 욕창 관리 장치(100)는 데이터 학습부(110) 및 데이터 인식부(120)를 포함할 수 있다. 또한 욕창 관리 장치(100)는 프로세서 및 메모리를 포함할 수 있다.
데이터 학습부(110)는 제 1 데이터 및 제 2 데이터를 수신하여 제 1 데이터 및 제 2 데이터의 관계에 대한 기계학습모델을 획득할 수 있다. 데이터 학습부(110)가 획득한 기계학습모델은 제 1 데이터를 이용하여 제 2 데이터를 생성하기 위한 모델일 수 있다. 예를 들어, 데이터 학습부(110)는 복수의 기존 욕창의 영상 데이터 및 기존 욕창에 관한 정보의 관계를 학습할 수 있다. 복수의 욕창의 영상 데이터와 함께 욕창에 관한 정보가 주어지면, 데이터 학습부(110)는 욕창을 치료 정보를 예측하기 위한 기계학습모델을 생성할 수 있다. 본 개시에서 욕창의 영상 데이터는 2D 영상 또는 3D 영상일 수 있다.
데이터 인식부(120)는 현재 환자의 욕창의 영상 데이터를 기계학습모델에 적용하여 욕창과 관련된 정보 및/또는 욕창 치료 정보를 출력할 수 있다. 기계학습모델은 욕창의 영상에 따라 어떤 치료가 이루어 져야하는지에 대한 기준에 관한 정보를 포함할 수 있다. 또한, 데이터 인식부(120)는 욕창의 영상 데이터 및 기계학습모델에 의해 출력된 결과를 기계학습모델을 갱신하는데 이용할 수 있다.
데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예컨대, CPU 또는 application processor) 또는 그래픽 전용 프로세서(예컨대, GPU)의 일부로 제작되어 이미 설명한 각종 전자 장치에 탑재될 수도 있다.
또한 데이터 학습부(110) 및 데이터 인식부(120)는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 학습부(110) 및 데이터 인식부(120) 중 하나는 전자 장치에 포함되고, 나머지 하나는 서버에 포함될 수 있다. 또한, 데이터 학습부(110) 및 데이터 인식부(120)는 유선 또는 무선을 통하여, 데이터 학습부(110)가 구축한 기계학습모델 정보를 데이터 인식부(120)로 제공할 수도 있고, 데이터 인식부(120)로 입력된 데이터가 추가 학습 데이터로써 데이터 학습부(110)로 제공될 수도 있다.
한편, 데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 학습부(110) 및 데이터 인식부(120) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction)을 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 메모리 또는 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
본 개시의 일 실시예에 따른 데이터 학습부(110)는 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114)를 포함할 수 있다.
데이터 획득부(111)는 기계학습에 필요한 데이터를 획득할 수 있다. 기계학습을 위해서는 수많은 데이터가 필요하므로, 데이터 획득부(111)는 복수의 기존 욕창의 영상 데이터와 복수의 기존 욕창의 영상 데이터에 대응되는 욕창에 관한 정보를 수신할 수 있다.
본 개시의 일 실시예에 따르면, 욕창에 관한 정보는, 의료인이 소정의 기준에 기초하여 욕창의 진행 상태 또는 욕창의 심한 정도를 단계별로 수치화하여 나타낸 “욕창 단계 정보”를 포함할 수 있다. 또한 욕창에 관한 정보는 “욕창 진단 정보”를 더 포함할 수 있다. 예컨대, 욕창 진단 정보는, 상처가 심한지 여부, 부종이 심한지 여부, 괴사조직의 양, 괴사조직의 타입, 상피화가 어느 정도 진행되었는지 여부, 삼출물의 양 및 창상 주위의 피부의 변화에 관한 정보 중 적어도 하나를 포함할 수 있고, 이에 대한 평가를 점수화한 점수 정보를 포함할 수 있다. 본 개시의 일 실시예에 따르면, 욕창 진단 정보는 후술할 도 8 내지 도 10의 드레싱 추천 알고리즘에 사용되는 정보들, 예컨대 도 8 내지 도 10의 단계별 질문에 대한 점수 정보를 포함할 수 있다.
전처리부(112)는 수신된 데이터가 기계학습에 이용될 수 있도록, 획득된 복수의 기존 욕창의 영상 데이터를 전처리할 수 있다. 본 개시의 일 실시예에 따르면, 전처리부(112)는 후술할 모델 학습부(113)가 이용할 수 있도록, 욕창 영상 데이터에 욕창에 관한 정보를 어노테이션(annotation) 할 수 있고, 획득된 영상 데이터를 미리 설정된 포맷으로 가공할 수 있다. 예를 들어, 전처리부(112)는 욕창 영상 데이터에 필터를 적용하여 데이터를 증폭 및 벡터화할 수 있다. 또한 전처리부(112)는 욕창의 특징이 명확하게 드러나도록 영상 데이터의 크기, 화이트 밸런스, 색상, 명암 또는 채도 중 적어도 하나를 조정할 수 있고, 필터를 적용하여 욕창의 윤곽선이 명확하게 드러나게 만들 수 있다.
전처리부(112)에서 전처리를 거친 영상 데이터는 모델 학습부(113)에 제공될 수 있다. 본 개시의 일 실시예에 따르면, 모델 학습부(113)는 기존 욕창의 영상 데이터와 이에 대응되는 욕창에 관한 정보 간의 관계를 학습할 수 있다. 예를 들어, 모델 학습부(113)는 욕창의 영상 데이터로부터 추출한 욕창 위치 정보, 예컨대 욕창이 환자의 신체 중 어느 부위에 위치해 있는지에 관한 정보, 또는 욕창의 영역을 나타내는 좌표 정보와, 욕창 단계 정보 간의 관계를 학습할 수 있다. 또한, 모델 학습부(113)는 기존 욕창의 영상 데이터에 따라 욕창에 관한 정보 및/또는 욕창 치료 정보를 출력하는 기계학습모델을 획득할 수 있다. 모델 학습부(113)는 기존 욕창의 영상 데이터, 욕창에 관한 정보 및 욕창 치료 정보를 학습 데이터로써 이용하여 기계학습모델을 학습시킬 수 있다. 또한, 기계학습모델은 미리 구축된 모델일 수 있다. 예를 들어, 기계학습모델은 기본 학습 데이터(예를 들어, 욕창 영상 데이터, 욕창 위치 정보, 욕창 단계 정보, 욕창 진단 정보, 또는 욕창 치료 정보 등)를 입력 받아 미리 구축된 모델일 수 있다.
기계학습모델은, 학습모델의 적용 분야, 학습의 목적 또는 장치의 컴퓨터 성능 등을 고려하여 구축될 수 있다. 기계학습모델은, 예를 들어, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), LSTM(Long Short-Term Memory models), BRDNN(Bidirectional Recurrent Deep Neural Network), CNN(Convolutional Neural Networks)과 같은 모델이 기계학습모델로써 사용될 수 있으나, 이에 한정되지 않는다.
다양한 실시예에 따르면, 모델 학습부(113)는 미리 구축된 기계학습모델이 복수 개가 존재하는 경우, 입력된 학습 데이터와 기본 학습 데이터의 관련성이 큰 기계학습모델을 학습할 기계학습모델로 결정할 수 있다. 이 경우, 기본 학습 데이터는 데이터의 타입 별로 기 분류되어 있을 수 있으며, 기계학습모델은 데이터의 타입 별로 미리 구축되어 있을 수 있다. 예를 들어, 기본 학습 데이터는 학습 데이터가 생성된 장소, 학습 데이터가 생성된 시간, 학습 데이터의 크기, 학습 데이터의 생성자, 학습 데이터 내의 오브젝트의 종류 등과 같은 다양한 기준으로 기 분류되어 있을 수 있다.
또한, 모델 학습부(113)는, 예를 들어, 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient descent)을 포함하는 학습 알고리즘 등을 이용하여 기계학습모델을 학습시킬 수 있다.
또한, 모델 학습부(113)는, 예를 들어, 학습 데이터를 입력 값으로 하는 지도 학습(supervised learning)을 통하여, 기계학습모델을 학습할 수 있다. 또한, 모델 학습부(113)는, 예를 들어, 별다른 지도없이 상황 판단을 위해 필요한 데이터의 종류를 스스로 학습함으로써, 상황 판단을 위한 기준을 발견하는 비지도 학습(unsupervised learning)을 통해 기계학습모델을 학습할 수 있다. 또한, 모델 학습부(113)는, 예를 들어, 학습에 따른 상황 판단의 결과가 올바른 지에 대한 피드백을 이용하는 강화 학습(reinforcement learning)을 통해 기계학습모델을 학습할 수 있다.
또한, 기계학습모델이 학습되면, 모델 학습부(113)는 학습된 기계학습모델을 저장할 수 있다. 이 경우, 모델 학습부(113)는 학습된 기계학습모델을 데이터 인식부(120)를 포함하는 전자 장치의 메모리에 저장할 수 있다. 또는, 모델 학습부(113)는 학습된 기계학습모델을 전자 장치와 유선 또는 무선 네트워크로 연결되는 서버의 메모리에 저장할 수도 있다.
학습된 기계학습모델이 저장되는 메모리는, 예를 들면, 전자 장치의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 함께 저장할 수도 있다. 또한, 메모리는 소프트웨어 및/또는 프로그램을 저장할 수도 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API) 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다.
모델 평가부(114)는 기계학습모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 결과가 소정 기준을 만족하지 못하는 경우, 모델 학습부(113)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 기계학습모델을 평가하기 위한 기 설정된 데이터일 수 있다.
예를 들어, 모델 평가부(114)는 평가 데이터에 대한 학습된 기계학습모델의 결과 중에서, 인식 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우 소정 기준을 만족하지 못한 것으로 평가할 수 있다. 예컨대, 소정 기준이 비율 2%로 정의되는 경우, 학습된 기계학습모델이 총 1000개의 평가 데이터 중의 20개를 초과하는 평가 데이터에 대하여 잘못된 인식 결과를 출력하는 경우, 모델 평가부(114)는 학습된 기계학습모델이 적합하지 않은 것으로 평가할 수 있다.
한편, 학습된 기계학습모델이 복수 개가 존재하는 경우, 모델 평가부(114)는 각각의 학습된 학습모델에 대하여 소정 기준을 만족하는지를 평가하고, 소정 기준을 만족하는 모델을 최종 기계학습모델로써 결정할 수 있다. 이 경우, 소정의 기준을 만족하는 모델이 복수 개인 경우, 모델 평가부(114)는 평가 점수가 높은 순으로 미리 설정된 어느 하나 또는 소정 개수의 모델을 최종 기계학습모델로써 결정할 수 있다. 모델 평가부(114)에 관한 상세한 내용은 도 12와 함께 후술한다.
한편, 데이터 학습부(110) 내의 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예컨대, CPU 또는 application processor) 또는 그래픽 전용 프로세서(예컨대, GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.
또한, 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114) 중 일부는 전자 장치에 포함되고, 나머지 일부는 서버에 포함될 수 있다.
또한, 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(111), 전처리부(112), 모델 학습부(113) 및 모델 평가부(114) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
본 개시의 일 실시예에 따른 데이터 인식부(120)는 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124)를 포함할 수 있다.
데이터 획득부(121)는 현재 환자의 욕창 영상 데이터 또는 현재 환자의 욕창에 관한 정보를 획득할 수 있다. 전처리부(122)는 획득된 현재 환자의 욕창 영상 데이터 및 현재 환자의 욕창과 관련된 정보가 기계학습모델에 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 예를 들어 전처리부(122)는 욕창 영상 데이터를 필터로 처리하여 증폭 및 벡터화할 수 있다. 또한 전처리부(122)는 욕창의 윤곽선이 명확하게 드러나게 만들 수 있으며, 욕창 영상 데이터의 화이트 밸런스, 색상, 명암 또는 채도 중 적어도 하나를 조정할 수 있다.
인식 결과 제공부(123)는 위와 같이 전처리부(122)에서 전처리된 데이터를 기계학습모델에 적용하여 결과 데이터를 획득할 수 있다. 인식 결과 제공부(123)는 결과 데이터를 음성 또는 텍스트로 출력할 수 있다.
모델 갱신부(124)는 인식 결과 제공부(123)에 의해 제공되는 인식 결과에 대한 평가에 기초하여, 기계학습모델이 갱신되도록 할 수 있다. 예를 들어, 모델 갱신부(124)는 인식 결과 제공부(123)에 의해 제공되는 인식 결과를 모델 학습부(113)에게 제공함으로써, 모델 학습부(113)가 기계학습모델을 갱신하도록 할 수 있다.
한편, 데이터 인식부(120) 내의 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 예를 들어, 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예컨대, CPU 또는 application processor) 또는 그래픽 전용 프로세서(예컨대, GPU)의 일부로 제작되어 전술한 각종 전자 장치에 탑재될 수도 있다.
또한, 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124) 중 일부는 전자 장치에 포함되고, 나머지 일부는 서버에 포함될 수 있다.
또한, 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 획득부(121), 전처리부(122), 인식 결과 제공부(123) 및 모델 갱신부(124) 중 적어도 하나가 소프트웨어 모듈(또는, 인스트럭션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 2는 본 개시의 일 실시예에 따른 욕창 관리 시스템을 나타낸 도면이다.
본 개시의 일 실시예에 따르면, 욕창 관리 시스템(200)은 입력부(210), 욕창 관리 장치(220) 및 출력부(230)를 포함할 수 있다. 또한 욕창 관리 시스템(200)은 진료 통합 장치(240)를 더 포함할 수 있다.
입력부(210)는 사용자 단말기에 포함될 수 있다. 입력부(210)는 욕창의 영상 데이터를 획득할 수 있다. 또한 입력부(210)는 욕창에 관한 정보를 획득할 수 있다. 욕창의 영상 데이터는 사용자가 카메라를 이용하여 직접 찍은 욕창의 영상일 수 있다. 또한, 욕창의 영상 데이터는 욕창 자체를 촬영한 것일 수도 있지만, 환자가 누워있던 특수 시트, 환자에 욕창에 부착했던 드레싱 또는 환자복을 촬영한 영상 데이터에 욕창이 포함된 것일 수도 있다. 욕창은 다른 상처와 다르게 욕창에서 나온 삼출물의 양 또는 색이 욕창에 관한 정보와 큰 상관관계를 가질 수 있다. 따라서 환자의 욕창 환자가 입었던 환자복에 묻은 삼출물의 영상, 욕창에 부착했던 드레싱에 묻은 삼출물의 영상 또는 환자가 누워있던 시트에 묻은 삼출물의 영상은 기계학습모델을 이용하여 욕창에 관한 정보 또는 욕창 치료 정보를 예측하는데 사용될 수 있다. 또한 환자복에 묻은 삼출물의 영상 및 시트에 묻은 삼출물의 영상은 환자가 누워있는 시간에 따라 다를 수 있으므로, 입력부(210)는 시트, 드레싱 또는 환자복이 환자와 함께한 시간과 관련된 정보를 더 수신할 수 있다. 입력부(210)는 시간과 관련된 정보를 영상에 병합시킬 수 있다. 예를 들어, 입력부(210)는 시간과 관련된 정보를 영상의 메타데이터에 포함시킬 수 있다. 시간과 관련된 정보는 영상 데이터와 함께 기계학습모델에 사용될 수 있다.
또한 욕창의 영상 데이터는 사용자가 다른 사용자 단말기로부터 유선 또는 무선으로 수신한 영상 데이터일 수 있다. 또한 욕창의 영상 데이터는, 욕창의 깊이를 보다 정밀하게 측정하기 위해, 욕창의 깊이를 표시하기 위한 면봉과 함께 촬영한 영상 데이터일 수 있다. 또한 욕창의 영상 데이터는 사용자 단말기에 이미 저장되어 있는 영상 데이터일 수 있다. 입력부(210)에 입력되는 욕창에 관한 정보는 전술한 바와 같이 욕창 단계 정보 및/또는 욕창 진단 정보를 포함할 수 있다.
입력부(210)는 욕창의 영상 데이터 또는 욕창과 관련된 정보를 유선 또는 무선을 통하여 욕창 관리 장치(220)에 송신할 수 있다. 입력부(210)는 데이터의 용량을 줄이기 위하여 욕창의 영상 데이터 또는 욕창과 관련된 정보를 소정의 알고리즘에 기초하여 압축할 수 있다.
욕창 관리 장치(220)는 사용자 단말기 또는 서버에 포함될 수 있다. 욕창 관리 장치(220)는 입력부(210)로부터 수신한 데이터에 기초하여 기계학습을 수행하거나, 이미 학습된 기계학습모델에 기초하여 결과 데이터를 출력할 수 있다. 욕창 관리 장치(220)는 수신한 욕창의 영상 데이터 및 욕창과 관련된 정보에 기초하여 기계학습모델을 출력할 수 있다. 또한 욕창 관리 장치(220)는 수신한 욕창의 영상 데이터를 기계학습모델에 적용하여 욕창에 관한 정보 및/또는 욕창 치료 정보를 출력할 수 있다.
욕창 관리 장치(220)는 생성된 기계학습모델, 욕창에 관한 정보 또는 욕창 치료 정보를 유선 또는 무선을 통하여 출력부(230)에 송신할 수 있다. 욕창 관리 장치(220)는 생성된 기계학습모델, 욕창에 관한 정보 또는 욕창 치료 정보를 소정의 알고리즘을 사용하여 압축하여, 데이터 송신에 필요한 데이터의 용량을 줄이고, 송신의 속도를 높일 수 있다.
출력부(230)는 사용자 단말기에 대응될 수 있다. 출력부(230)는 입력부(210)와 동일한 사용자 단말기에 포함될 수 있다. 출력부(230)는 메모리에 저장되어 있는 욕창의 영상 데이터를 기계학습모델에 적용하여 욕창에 관한 정보 및/또는 욕창 치료 정보를 출력할 수 있다. 또한, 출력부(230)는 욕창 관리 장치(220)로부터 수신한 욕창에 관한 정보 및/또는 욕창 치료 정보를 출력할 수도 있다. 출력부(230)는 디스플레이부에 결과를 출력하거나, 스피커를 통하여 소리로 결과를 출력할 수 있다. 욕창 관리 장치(220)의 동작에 대해서는 도 3과 함께 후술한다.
진료 통합 장치(240)는 욕창 관리 장치(220)로부터 욕창에 관한 정보를 수신할 수 있다. 예컨대, 진료 통합 장치(240)는 욕창 관리 장치(220)로부터 욕창을 촬영한 영상 데이터, 욕창 위치 정보 및 욕창에 관한 정보 중 적어도 하나를 수신할 수 있다. 진료 통합 장치(240)는 의료진이 욕창 영상 데이터, 욕창 위치 정보 및 욕창에 관한 정보 중 적어도 하나를 확인할 수 있도록 욕창 영상 데이터, 욕창 위치 정보 및 욕창에 관한 정보 중 적어도 하나를 표시할 수 있다. 또한 의료진으로부터 욕창에 관련된 질문에 대한 응답을 입력받기 위해, 진료 통합 장치(240)는 미리 설정된 욕창에 관련된 질문을 표시할 수 있다. 진료 통합 장치(240)는 입력받은 응답 정보를 욕창 관리 장치(220)로 전송할 수 있다. 진료 통합 장치(240)는 응답 정보 외에도 의료진이 입력한 욕창에 관한 정보들을 욕창 관리 장치(220)로 전송할 수 있다. 진료 통합 장치(240)는 병원 등과 같은 의료 기관에 위치할 수 있다. 이 때 욕창에 관련된 질문은 욕창 관리 시스템(200)을 관리하는 관리자 또는 의료진으로부터 입력받아 설정하거나, 미리 설정된 알고리즘(예를 들어, 프로그램 등)을 이용하여 설정될 수 있다. 또한 의료진이 응답을 입력할 욕창에 관련된 질문은 욕창 진단 정보에 관한 질문들, 예컨대, 부종이 심한가, 상처는 깊은가, 괴사 조직의 양이 어떠한가, 삼출물의 양이 어떠한가, 고열이 심한지 여부, 또는 피로감 및 몸살기운을 제외한 감염 진단이 있는지 여부 등이 포함될 수 있다.
도 3 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작을 나타낸 흐름도이다.
먼저, 욕창 관리 장치(220)는 복수의 기존 욕창의 영상 데이터를 획득할 수 있다(S310). 본 개시의 일 실시예에 따르면, 복수의 기존 욕창의 영상 데이터는 기존 환자의 욕창으로부터 획득한 영상 데이터로서, 도 1에 도시된 데이터 획득부(111) 및/또는 도 2에 도시된 입력부(210)에 입력될 수 있다. 또한 복수의 기존 욕창의 영상 데이터는 의료인이 환자를 치료하면서 찍은 욕창에 대한 영상일 수 있다. 또한 복수의 기존 욕창의 영상 데이터는 기계학습에 이용될 수 있도록 욕창 부위가 명확하게 드러난 영상 데이터일 수 있다. 또한, 복수의 기존 욕창의 영상 데이터는 욕창 자체를 촬영한 것일 수도 있지만, 환자복에 묻은 삼출물의 영상, 욕창에 부착했던 드레싱에 묻은 삼출물의 영상 또는 환자가 누워있던 시트에 묻은 삼출물의 영상일 수도 있다. 또한 환자복에 묻은 삼출물의 영상, 욕창에 부착했던 드레싱에 묻은 삼출물의 영상 또는 환자가 누워있던 시트에 묻은 삼출물의 영상을 수신한 경우, 욕창 관리 장치(220)는 시트, 드레싱 또는 환자복이 환자와 함께한 시간과 관련된 정보를 더 수신할 수 있다. 욕창 관리 장치(220)는 시간과 관련된 정보를 영상 데이터와 병합시킬 수 있다. 예를 들어 욕창 관리 장치(220)는 시간과 관련된 정보를 영상 데이터의 메타데이터에 기록하거나, 시간과 관련된 정보의 비트 값을 적어도 하나의 픽셀의 비트값으로 변형하여 영상에 병합할 수 있다. 영상에 포함된 픽셀이 16비트를 가진다면 욕창 관리 장치(220)는 시간과 관련된 정보를 16*n비트로 표현하여 픽셀 값으로 변환할 수 있다. 여기서 n은 자연수 일 수 있다. 시간과 관련된 정보와 픽셀로 변환된 값은 비례할 수 있다. 시간과 관련된 정보 및 영상 데이터는 기계학습모델을 생성하는데 사용할 수 있다. 사용자는 복수의 기존 욕창의 영상 데이터 중에서 기계학습에 사용할 수 있는 영상 데이터를 선별할 수도 있다.
또한 본 개시의 일 실시예에 따르면, 복수의 기존 욕창의 영상 데이터에 대해 어노테이션(annotation) 처리가 행해질 수 있다. 예를 들어, 사용자는 입력부(210) 또는 상처 관리 장치(220) 상의 그래픽 사용자 인터페이스(GUI, Graphical User Interface)를 통해 복수의 기존 욕창의 영상 데이터에서 욕창이 발생한 영역을 사각형 상자로 표시하고, 해당 영상 데이터에 대응되는 욕창의 욕창 단계 정보를 입력할 수 있다. 사용자의 입력에 의해 사각형 상자가 지정되면, 상처 관리 장치(220)에 의해 사각형 상자의 좌표가 자동으로 지정될 수 있다. 예컨대, 사각형 상자의 4개의 꼭짓점 위치를 x 및 y 좌표로 표시함으로써 복수의 기존 욕창의 발생 영역을 좌표 정보로 나타낼 수 있고, 앞서 사각형 상자 지정 시에 함께 입력된 욕창 단계 정보가 이 좌표 정보에 대응될 수 있다. 이에 관하여 보다 상세한 내용은 도 5와 함께 후술한다.
그 다음, 욕창 관리 장치(220)는 복수의 기존 욕창의 영상 데이터에 대응되는 기존 욕창에 관한 정보를 획득할 수 있다(S320).
본 개시의 일 실시예에 따르면, 사용자는 복수의 기존 욕창의 영상 데이터와 함께, 복수의 기존 욕창의 영상 데이터에 대응되는 욕창에 관한 정보를 도 1에 도시된 데이터 획득부(111) 또는 도 2에 도시된 입력부(210)에 입력할 수 있다. 또는 도 2에 도시된 진료 통합 장치(240)를 통해 입력된 욕창에 관한 정보가 욕창 관리 장치(220)로 전송될 수 있다. 본 개시의 다른 일 실시예에 따르면, 욕창 관리 장치(220)는 기존 욕창의 영상 데이터에 대응되는 환자의 의료 기록을 근거로 욕창에 관한 정보를 획득하거나, 레이저 도플러 등 기존 진단장비의 결과에 기초하여 기존 욕창의 영상 데이터에 대응되는 욕창에 관한 정보를 획득할 수 있다. 욕창 관리 장치(220)는 진료 통합 장치(240)로부터 이와 같이 정보를 획득할 수도 있다. 이 때 복수의 기존 욕창의 영상 데이터에 대응되는 욕창에 관한 정보는 욕창 단계 정보, 욕창 진단 정보, 영상 내의 욕창의 위치 정보, 및 욕창 치료 정보 중 적어도 하나를 포함할 수 있다. 욕창에 관한 정보는 인덱스로써, 텍스트 또는 숫자 중 적어도 하나를 포함할 수 있다. 욕창에 관한 정보는 실제값(ground truth value)일 수 있으며, 레이블 정보일 수 있다. 욕창에 관한 정보는 기계학습모델을 생성하기 위하여 사용될 수 있다.
그 다음, 욕창 관리 장치(220)는 복수의 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 학습하여 기계학습모델을 획득할 수 있다(S330). 이에 관하여 보다 상세한 내용은 도 4와 함께 후술한다
이후에 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 획득할 수 있다(S340).
본 개시의 일 실시예에 따르면, 사용자는 사용자 단말기에 포함된 카메라를 통하여 환자의 욕창을 촬영하여 욕창 관리 장치(220)로 전송할 수 있다. 또는 사용자는 메모리에 이미 저장되어 있는 영상 데이터를 욕창 관리 장치(220)로 전송할 수 있다. 또는 사용자는 다른 단말기로부터 수신한 영상 데이터를 욕창 관리 장치(220)로 전송할 수 있다.
그 다음, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터에 기계학습모델을 적용하여 현재 환자의 욕창에 관한 정보 및/또는 욕창 치료 정보를 결정하고(S350), 결정된 현재 환자의 욕창에 관한 정보 및/또는 욕창 치료 정보는 출력부(230)에 출력될 수 있다(S360).
본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터에 전술한 단계 S330에서 획득된 기계학습모델을 적용하여 현재 환자의 욕창에 관한 정보 및/또는 욕창 치료 정보를 결정할 수 있다. 이에 관한 상세한 내용은 도 7과 함께 후술한다.
또한 본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는, 현재 환자의 욕창 영상 데이터에 기계학습모델을 적용하여 욕창 치료 정보를 결정함에 있어서, 드레싱 추천 알고리즘을 사용할 수 있다. 이에 관한 상세한 내용은 도 8 내지 도 11과 함께 후술한다.
도 4는 본 개시의 일 실시예에 따른 욕창 관리 장치를 나타낸 블록도이다.
본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는 데이터 학습부(410)를 포함할 수 있다. 도 4의 데이터 학습부(410)는 도 1의 데이터 학습부(110)에 대응될 수 있다.
본 개시의 일 실시예에 따르면, 데이터 학습부(410)는 복수의 기존 욕창의 영상 데이터(421)를 획득할 수 있다. 또한 데이터 학습부(410)는 복수의 기존 욕창의 영상 데이터 각각에 대응되는 기존 욕창에 관한 정보(422)를 획득할 수 있다. 기존 욕창에 관한 정보(422)는 레이블 데이터일 수 있다. 기존 욕창에 관한 정보(422)는 의료인에 의하여 결정되어 데이터 학습부(410)에 입력될 수 있다. 또는 기존 욕창에 관한 정보(422)는 메모리에 미리 저장되어 있을 수 있다. 기존 욕창에 관한 정보(422)는 인덱스일 수 있으며, 숫자 또는 텍스트 중 적어도 하나를 포함할 수 있다.
데이터 학습부(410)는 복수의 기존 욕창의 영상 데이터(421)와 복수의 기존 욕창에 관한 정보(422) 간의 관계를 학습하여 기계학습모델(431)로 출력할 수 있다. 전술한 바와 같이, 복수의 기존 욕창에 관한 정보(422)는 전술한 바와 같이, 욕창 단계 정보, 욕창 진단 정보, 영상 데이터(421) 내의 욕창의 위치 정보, 및 기존 욕창 치료 정보 중 적어도 하나를 포함할 수 있다. 여기서 욕창 진단 정보는 후술할 도 8 내지 도 10의 드레싱 추천 알고리즘에 사용되는 정보를 포함할 수 있다. 예컨대, 욕창 진단 정보는 후술할 도 8 내지 도 10의 드레싱 추천 알고리즘의 각 단계별 질문에 대한 점수 정보를 포함할 수 있다. 기존 욕창 치료 정보는 상기 기존 욕창의 영상 데이터(421)에 대응되는 치료 방법에 대한 정보일 수 있다. 치료 방법은 드레싱에 대한 정보 또는 치료 약에 대한 정보를 포함할 수 있다. 본 개시의 일 실시예에 따르면, 도 2에 도시된 욕창 관리 장치(220)는 기계학습모델(431)을 저장할 수 있다. 또한 욕창 관리 장치(220)는 기계학습모델(431)을 다른 욕창 관리 장치로 전송할 수 있다. 욕창 관리 장치(220)는 새로운 욕창의 영상 데이터를 기계학습모델(431)에 적용하여 욕창에 관한 정보 및/또는 욕창 치료 정보를 획득할 수 있다.
또한 본 개시의 일 실시예에 따르면, 도 4에 도시된 기계학습모델(431)은 욕창에 관한 정보와 욕창 치료 정보를 획득하기 위한 기계학습을 모두 수행할 수 있다. 본 개시의 다른 일 실시예에 따르면, 도 4에 도시된 기계학습모델(431)은 욕창에 관한 정보를 획득하기 위한 기계학습모델과 욕창 치료 정보를 획득하기 위한 기계학습모델 중 적어도 하나를 포함할 수 있다.
본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터에 기계학습모델(431)을 적용하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 결정할 수 있다. 욕창 관리 장치(220)가 기계학습모델(431)을 이용하여 욕창에 관한 정보 및/또는 욕창 치료 정보를 획득하는 과정은 도 7과 함께 후술한다.
본 개시의 다른 실시예에 따르면, 욕창 관리 장치(220)는 영상 데이터 뿐 아니라 센서 정보를 더 이용할 수 있다. 예를 들어 환자의 곁에는 후각 센서 또는 먼지 센서가 부착되어 있을 수 있다. 욕창 관리 장치(220)는 후각 센서 또는 먼지 센서로부터 주기적으로 센서 정보를 획득할 수 있다. 센서 정보는 비트값으로 표시될 수 있다. 욕창 관리 장치(220)는 센서 정보의 비트값을 영상 데이터에 병합할 수 있다. 예를 들어 욕창 관리 장치(220)는 센서 정보의 비트 값을 적어도 하나의 픽셀의 비트값으로 변형하여 영상에 병합할 수 있다. 영상 데이터에 포함된 픽셀이 16비트라면 센서 정보를 16*n비트로 표현할 수 있다. 여기서 n은 자연수 일 수 있다. 욕창 관리 장치(220)는 센서 정보가 포함된 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 또는 욕창 치료 정보를 기계학습할 수 있다. 이를 통하여 욕창 관리 장치(220)는 기계학습모델을 획득할 수 있다. 또한 욕창 관리 장치(220)는 획득된 기계학습모델을 이용하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 결정할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터에 기계학습모델(431)을 적용하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 결정할 수 있다. 여기서 현재 환자의 욕창 영상 데이터는 위에서 이미 설명한 방법에 의하여 센서 정보가 병합되어 있을 수 있다.
이하 도 4에 도시된 데이터 학습부(410)가 기계학습모델(431)을 획득하기 위한 기계학습 네트워크를 설명한다.
도 4에 도시된 데이터 학습부(410)는 신경망을 이용한 학습 네트워크를 이용하여 복수의 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 학습하여 기계학습모델(431)을 획득할 수 있다.
본 개시의 일 실시예에 따르면, 데이터 학습부(410)가 복수의 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 학습하기 위한 네트워크는 CNN(Convolutional Neural Network, 합성곱 신경망)인 것을 특징으로 할 수 있으나, 이에 한정되는 것은 아니다.
본 개시의 다른 일 실시예에 따르면, 데이터 학습부(410)는 복수의 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 R-CNN(Region-based Convolutional Neural Network, 영역기반 합성곱 신경망)으로 학습하여 기계학습모델(431)을 획득할 수 있다.
본 개시의 또 다른 일 실시예에 따르면, 데이터 학습부(410)는 복수의 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 Faster R-CNN으로 학습하여 기계학습모델(431)을 획득할 수 있다.
기계학습모델의 기반이 되는 신경망으로는 널리 알려진 바와 같이 다양한 모델이 있다. 예컨대, 대표적인 신경망으로는 CNN 및 CNN을 개량한 모델 등이 있다. 그 중에서도 영상 데이터에 포함된 객체를 심층신경망을 이용하여 분류하는 기술로서 R-CNN이라는 것이 있다.
기본적으로 CNN은 컨볼루셔널(합성곱) 계층(convolution layer)와 풀링 계층(pooling layer)이 여러 층으로 이루어진 네트워크이다. 컨볼루셔널 계층을 통해 입력 이미지에 필터링을 수행하고 그 결과로 특징맵(feature map)을 추출한다. 특징맵은 다음 층의 입력으로 사용하여 계층별로 연속하여 처리한다. CNN은 입력 영상에 대한 특징맵을 기준으로 입력 영상에 대한 분류 내지 분석 결과를 출력한다.
R-CNN은 객체 분석을 수행하는 CNN과 해당 영상에서 객체가 존재할 영역을 제시하는 알고리즘(region proposal algorithm)을 연결한 모델이다. R-CNN은 입력 영상에서 선택적 선택(selective search) 등과 같은 알고리즘을 이용하여 사각형 후보 영역을 결정한다. R-CNN은 후보 영역을 동일한 크기로 잘라내고, 각 영역에 대한 특징을 추출하여 객체에 대한 분류를 수행한다.
한편 Faster R-CNN은 이미지 자체를 자르지 않고, 특징맵을 자르는 방식을 사용하여 속도가 빠르다. Faster R-CNN는 후보 영역을 결정하는 RPN(region proposal network)을 이용한다. 구체적으로, 영상 데이터 내에 포함된 물체를 인식하기 위하여 인식에 필요한 물체 외의 영역을 제거할 수 있도록 RPN을 이용하여 영상 데이터 내의 물체 영역을 지정한다.
본 개시의 일 실시예에 따르면, 데이터 학습부(410)는 획득한 복수의 기존 욕창의 영상 데이터(421)에 어노테이션을 포함한 전처리를 수행하고, 전처리를 거쳐 벡터화된 영상 데이터에 대해 영상 특징 추출 단계, RPN 단계 및 디텍터(Detector) 단계를 거쳐 욕창 발생 영역의 위치 정보를 추출할 수 있다. 이와 같은 과정을 통해 데이터 학습부(410)는 욕창 위치 정보와 욕창 단계 정보 간의 관계를 학습할 수 있다. 이에 관한 상세한 내용은 도 5 및 도 6과 함께 후술한다.
도 5는 본 개시의 일 실시예에 따른 기존 욕창의 영상 데이터에 대한 어노테이션 처리를 위한 인터페이스 및 프로세스의 예시를 나타낸 도면이다.
본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는 복수의 기존 욕창의 영상 데이터에 대해 욕창 위치 정보 및 욕창 단계 정보를 표시하는 어노테이션 처리를 수행할 수 있다. 이후에 욕창 관리 장치(220)는 어노테이션된 데이터들을 학습함으로써 욕창의 영상 데이터로부터 욕창 위치 정보 및 욕창 단계 정보를 추론할 수 있게 된다. 이하에서는 욕창 관리 장치(220)가 복수의 기존 욕창의 영상 데이터에 어노테이션 처리를 수행하기 위한 과정의 일 실시예를 설명한다.
도 5에 도시된 바와 같이, 복수의 기존 욕창의 원본 영상 데이터(image)와 그래픽 사용자 인터페이스(GUI)가 사용자 단말기 상에 표시될 수 있다. 사용자가 GUI를 통해 기존 욕창의 영상 데이터 상에 욕창 발생 영역을 지정함으로써 욕창 발생 위치의 좌표 정보가 입력부(210)에 입력될 수 있다. 또한 사용자는 GUI를 통해 기존 욕창에 관한 정보를 입력할 수 있다. 예컨대 도 5에 도시된 바와 같이, 사용자는 GUI를 통해 기존 욕창에 관한 정보로서 기존 욕창의 욕창 단계 정보를 입력할 수 있다. 입력된 정보는 도 1에 도시된 데이터 획득부(111)에서 획득할 수 있다. 또한 도 5에 도시되지는 않았으나, 사용자는 기존 욕창에 관한 진단 정보를 더 입력할 수 있다.
도 5에 도시된 바와 같이, 사용자는 GUI를 통해 복수의 기존 욕창의 영상 데이터에서 욕창이 발생한 영역을 사각형 상자로 표시할 수 있다. 사각형 상자가 GUI를 통해 입력되면, 도 5에 도시된 바와 같이 사각형 상자의 네 꼭짓점에 해당하는 X1, Y1, X2, 및 Y2의 좌표가 자동으로 지정될 수 있다. 이는 도 1에 도시된 데이터 획득부(111) 또는 전처리부(112)에 의해 행해질 수 있다.
또한 본 개시의 일 실시예에 따르면, 도 1에 도시된 전처리부(112)는 데이터 획득부(111)에서 획득된 기존 욕창의 영상 데이터의 파일 형식을 변환할 수 있다. 예컨대, 도 5에 도시된 바와 같이, 데이터 획득부(111)가 획득한 영상 데이터의 포맷이 JPG 또는 PNG일 경우, 전처리부(112)는 XLSX 포맷 또는 JSON 포맷으로 데이터를 변환할 수 있다. XLSX 포맷으로 변환된 데이터는 검수용 데이터로서 이용될 수 있고, JSON 포맷으로 변환된 데이터는 학습용 데이터로서 기계학습에 이용될 수 있다.
또한 본 개시의 일 실시예에 따르면, 적어도 한 명의 전문 의료인이 검수용 데이터에 대해 피드백을 함으로써 어노테이션 처리의 정확도를 높일 수 있다. 구체적으로, 적어도 한 명의 전문 의료인이 기존 욕창의 영상 데이터와 그에 대응되는 욕창에 관한 정보가 적절하게 매칭되었는지 여부를 판단하여 피드백을 하고, 사용자는 피드백을 적용한 갱신된 정보를 GUI를 통해 다시 입력할 수 있다.
전술한 도 4를 다시 참고하면, 복수의 기존 욕창의 영상 데이터(421)와 기존 욕창에 관한 정보(422)는 위와 같이 어노테이션 처리를 거쳐 학습용 데이터로 구축되어 데이터 학습부(410)에 입력된 후 소정의 데이터 전처리를 거쳐 기계학습에 이용될 수 있다. 이에 관한 상세한 내용은 도 6과 함께 후술한다.
나아가 도 4에 도시되지는 않았으나, 전처리부(112)는 욕창 진단 정보를 비롯하여, 욕창 사정 점수(Braden Scale) 및 알부민(albumin) 수치, 상처 기저부 상태와 삼출물의 양, 드레싱 재료별 특징 및 상처 치유 여부와 치유 형태에 따른 특징 중 적어도 하나를 어노테이션함으로써 욕창과 관련된 다양한 특징이 기계학습되도록 할 수 있다.
도 6은 본 개시의 일 실시예에 따른 복수의 기존 욕창의 영상 데이터의 기계학습을 위한 인터페이스 및 프로세스의 예시를 나타낸 도면이다.
본 개시의 일 실시예에 따르면, 도 5에서 상술한 바와 같이 어노테이션 처리를 거쳐 학습용 데이터로 변환된 복수의 기존 욕창의 영상 데이터는 데이터 학습부(410)에서 기계학습을 위한 일련의 프로세스를 거칠 수 있다. 예컨대 도 6에 도시된 바와 같이, 먼저 데이터 학습부(410)의 전처리부(112)는 입력받은 복수의 기존 욕창의 영상 데이터에 대해 전처리 단계, 이미지 특징 추출 단계, RPN 단계 및 디텍터(Detector) 단계를 거쳐 복수의 기존 욕창의 영상 데이터의 위치 정보 및 단계 정보를 출력할 수 있다.
본 개시의 일 실시예에 따르면, 먼저 전처리부(112)는 기계학습에 이용될 수 있도록 복수의 기존 욕창의 영상 데이터에 영상 필터를 적용하여 영상 데이터를 증폭시켜 벡터 형태로 가공할 수 있다. 예컨대 전처리부(112)는, 복수의 기존 욕창의 영상 데이터에 바이레터럴(bilateral), 가우시안(Gaussian) 및 히스토그램 등화(histogram equalization) 필터 중 적어도 하나를 적용하여 기존 욕창의 영상 데이터를 증폭할 수 있다.
그 다음 전처리부(112)는, 도 6에 도시된 바와 같이, 증폭된 영상 데이터에 대해 정규화(normalization), 크기조정(Resizing), 뒤집기(Flipping), 패딩(padding), 스케일링(Scaling), 위치변경(Translation), 회전(Rotation), 원근법 변환(Perspective Transformation), 노이즈(Noise) 조정, 조도(Lighting condition) 변경, 배경 및 스타일 변경 중 하나 이상의 처리를 행하여 욕창 영상 데이터를 벡터화할 수 있다.
여기서, 영상 데이터를 정규화하는 것은 데이터 특징의 스케일 편차를 줄이기 위해 데이터의 범위를 사용자가 원하는 범위로 제한하는 것을 의미한다. 크기조정은 객체 이미지내의 객체 비율 조정을 통한 외형의 변화된 이미지를 생성하여 외형은 비슷하나 보는 각도에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 뒤집기는 객체의 상하 또는 좌우를 바꾸어 이미지를 생성하여 객체의 외형은 동일하나 보이는 각도와 방향에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 스케일링은 객체 이미지 크기의 변형을 통해 다양한 크기의 객체 이미지를 생성하여 외형은 동일하나 보이는 각도와 거리에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 위치변경은 객체 이미지의 배경 및 위치를 변경하여 객체의 외형은 비슷하나 보는 위치에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 회전은 이미지를 회전하여 다양한 각도의 이미지를 생성하여 객체의 외형은 비슷하나 보는 각도에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 원근법 변환은 객체의 보이는 입체(X축, Y축, Z축)방향의 각도 조정을 통해 이미지를 생성하여 외형은 비슷하나 보는 각도에 따라 다르게 보이는 객체 이미지 생성에 사용된다. 노이즈 조정은 외형은 동일하나 객체의 외부 텍스쳐(texture)의 정도를 여러 단계로 나누어 이미지 데이터를 생성하는데 사용된다. 조도 변경은 객체 이미지의 밝기를 변경하여 이미지를 생성함으로써 빛의 밝기에 따라 여러 가지 색상 및 그림자를 포함한 이미지 데이터를 생성하는데 사용된다.
그 다음 모델학습부(113)는, 도 6에 도시된 바와 같이, 전처리부(112)에 의해 벡터화된 영상 데이터에 대해 신경망을 사용하여 여러 스케일을 거쳐 욕창 영상 데이터의 특징맵(feature map)을 획득할 수 있다. 그 다음 모델학습부(113)는 획득한 특징맵에 RPN(영역 제안 네트워크)을 적용하여 기존 욕창의 영상 데이터에서 인식하고자 하는 영역, 예컨대 욕창 발생 영역에 대한 정보를 추출할 수 있다. RPN을 적용하는 단계에서는 획득된 영상 데이터의 특징맵을 활용하여 영상에서의 특정 위치를 기준으로 소정의 가로 및 세로 비율로 이루어진 앵커 박스(anchor box)에 대해 이진 분류가 행해질 수 있다.
그 다음 도 6에 도시된 바와 같이, 모델학습부(113)는 RPN을 적용한 후에 디텍터를 적용할 수 있다. 디텍터를 적용하는 단계에서는 RPN 결과 및 영상 데이터의 특징맵을 이용하여 복수의 기존 욕창의 위치에 관한 정보, 예를 들어 욕창 발생 영역의 위치 좌표 정보 또는 욕창의 깊이 정보와, 그에 대응되는 기존 욕창의 욕창에 관한 정보, 예를 들어 욕창 단계 정보를 학습할 수 있다.
또한 본 개시의 일 실시예에 따르면, 모델 학습부(113)는 RPN 손실값(RPN loss)과 디텍터 손실값(detector loss)을 더한 최종 손실값을 계산하고, 기계학습 모델의 파라미터들은 최종 손실값을 줄이는 방향으로 업데이트될 수 있다.
또한 본 개시의 일 실시예에 따르면, 모델 학습부(113)는 영상 데이터로부터 이미지 특징을 추출함에 있어서 SOTA(State of the art) 객체 인식 기술을 융합한 기술을 사용할 수 있고, COCO(Common Objects in Context) 데이터셋(dataset)을 사용할 수도 있다.
도 7은 본 개시의 일 실시예에 따른 욕창 관리 장치를 나타낸 블록도이다.
본 개시의 일 실시예에 따르면 도 2에 도시된 욕창 관리 장치(220)는 도 1의 데이터 인식부(120)를 포함할 수 있다. 도 1에 도시된 데이터 인식부(120)는 입력 데이터를 미리 획득된 기계학습모델(710)에 적용하여 결과 데이터를 획득할 수 있다. 구체적으로 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터(720)를 기계학습모델(710)에 적용하여 현재 환자의 욕창에 관한 정보(730)를 획득할 수 있다.
욕창 관리 장치(220)가 획득된 현재 환자의 욕창 영상 데이터는 욕창 자체를 촬영한 것일 수도 있지만, 환자복에 묻은 삼출물의 영상, 욕창에 부착했던 드레싱에 묻은 삼출물의 영상 또는 환자가 누워있던 시트에 묻은 삼출물의 영상일 수도 있다. 환자복에 묻은 삼출물의 영상, 욕창에 부착했던 드레싱에 묻은 삼출물의 영상 또는 환자가 누워있던 시트에 묻은 삼출물의 영상을 수신한 경우, 욕창 관리 장치(220)는 시간과 관련된 정보를 영상 데이터와 병합시킬 수 있다. 예를 들어 욕창 관리 장치(220)는 시간과 관련된 정보를 영상 데이터의 메타데이터에 기록하거나, 시간과 관련된 정보의 비트 값을 적어도 하나의 픽셀의 비트값으로 변형하여 영상에 병합할 수 있다. 영상 데이터와 시간과 관련된 정보를 병합하는 과정에 대해서는 이미 설명한 바 있으므로 중복되는 설명은 생략한다.
또한 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터(720)를 기계학습모델(710)에 적용하여 욕창 치료 정보(740)를 더 획득할 수 있다. 도 7의 기계학습모델(710)은 도 4의 기계학습모델(431)에 대응될 수 있다.
도 4의 기계학습모델(431)이 기존 욕창의 영상 데이터와 기존 욕창에 관한 정보 간의 관계를 기계학습하였다면, 도 7에서 기계학습모델(431)은 현재 환자의 욕창 영상 데이터에 기초하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 출력할 수 있다. 기존 욕창에 관한 정보는 기존 욕창의 욕창 단계 정보, 욕창 진단 정보, 영상 데이터(421) 내의 욕창의 위치 정보, 및 기존 욕창 치료 정보 중 적어도 하나를 포함하기 때문이다.
여기서 기계학습모델(710)이 현재 환자의 욕창 영상 데이터(720)를 학습하여 획득하는 현재 환자의 욕창에 관한 정보(730)는 욕창 단계 정보 및/또는 진단 정보를 포함할 수 있다. 현재 환자의 욕창 진단 정보는 후술할 도 8 내지 도 10의 드레싱 추천 알고리즘에 사용되는 정보를 포함할 수 있다. 예컨대 현재 환자의 욕창 진단 정보는 후술할 도 8 내지 도 10의 드레싱 추천 알고리즘의 각 단계별 질문에 대한 점수 정보를 포함할 수 있다.
본 개시의 일 실시예에 따르면, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터(720)를 기계학습모델(710)에 적용하여 욕창에 관한 다양한 정보를 획득할 수 있다. 예컨대, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터(720)를 기계학습모델(710)에 적용하여 욕창 위치 정보와 욕창 단계 정보를 획득할 수 있다. 또한 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터(720)를 기계학습모델(710)에 적용하여 도 8 내지 도 10에서 후술할 드레싱 추천 알고리즘에 사용되는 현재 욕창에 관한 진단 정보를 획득할 수 있다.
나아가 욕창 관리 장치(220)는 획득된 욕창에 관한 정보(730)를 도 8 내지 도 10에서 언급된 알고리즘에 적용하여 욕창 치료 정보(740)를 획득할 수 있다.
하지만 이에 한정되는 것은 아니며, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 욕창 치료 정보를 직접 생성할 수 있다.
추가적으로, 사용자 또는 의료인이 직접 입력해야 하는 진단 정보, 예컨대, 현재 환자가 고열이 심한지 여부, 피로감 및 몸살기운을 제외한 감염 진단이 있는지 여부에 관한 정보가 욕창 관리 장치(220)에 입력될 수 있고, 이와 같이 입력된 추가 정보가 욕창 치료 정보(740)를 결정하는 데에 이용될 수 있다.
또한 욕창 관리 장치(220)는 현재 환자의 센서 정보가 포함된 현재 환자의 욕창 영상 데이터를 기계학습모델에 적용하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 획득할 수 있다. 이미 설명한 바와 같이 센서 정보는 후각 센서 또는 먼지 센서로부터 획득된 정보일 수 있다. 센서 정보는 현재 환자의 욕창 영상 데이터에 병합될 수 있다. 병합되는 과정에 대해서는 이미 설명한 바 있으므로 중복되는 설명은 생략한다.
본 개시의 일 실시예에 따르면 욕창 치료 정보(740)는 욕창 치료에 필요한 드레싱 정보를 포함할 수 있다. 욕창을 치료하기 위한 드레싱은 드레싱 추천 알고리즘에 의해 결정될 수 있다. 드레싱 추천 알고리즘에 관한 구체적인 내용은 도 8 내지 도 10과 함께 후술한다.
또한, 후술할 도 8 내지 도 10에서의 드레싱 추천 알고리즘은 본 개시에 따른 일 실시예이며, 이와 같은 드레싱 추천 알고리즘은 기계학습을 통해 결정될 수도 있다. 이에 대해서는 도 11과 함께 후술한다.
도 8 내지 도 10은 본 개시의 일 실시예에 따른 드레싱 추천 알고리즘을 나타낸 순서도이다.
도 8 내지 도 10을 참조하면, 욕창 관리 장치(220)는 욕창 진단 정보를 이용하여 환자의 고열이 심한가를 확인한다(811).
환자의 고열이 37.8℃ 이상이면, 욕창 관리 장치(220)는 사용자 단말로 병원 방문을 요청하거나 진료 통합 장치(240)로 가정방문 전문 간호사를 요청한다(813).
환자의 고열이 37.8℃ 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상처는 심한가에 대한 응답을 확인한다(817). 현재 욕창에 관한 진단 정보는 상처는 심한가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 상처는 심한가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 상처는 심한가에 대한 응답 정보를 획득할 수 있다.
상처는 심한가에 대한 응답이 5점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(819). 이후 과정은 단계 835에서 설명하기로 한다.
상처는 심한가에 대한 응답이 5점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 부종이 심한가에 대한 응답을 확인한다(821). 현재 욕창에 관한 진단 정보는 부종은 심한가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 부종은 심한가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 부종은 심한가에 대한 응답 정보를 획득할 수 있다.
부종이 심한가에 대한 응답이 5점 이상이면, 욕창 관리 장치(220)는 사용자 단말로 병원 방문을 요청하거나, 진료 통합 장치(240)로 가정방문 전문 간호사를 요청한다(823).
부종이 심한가에 대한 응답이 3점 이상에서 5점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(825). 이후 과정은 단계 835에서 설명하기로 한다.
부종이 심한가에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 괴사조직의 양이 어떠한가에 대한 응답을 확인한다(827). 현재 욕창에 관한 진단 정보는 괴사조직의 양이 어떠한가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 괴사조직의 양이 어떠한가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 괴사조직의 양이 어떠한가에 대한 응답 정보를 획득할 수 있다.
괴사조직의 양이 어떠한가에 대한 응답이 4점 이상이면 욕창 관리 장치(220)는, 사용자 단말로 병원 방문을 요청하거나, 진료 통합 장치(240)로 가정방문 전문 간호사를 요청한다(829).
괴사조직의 양이 어떠한가에 대한 응답이 4점 미만이면, 욕창 관리 장치(220)는 욕창 진단 정보를 이용하여 고열, 피로감 및 몸살기운을 제외한 감염 진단의 여부를 확인한다(831).
고열, 피로감 및 몸살기운을 제외한 감염 진단이 있으면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(833).
욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(835). 현재 욕창에 관한 진단 정보는 삼출물의 양이 어떠한가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 삼출물의 양이 어떠한가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 삼출물의 양이 어떠한가에 대한 응답 정보를 획득할 수 있다.
삼출물의 양이 어떠한가에 대한 응답이 4점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(837). 현재 욕창에 관한 진단 정보는 상피화가 어느 정도 진행되었는지에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 상피화가 어느 정도 진행되었는지에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 상피화가 어느 정도 진행되었는지에 대한 응답 정보를 획득할 수 있다.
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(839).
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 폼 드레싱으로 설정한다(841).
삼출물의 양이 어떠한가에 대한 응답이 1점 초과하고 3점 이하이면, 욕창 관리 장치(220)는 판독 결과 데이터에 포함된 괴사조직의 양이 어떠한가에 대한 응답을 확인한다(843).
괴사조직의 양이 어떠한가에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(845).
이후, 진행 과정은 단계 853에서 설명하기로 한다.
괴사조직의 양이 어떠한가에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(847).
삼출물의 양이 어떠한가에 대한 응답이 3점이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(849).
삼출물의 양이 어떠한가에 대한 응답이 2점이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(851). 이후, 진행 과정은 단계 853에서 설명하기로 한다.
욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(853).
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(855).
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 폼 드레싱으로 설정한다(857).
고열, 피로감 및 몸살 기운을 제외한 감염 진단이 아니면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(859).
삼출물의 양이 어떠한가에 대한 응답이 1점이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상처는 깊은가에 대한 응답을 확인한다(861). 현재 욕창에 관한 진단 정보는 상처는 깊은가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 상처는 깊은가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 상처는 깊은가에 대한 응답 정보를 획득할 수 있다.
상처는 깊은가에 대한 응답이 3점 이하이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(863).
상처는 깊은가에 응답이 4점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱 및 하이드로 콜로이드 드레싱으로 설정한다(865).
삼출물의 양이 어떠한가에 대한 응답이 1점 초과하고 3점 이하이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 괴사조직의 양이 어떠한가에 대한 응답을 확인한다(867).
괴사조직의 양이 어떠한가에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상처는 깊은가에 대한 응답을 확인한다(869).
상처는 깊은가에 대한 응답이 1점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(871).
상처는 깊은가에 대한 응답이 1점 초과하고 2점 이하이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(873).
상처는 깊은가에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱 으로 설정한다(875).
하이드로 화이버 드레싱을 설정한 후에, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(877).
삼출물의 양이 어떠한가에 대한 응답이 2점이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(879).
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(881).
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 폼 드레싱으로 설정한다(883).
삼출물의 양이 어떠한가에 대한 응답이 3점이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(885).
괴사조직의 양이 어떠한가에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상처는 깊은가에 대한 응답을 확인한다(887).
상처는 깊은가에 대한 응답이 2점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(889).
삼출물의 양이 어떠한가에 대한 응답이 2점이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(891).
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱으로 설정한다(893).
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 폼 드레싱으로 설정한다(895).
삼출물의 양이 어떠한가에 대한 응답이 3점이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(897).
상처는 깊은가에 대한 응답이 2점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 삼출물의 양이 어떠한가에 대한 응답을 확인한다(899).
삼출물의 양이 어떠한가에 대한 응답이 2점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 콜로이드 드레싱 및 멸균, 접착성 드레싱으로 설정한다(901).
삼출물의 양이 어떠한가에 대한 응답이 3점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱 및 멸균, 접착성 드레싱으로 설정한다(903).
삼출물의 양이 어떠한가에 대한 응답이 4점이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상처는 깊은가에 대한 응답을 확인한다(905).
상처는 깊은가에 대한 응답이 2점 미만이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 창상 주위의 피부의 변화는 어떠한가에 대한 응답을 확인한다(907). 현재 욕창에 관한 진단 정보는 창상 주위의 피부의 변화는 어떠한가에 대한 응답 정보를 포함할 수 있다. 욕창 관리 장치(220)는 창상 주위의 피부의 변화는 어떠한가에 대한 응답 정보를 기계학습모델(710)에 기초하여 획득할 수 있다. 즉, 욕창 관리 장치(220)는 현재 환자의 욕창 영상 데이터를 기계학습모델(710)에 적용하여 창상 주위의 피부의 변화는 어떠한가에 대한 응답 정보를 획득할 수 있다.
창상 주위의 피부의 변화는 어떠한가에 대한 응답이 1점이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(909).
창상 주위의 피부의 변화는 어떠한가에 대한 응답이 2점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(911).
하이드로 화이버 드레싱으로 설정한 후에, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 상피화가 어느 정도 진행되었는지에 대한 응답을 확인한다(913).
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(915).
상피화가 어느 정도 진행되었는지에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 폼 드레싱으로 설정한다(917).
상처는 깊은가에 대한 응답이 2점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 괴사조직의 양이 어떠한가에 대한 응답을 확인한다(919).
괴사조직의 양이 어떠한가에 대한 응답이 3점 미만이면, 욕창 관리 장치(220)는 단계 907로 돌아가서, 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 창상 주위의 피부의 변화는 어떠한가에 대한 응답을 확인한다(921). 이후, 욕창 관리 장치(220)는 단계 907 이후의 과정을 수행한다.
괴사조직의 양이 어떠한가에 대한 응답이 3점 이상이면, 욕창 관리 장치(220)는 욕창 관리 장치(220) 및/또는 진료 통합 장치(240)에서 획득된 창상 주위의 피부의 변화는 어떠한가에 대한 응답을 확인한다(923).
창상 주위의 피부의 변화는 어떠한가에 대한 응답이 1점이면, 욕창 관리 장치(220)는 드레싱 치료제를 멸균, 접착성 드레싱으로 설정한다(925).
창상 주위의 피부의 변화는 어떠한가에 대한 응답이 2점 이상이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(927).
창상 주위의 피부의 변화는 어떠한가에 대한 응답이 2점 이상이면, 욕창 관리 장치(220)는 하이드로 화이버 드레싱 이외에 멸균, 접착성 드레싱을 추가로 설정한다(929).
삼출물의 양이 어떠한가에 대한 응답이 5점이면, 욕창 관리 장치(220)는 드레싱 치료제를 하이드로 화이버 드레싱으로 설정한다(929).
도 11은 본 개시의 일 실시예에 따른 욕창 관리 장치의 동작 흐름의 예시를 나타낸 것이다.
본 개시의 일 실시예에 따른 욕창 관리 장치는 전술한 바와 같이 복수의 기존 욕창의 영상 데이터와 복수의 기존 욕창에 관한 정보 간의 관계를 기계학습하여 복수의 기존 욕창의 영상 데이터의 특징 정보를 추출할 수 있다. 예컨대 복수의 기존 욕창의 영상 데이터의 특징 정보는 욕창 발생 영역을 나타내는 위치 정보와 욕창 단계 정보를 포함할 수 있다. 나아가 욕창에 관한 정보는 욕창의 영상 데이터에 대응되는 진단 정보를 포함할 수 있다. 진단 정보는 드레싱 방법에 대한 클래스를 세분화한 내용을 포함할 수 있다. 예컨대 진단 정보는 삼출물 정도, 육아 조직 여부, 내부 노출, 감염 여부, 건조 여부 및 금기 사항 중 적어도 하나를 포함할 수 있다.
욕창 관리 장치는 최적의 드레싱 추천 알고리즘을 선출하기 위해 위와 같은 기존 욕창의 영상 데이터의 특징 정보와 진단 정보에 딥 디시전 트리 부스팅(Deep Decision Tree Boosting) 모델을 적용할 수 있다.
앙상블(Essemble)이란, 여러 개의 디시전 트리(의사결정 나무)를 결합하여 하나의 디시전 트리보다 더 뛰어난 성능을 낼 수 있게 한 러닝머신 기법이다. 앙상블 기법에서는 여러 개의 약 분류기(Weak Classifier)를 결합하여 강 분류기(Strong Classifier)를 만들어 기계학습 모델의 정확성을 향상시킬 수 있다. 최근 컴퓨터 비전, 음성 인식, 자연어 처리, 신호처리와 같은 기계학습 분야에서 앙상블 기법은 혁신적인 성능을 보여주고 있다. 앙상블 기법으로는 부스팅(boosting)과 배깅(bagging)을 비롯한 다양한 기법이 존재한다. 딥 디시전 트리 부스팅 모델은 기본 디시전 트리에 부스팅이라는 앙상블 학습법을 적용한 모델로, 손실(loss)값을 최적화하면서 가중치를 부여할 수 있는 기계학습을 통해 최적의 딥 디시전 트리를 결정할 수 있는 알고리즘이다.
본 개시의 일 실시예에 따르면, 도 11에 도시된 바와 같이, 욕창의 영상 데이터의 특징 정보와 드레싱 방법과 관련하여 클래스를 세분화한 진단 정보가 딥 디시전 트리 부스팅 알고리즘에 입력값으로 입력될 수 있다. 입력된 정보는 맵핑(mapping) 모듈을 거쳐 디시전 트리로 출력되고, 손실을 최적화할 수 있도록 부스팅 단계를 거친 후, 가중치를 활용하는 학습을 수행하기 위해 앙상블 학습 단계를 거쳐, 결과적으로 최적의 디시전 트리가 결정될 수 있다.
본 개시의 일 실시예에 따른 욕창 관리 장치는 위와 같이 딥 디시전 트리 부스팅 모델을 적용함으로써 최적의 드레싱 방법을 결정할 수 있다. 나아가, 결정된 디시전 트리의 적합성을 적어도 한 명의 의료 전문가에게 검수 또는 자문받을 수 있다. 이후에 검수 또는 자문의 결과에 대한 정보를 추가하여 업데이트된 정보는 딥 디시전 트리 부스팅 알고리즘에 다시 입력될 수 있으며, 이와 같이 전문가의 피드백을 반영하여 드레싱 추천의 정확도를 지속적으로 개선할 수 있다.
도 12는 본 개시의 일 실시예에 따른 기계학습모델의 평가 프로세스의 예시를 나타낸 것이다.
도 1에 도시된 모델 평가부(114)는 기계학습모델의 학습 및 추론 속도와 정확도를 개선하기 위해 도 12에 도시된 바와 같은 프로세스를 통해 오류 또는 효율성 저하의 원인 분석, 평가 및 처리를 수행할 수 있다.
본 개시의 일 실시예에 따르면, 기계학습의 속도, 추론 속도 및 정확도를 개선하기 위해 모델 파라미터(model parameter), 하이퍼 파라미터(hyper-parameter), GPU(Graphic Processing Unit) 및 16비트(bits) 연산 중 적어도 하나의 인자(factor)가 최적화되도록 조정할 수 있다.
모델 파라미터는 기계학습모델의 내부에서 데이터로부터 얻어지는 매개변수로서, 사용자가 입력하는 매개변수가 아니라 모델링에 의해 자동으로 결정되는 값이다. 하이퍼파라미터는 모델의 트레이닝을 수행하기 전에 미리 설정해주어야 하는 파라미터로서, 트레이닝에 의해 학습되는 기계학습모델의 파라미터와는 차이점이 있다. 하이퍼파라미터의 값이 어떤 값으로 설정되는지에 따라 기계학습모델의 성능이 크게 달라질 수 있다.
모델 평가부(114)는 다중 GPU 학습의 최적화를 위해 분산형 GPU 훈련(Distributed GPU training)을 수행하도록 모델 학습부(113)에 명령을 전달할 수 있다.
또한 모델 평가부(114)는 기계학습에 요구되는 메모리 비중을 줄이고 기계학습에 소요되는 시간을 단축시키기 위해 믹스된 정밀도 훈련(Mixed Precision training)을 수행하도록 모델 학습부(113)에 명령을 전달할 수 있다.
또한 모델 평가부(114)는 RPN 단계의 효율성을 높이기 위해 어노테이션된 데이터를 분석하여 최적화된 RPN 앵커 박스의 크기 및 비율의 정보를 모델 학습부(113)에 전달할 수 있다.
본 개시의 일 실시예에 따르면, 모델 평가부(114)는 기계학습 데이터의 신뢰도를 높이고 정확도를 개선하기 위해, 학습의 정확도를 떨어뜨리는 잘못된 학습 데이터를 찾아내어 제거할 수 있다.
예를 들어, 욕창의 영상 데이터로부터 욕창 단계 평가를 잘못 한 경우, 예컨대 1단계의 욕창을 6단계로 잘못 분류했을 경우, 모델 평가부(114)는 해당 영상 데이터로부터 원인 분석에 사용하기 위한 이미지 특징 벡터를 추출하고, 학습된 데이터셋의 이미지 특징 벡터들과의 코사인 유사도(cosine similarity)를 구함으로써, 데이터셋 내에서 유사도가 가장 높은 최상위 N개의 학습 데이터를 검출하여, 해당 영상 데이터의 욕창 단계 정보에 대한 어노테이션 처리가 잘못되었음을 판별할 수 있다. 그 다음 모델 평가부(114)는 욕창 단계 정보를 정정하는 어노테이션 처리를 수행하거나, 어노테이션이 잘못된 데이터를 데이터셋에서 제거할 수 있다. 이로써 데이터셋은 최적화될 수 있으며, 기계학습의 정확도와 신뢰도가 향상된다.
이제까지 다양한 실시예들을 중심으로 살펴보았다. 본 개시이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 개시이 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 개시의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 개시에 포함된 것으로 해석되어야 할 것이다.
본 개시의 욕창 관리를 위한 장치 및 욕창 관리를 위한 장치의 동작 방법은 욕창 사진과 욕창에 관한 정보 간의 관계를 기계학습하여 욕창의 단계를 평가하고 그에 따른 드레싱 치료제를 안내할 수 있게 함으로써 의료 서비스의 효율성을 높이는 데 기여할 수 있을 것으로 기대된다. 또한 의료인의 경력에 따른 간호 수행의 차이를 줄일 수 있으며 업무 부하도 감소되는 효과를 기대할 수 있을 것이다. 나아가 특수 장비를 활용하지 않고도 시스템 연동에 의해 환자의 욕창 상태의 변화를 지속적으로 확인할 수 있어 욕창 관리를 집중적으로 할 수 있게 되므로 욕창 환자의 사망률을 줄이고 재원 기간을 단축시킬 수 있으며 의료비용 지출도 감소시킬 수 있을 것이다.
한편, 상술한 본 개시의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.

Claims (8)

  1. 복수의 기존 욕창의 영상 데이터를 획득하는 단계;
    상기 복수의 기존 욕창의 영상 데이터에 대응되는 기존 욕창에 관한 정보를 획득하는 단계;
    상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창에 관한 정보 간의 관계를 CNN(Convolutional Neural Network)으로 학습하여 기계학습모델을 획득하는 단계;
    현재 환자의 욕창 영상 데이터를 획득하는 단계;
    상기 현재 환자의 욕창 영상 데이터에 상기 기계학습모델을 적용하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 결정하는 단계; 및
    상기 현재 환자의 욕창에 관한 정보 또는 상기 욕창 치료 정보를 출력하는 단계를 포함하고,
    상기 기존 욕창에 관한 정보는 상기 기존 욕창의 욕창 단계 정보, 욕창 진단 정보, 영상 데이터 내의 욕창의 위치 정보 및 기존 욕창 치료 정보 중 적어도 하나를 포함하고,
    상기 현재 환자의 욕창에 관한 정보는 상기 현재 환자의 욕창의 욕창 단계 정보 및 욕창 진단 정보 중 적어도 하나를 포함하고,
    상기 욕창 치료 정보는 욕창을 치료하기 위한 드레싱 정보를 포함하는 것을 특징으로 하는 욕창 관리 장치의 동작 방법.
  2. 제1항에 있어서,
    상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창에 관한 정보 간의 관계를 CNN으로 학습하여 기계학습모델을 획득하는 단계는,
    상기 복수의 기존 욕창의 영상 데이터를 전처리하는 단계;
    상기 전처리된 영상 데이터로부터 이미지 특징 데이터를 추출하는 단계;
    상기 이미지 특징 데이터를 이용하여 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창의 욕창 단계 정보 간의 관계를 R-CNN(Region-based Convolutional Neural Network)을 이용하여 학습하는 단계; 및
    상기 복수의 기존 욕창의 욕창 위치 정보 및 욕창 단계 정보 간의 관계에 대한 정보를 출력하는 단계를 포함하는 것을 특징으로 하는 욕창 관리 장치의 동작 방법.
  3. 제2항에 있어서,
    상기 복수의 기존 욕창의 영상 데이터를 전처리하는 단계는, 상기 복수의 기존 욕창의 영상 데이터에 어노테이션(annotation) 처리를 수행하는 것을 포함하고,
    상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창의 욕창 단계 정보 간의 관계를 R-CNN을 이용하여 학습하는 단계는, RPN(region proposal network)을 이용하는 것을 특징으로 하는 욕창 관리 장치의 동작 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 현재 환자의 욕창 영상 데이터에 상기 기계학습모델을 적용하여 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 결정하는 단계는,
    드레싱 추천 알고리즘을 사용하여 상기 욕창 단계 정보 및 상기 욕창 진단 정보 중 적어도 하나에 따라 욕창을 치료하기 위해 필요한 드레싱 정보를 결정하고,
    상기 드레싱 추천 알고리즘은 딥 디시전 트리 부스팅(Deep Decision Tree Boosting) 모델을 적용하여 결정되는 것을 특징으로 하는 욕창 관리 장치의 동작 방법.
  5. 욕창 관리 장치는 프로세서 및 메모리를 포함하고,
    상기 프로세서는 메모리에 저장된 명령어에 기초하여,
    복수의 기존 욕창의 영상 데이터를 획득하는 단계;
    상기 복수의 기존 욕창의 영상 데이터에 대응되는 기존 욕창에 관한 정보를 획득하는 단계;
    상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창에 관한 정보 간의 관계를 CNN(Convolutional Neural Network)으로 학습하여 기계학습모델을 획득하는 단계;
    현재 환자의 욕창 영상 데이터를 획득하는 단계;
    상기 현재 환자의 욕창 영상 데이터에 상기 기계학습모델을 적용하여 상기 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 결정하는 단계; 및
    상기 현재 환자의 욕창에 관한 정보 또는 상기 욕창 치료 정보를 출력하는 단계를 수행하고,
    상기 기존 욕창에 관한 정보는 상기 기존 욕창의 욕창 단계 정보, 욕창 진단 정보 및 기존 욕창 치료 정보 중 적어도 하나를 포함하고,
    상기 현재 환자의 욕창에 관한 정보는 상기 현재 환자의 욕창의 욕창 단계 정보 및 욕창 진단 정보 중 적어도 하나를 포함하고,
    상기 욕창 치료 정보는 욕창을 치료하기 위한 드레싱 정보를 포함하는 것을 특징으로 하는 욕창 관리 장치.
  6. 제5항에 있어서,
    상기 프로세서는, 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창에 관한 정보 간의 관계를 CNN으로 학습하여 기계학습모델을 획득하기 위해, 메모리에 저장된 명령어에 기초하여,
    상기 복수의 기존 욕창의 영상 데이터를 전처리하는 단계;
    상기 전처리된 영상 데이터로부터 이미지 특징 데이터를 추출하는 단계;
    상기 이미지 특징 데이터를 이용하여 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창의 욕창 단계 정보 간의 관계를 R-CNN(Region-based Convolutional Neural Network)을 이용하여 학습하는 단계; 및
    상기 복수의 기존 욕창의 욕창 위치 정보 및 욕창 단계 정보 간의 관계에 대한 정보를 출력하는 단계를 수행하는 것을 특징으로 하는 욕창 관리 장치.
  7. 제6항에 있어서,
    상기 프로세서는, 복수의 기존 욕창의 영상 데이터를 전처리하기 위해, 메모리에 저장된 명령어에 기초하여, 상기 복수의 기존 욕창의 영상 데이터에 어노테이션(annotation) 처리를 수행하고,
    상기 프로세서는, 상기 복수의 기존 욕창의 영상 데이터와 상기 기존 욕창의 욕창 단계 정보 간의 관계를 R-CNN을 이용하여 학습하기 위해, 메모리에 저장된 명령어에 기초하여, RPN(region proposal network)을 이용한 기계학습을 수행하는 것을 특징으로 하는 욕창 관리 장치.
  8. 제5항 내지 제7항 중 어느 한 항에 있어서,
    상기 프로세서는, 상기 현재 환자의 욕창 영상 데이터에 상기 기계학습모델을 적용하여 상기 현재 환자의 욕창에 관한 정보 또는 욕창 치료 정보를 결정하기 위해, 메모리에 저장된 명령어에 기초하여, 드레싱 추천 알고리즘을 사용하여 상기 욕창 단계 정보 및 상기 욕창 진단 정보 중 적어도 하나에 따라 욕창을 치료하기 위해 필요한 드레싱 정보를 결정하는 단계를 수행하는 것을 특징으로 하고,
    상기 드레싱 추천 알고리즘은 딥 디시전 트리 부스팅(Deep Decision Tree Boosting) 모델을 적용하여 결정되는 것을 특징으로 하는 욕창 관리 장치.
KR1020210033792A 2021-03-16 2021-03-16 인공지능을 이용한 욕창 단계 평가 및 치료 추천을 제공하는 장치 및 방법 KR102550631B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210033792A KR102550631B1 (ko) 2021-03-16 2021-03-16 인공지능을 이용한 욕창 단계 평가 및 치료 추천을 제공하는 장치 및 방법
US17/693,667 US20220301171A1 (en) 2021-03-16 2022-03-14 Apparatus for providing evaluation of bedsore stages and treatment recommendations using artificial intelligence and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210033792A KR102550631B1 (ko) 2021-03-16 2021-03-16 인공지능을 이용한 욕창 단계 평가 및 치료 추천을 제공하는 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20220129209A true KR20220129209A (ko) 2022-09-23
KR102550631B1 KR102550631B1 (ko) 2023-07-03

Family

ID=83283848

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210033792A KR102550631B1 (ko) 2021-03-16 2021-03-16 인공지능을 이용한 욕창 단계 평가 및 치료 추천을 제공하는 장치 및 방법

Country Status (2)

Country Link
US (1) US20220301171A1 (ko)
KR (1) KR102550631B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160092013A (ko) * 2013-12-03 2016-08-03 칠드런스 내셔널 메디컬 센터 상처의 평가 및 관리를 위한 방법 및 시스템
US20200193597A1 (en) 2018-12-14 2020-06-18 Spectral Md, Inc. Machine learning systems and methods for assessment, healing prediction, and treatment of wounds
KR20200102961A (ko) * 2019-02-22 2020-09-01 가천대학교 산학협력단 병변 진단 시스템 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160092013A (ko) * 2013-12-03 2016-08-03 칠드런스 내셔널 메디컬 센터 상처의 평가 및 관리를 위한 방법 및 시스템
US20200193597A1 (en) 2018-12-14 2020-06-18 Spectral Md, Inc. Machine learning systems and methods for assessment, healing prediction, and treatment of wounds
KR20200102961A (ko) * 2019-02-22 2020-09-01 가천대학교 산학협력단 병변 진단 시스템 및 방법

Also Published As

Publication number Publication date
US20220301171A1 (en) 2022-09-22
KR102550631B1 (ko) 2023-07-03

Similar Documents

Publication Publication Date Title
Chattopadhyay et al. MRI-based brain tumour image detection using CNN based deep learning method
US10452957B2 (en) Image classification apparatus, method, and program
US20190221313A1 (en) Diagnosis assistance system and control method thereof
US11651850B2 (en) Computer vision technologies for rapid detection
KR102140402B1 (ko) 기계학습을 이용한 의료 영상 판독의 품질 관리 방법 및 장치
KR20200005406A (ko) 진단 보조 시스템
Agrawal et al. Assistive framework for automatic detection of all the zones in retinopathy of prematurity using deep learning
KR20200023029A (ko) 진단 보조 시스템 및 그 제어 방법
KR102097743B1 (ko) 인공지능 질환 판독 장치 및 방법
Goyal et al. A refined deep learning architecture for diabetic foot ulcers detection
Kumar et al. Recent advances in machine learning for diagnosis of lung disease: A broad view
Jahan et al. Automated diagnosis of pneumonia from classification of chest x-ray im ages using efficientnet
Foltynski et al. Internet service for wound area measurement using digital planimetry with adaptive calibration and image segmentation with deep convolutional neural networks
KR102550631B1 (ko) 인공지능을 이용한 욕창 단계 평가 및 치료 추천을 제공하는 장치 및 방법
CN116309346A (zh) 医学图像的检测方法、装置、设备、存储介质及程序产品
KR102480134B1 (ko) 기계학습을 이용한 의료 영상 판독의 품질 관리 방법 및 장치
KR20230144797A (ko) 병원에서 욕창 상태를 결정하고 치료하기 위한 장치 및 장치의 동작 방법
KR102213924B1 (ko) 기계학습을 이용한 의료 영상 판독의 품질 관리 방법 및 장치
KR102507315B1 (ko) 기계학습을 이용한 의료 영상 판독의 품질 관리 방법 및 장치
US20240070440A1 (en) Multimodal representation learning
WO2023121510A1 (ru) Определение патологии органов грудной клетки на основе рентгеновских изображений
Kumar et al. Wound care: Wound management system
Sri et al. Detection Analysis of Abnormality in Kidney using Deep Learning Techniques and its Optimization
US20230030794A1 (en) Learning device, learning method, learning program, information processing apparatus, information processing method, and information processing program
KR102464887B1 (ko) 의료 영상의 메타데이터 예측 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant