KR20220117403A - 헬스케어 시스템 - Google Patents

헬스케어 시스템 Download PDF

Info

Publication number
KR20220117403A
KR20220117403A KR1020210020486A KR20210020486A KR20220117403A KR 20220117403 A KR20220117403 A KR 20220117403A KR 1020210020486 A KR1020210020486 A KR 1020210020486A KR 20210020486 A KR20210020486 A KR 20210020486A KR 20220117403 A KR20220117403 A KR 20220117403A
Authority
KR
South Korea
Prior art keywords
analysis target
type
analysis
stool
shape
Prior art date
Application number
KR1020210020486A
Other languages
English (en)
Inventor
김보성
Original Assignee
주식회사 쉬즈엠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쉬즈엠 filed Critical 주식회사 쉬즈엠
Priority to KR1020210020486A priority Critical patent/KR20220117403A/ko
Publication of KR20220117403A publication Critical patent/KR20220117403A/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/0038Devices for taking faeces samples; Faecal examination devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Psychiatry (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Fuzzy Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 실시예에 따라 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법이 제공된다. 상기 방법은, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계; 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하는 단계; 상기 형태 및 소정의 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하는 단계; 상기 분석 대상물의 색상을 분석하는 단계; 및 상기 분석 대상물의 상기 유형 및 상기 색상에 기초하여 사용자의 건강 상태를 추론하는 단계를 포함할 수 있다.

Description

헬스케어 시스템{HEALTHCARE SYSTEM}
본 발명은 헬스케어 시스템에 관한 것이다.
일반적으로 우리가 섭취하는 음식물 등은 식도, 위, 소장, 대장 등을 통과하는 소화 과정을 거쳐 남은 물질이 항문을 통하여 대변으로 배출된다. 이때, 대변의 형태, 색, 크기 및 양 등을 살펴봄으로써 개개인의 건강 상태를 알 수 있다. 예를 들어, 대변의 색이 적갈색 또는 빨간색일 경우, 위장 출혈 또는 치질, 장 질환 등을 의심해 볼 수 있으며, 대변이 녹색을 띄고 설사일 경우, 위 세균 감염 등을 의심해 볼 수 있다. 또한, 단단하고 작은 알갱이 형태의 대변은 소화 계통에서 노폐물을 씻어내는 섬유가 부족한 것을 의심해 볼 수 있다.
다만, 종래에는, 대변을 이용하여 개개인의 건강 상태를 진단하기 위해서, 각자가 자신(또는 환자)의 대변 샘플을 채취하고, 이를 의료기관에 제출하여 검사를 받아야 하기 때문에, 대변 샘플을 의료기관까지 운반하는 과정이나 검사 과정 중에 대변 샘플이 오염될 가능성이 있으며, 의료기관에서 이를 보관하는 중에 대변 샘플이 뒤바뀌는 경우가 생기는 등의 문제점이 있다. 또한, 의료기관에 대변 샘플을 제출한 후에 검사 결과가 나오는 데에 일정 시간이 걸리기 때문에, 개개인의 건강 상태를 즉각적으로 진단받기 어렵다는 문제가 있다.
본 발명은 상기 문제점을 해결하기 위한 것으로서, 사용자의 건강 상태를 분석할 수 있는 헬스케어 시스템을 제공하는 것을 그 목적으로 한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 실시예에 따라 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법이 제공된다. 상기 방법은, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계; 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하는 단계; 상기 형태 및 소정의 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하는 단계; 상기 분석 대상물의 색상을 분석하는 단계; 및 상기 분석 대상물의 상기 유형 및 상기 색상에 기초하여 사용자의 건강 상태를 추론하는 단계를 포함할 수 있다.
또한, 상기 분석 대상물의 유형을 결정하는 단계는, 상기 형태에 기초하여, 상기 분석 대상물을 적어도 하나의 분류 후보군 중 하나에 할당하는 단계; 및 상기 할당된 분류 후보군에 따라 상이한 방식으로 상기 분석 대상물의 유형을 결정하는 단계를 포함할 수 있다.
또한, 상기 분석 대상물의 형태를 분석하는 단계는, 상기 분석 대상 이미지에서 상기 분석 대상물이 위치하는 관심 영역을 추출하기 위해 1차 엣지 디텍션을 수행하는 단계; 및 상기 분석 대상물의 형태를 분석하기 위해 상기 관심 영역에 대하여 2차 엣지 디텍션을 수행하는 단계를 포함할 수 있다.
또한, 상기 1차 엣지 디텍션은 케니 엣지(canny edge) 디텍션 알고리즘에 기초하여 수행되고, 상기 2차 엣지 디텍션은 LBP(Local Binary Pattern)에 기초하여 수행될 수 있다.
또한, 상기 분석 대상물의 유형을 결정하는 단계는, 소정의 분석 대상 이미지를 입력으로 하여 상기 대변 분류 차트에 따른 유형을 출력하도록 학습된 인공 신경망 모델에 의해 수행될 수 있다.
또한, 변좌와 접촉한 상기 사용자의 피부로부터 측정되는 생체 정보를 획득하는 단계를 더 포함할 수 있다.
본 발명의 실시예에 따라, 헬스케어 장치가 제공된다. 상기 장치는, 컴퓨터 실행가능한 명령들을 저장하기 위한 메모리; 및 상기 메모리에 저장된 명령들을 실행하기 위한 프로세서를 포함하고, 상기 프로세서는, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하고, 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하고, 상기 형태 및 소정의 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하고, 상기 분석 대상물의 색상을 분석하며, 상기 분석 대상물의 상기 유형 및 상기 색상에 기초하여 사용자의 건강 상태를 추론할 수 있다.
본 발명의 실시예에 따라 컴퓨터 프로그램이 제공된다. 상기 프로그램은 본 발명의 실시예에 따른 방법을 수행하기 위해 매체에 저장될 수 있다.
본 발명에 따르면, 사용자의 건강 상태를 분석하는 방법을 제공할 수 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 실시예에 따른 헬스케어 시스템의 블록도이다.
도 2는 본 발명의 실시예에 따른 헬스케어 시스템을 구성하는 헬스케어 장치의 블록도이다.
도 3은 본 발명의 실시예에 따른 인공 신경 네트워크를 나타낸 개략도이다.
도 4는 본 발명의 실시예에 따른 브리스톨 대변 차트를 설명하는 도면이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 실시예를 구성하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 이하에서 기재되는 편의상 상하좌우의 방향은 도면을 기준으로 한 것이며, 해당 방향으로 본 발명의 권리범위가 반드시 한정되는 것은 아니다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전체에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 간접적으로 연결되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
본 명세서에서 네트워크 함수와 인공 신경망 및 뉴럴 네트워크(neural network)는 상호 교환가능하게 사용될 수 있다.
도 1은 본 발명의 실시예에 따른 헬스케어 시스템의 블록도이다.
도 1을 참조하면, 헬스케어 시스템(1000)은 측정 장치(100), 헬스케어 장치(200) 및 사용자 단말(300)을 포함할 수 있다.
측정 장치(100)는 분석 대상물을 촬영하여 분석 대상 이미지를 생성할 수 있다. 헬스케어 장치(200)는 분석 대상 이미지를 수신하고, 이를 이용하여 사용자의 건강 상태를 분석한 후 사용자 단말(300)로 전달할 수 있다.
실시예에서, 사용자의 건강 상태에 대한 정보를 획득하기 위한 분석 대상물은 사용자의 신체로부터 유래된 분비물들을 포함할 수 있으며, 분비물들은 예를 들어 대변일 수 있다. 다만 이에 한정되는 것은 아니다.
실시예에서, 측정 장치(100)는 분석 대상물을 촬영하기에 적합한 위치에 구비될 수 있다. 얘를 들어, 분석 대상물이 변기인 경우, 측정 장치(100)는 변기의 일부 또는 비데의 일부일 수 있으며, 분석 대상 이미지는 측정 장치(100) 내의 카메라로부터 촬영될 수 있다.
실시예에서, 헬스케어 장치(200)는 측정 장치(100)로부터 각종 데이터를 수집하기 위한 클라우드 서버를 포함할 수 있으나 이에 제한되지 않으며, 사용자 단의 컴퓨터 디바이스일 수도 있다. 또한, 헬스케어 장치(200)는 측정 장치(100)로부터 데이터를 수집할 수도 있으며, 사용자 단말(300)을 통해 측정 장치(100)로부터 데이터를 수집할 수도 있다.
도 1에서 도시되는 헬스케어 시스템(1000)은 예시적인 것으로서, 본 발명이 적용되는 실시예에 따라 다양한 구성이 적용될 수 있다.
도 2는 본 발명의 실시예에 따른 헬스케어 시스템을 구성하는 헬스케어 장치의 블록도이다.
헬스케어 장치(200)는 분석 대상 이미지를 획득하고, 이로부터 분석 대상물의 형태를 분석한 후, 이를 분석 모델에 적용하여 사용자의 건강 상태를 추론할 수 있다. 여기서 분석 대상물은 대변이고, 분석 대상 이미지는 변기에 장착된 카메라로부터 촬영된 것일 수 있다. 다만, 이에 한정되는 것은 아니다.
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지에서 분석 대상물의 형태를 분석하기 전에 분석 대상 이미지에 대해 소정의 영상 처리를 수행할 수 있다. 영상 처리는, 형태 분석에 적합하도록 분석 대상 이미지에 변경을 가하는 것으로서, 예를 들어, 색상 변환, 노이즈 제거, 화질 조정 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지에서 분석 대상물의 형태를 분석할 수 있다. 이때, 분석 대상물이 대변이고, 분석 대상 이미지가 수세식 변기에서 획득된 대변의 이미지일 수 있다. 구체적으로, 헬스케어 장치(200)는 분석 대상 이미지로부터 분석 대상물의 외형 정보를 획득함으로써 형태를 분석할 수 있다. 외형 정보는 예를 들어, 대변의 크기, 청크(chunk)의 수, 청크의 형상, 청크의 크기, 청크의 응집도 등을 포함할 수 있다. 다만 이에 한정되는 것은 아니고, 대변을 식별, 분류하기 위한 다양한 정보가 포함할 수 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상물의 형태 분석에 엣지 디텍션(edge detection)을 수반할 수 있다. 예를 들어, 분석 대상물인 대변은 수면 아래에 위치하므로, 분석 대상 이미지에는, 수면에 의한 빛 반사, 수면의 색 등이 분석 대상 이미지에 영향을 주게 된다. 특히 대변은 변기 내에서 위치 고정되는 것이 아니라, 이동하거나, 정렬이 달라질 수 있다. 또한, 예를 들어, 대변이 다수의 청크로 이루어지는 경우, 청크들은 한 군데로 군집되게 되어, 각 청크, 나아가 대변의 전체적인 형태 파악이 어려운 문제가 있다. 따라서 헬스케어 장치(200)는 하나 이상의 단계의 엣지 디텍션을 수행하여 분석 대상 이미지 내에 포함된 객체들의 경계를 보다 선명하고 명확하고 및/또는 분석에 불필요한 객체를 제거/최소화함으로써, 분석 신뢰도를 높일 수 있다. 예를 들어, 엣지 디텍션은, 케니 엣지(canny edge) 디텍션 알고리즘, LBP(Local Binary Pattern) 등에 기초하여 수행될 수 있다. 특히 LBP에 의하는 경우, 청크들 간의 경계와 질감을 보다 명확하게 파악할 수 있어 적합하다.
실시예에서, 헬스케어 장치(200)는 엣지 디텍션을 통해 분석 대상 이미지에서 분석 대상물을 추출할 수 있다. 즉, 분석 대상 이미지 중에서 분석 대상물이 포함되는 소정의 영역인 관심 영역(region of interest)을 추출할 수 있다. 이와 같은 엣지 디텍션에는 연산 용량이 상대적으로 적거나 대변과 대변 이외의 영역을 구분하기 에 용이한 엣지 디텍션 알고리즘이 사용될 수 있다. 예를 들어, 케니 엣지 디텍션 알고리즘이 적용될 수 있다. 관심 영역이 추출되면, 이에 대해 보다 심층 분석이 이루어질 수 있다.
실시예에서, 헬스케어 장치(200)는 1차 엣지 디텍션 및 2차 엣지 디텍션을 수행할 수 있다. 1차 엣지 디텍션은 분석 대상 이미지에서 분석 대상물이 위치하는 관심 영역을 추출하기 위한 것이고, 2차 엣지 디텍션은 관심 영역에 대해 적용되어 분석 대상물의 형태를 결정하기 위한 것이다. 이러한 관심 영역의 추출을 통해 분석 대상 이미지에서 유효하게 분석하여야 할 부분을 추출함으로써, 분석 대상물의 분석을 위한 연산량을 감소시킬 수 있다. 또한, 2차 엣지 디텍션은 분석 대상물의 형태 파악에 보다 효과적인 알고리즘이 적용될 수 있다. 예를 들어 2차 엣지 디텍션은 분석 대상물의 질감(texture)을 판독하는데 이용될 수 있다. 예를 들어, 1차 엣지 디텍션은 케니 엣지 디텍션 알고리즘에 기초한 것이고, 2차 엣지 디텍션은 LBP 에 기초한 것일 수 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상물을 청크 단위로 인식할 수 있도록 분석 대상물에 대한 청크의 경계를 분석할 수 있다. 청크는 분석 대상물(즉, 대변)의 일부로서, 적어도 하나의 청크가 군집하여 분석 대상물을 형성할 수 있다. 이때 각각의 청크는 사람의 건강 상태, 장내 유산균 상태, 수분 상태 등에 기초하여 일정한 형태를 가질 수 있다. 청크 인식을 위한 경계 분석은 예를 들어, LBP 등의 엣지 디텍션을 통해 이루어질 수 있다. 이때 엣지 디텍션은 2차 엣지 디텍션일 수 있으나, 이에 한정되는 것은 아니다.
실시예에서, 헬스케어 장치(200)는 분석 대상물의 형태에 기초하여 분석 대상물을 유형을 결정할 수 있다. 이와 같은 분류에는 소정의 대변 분류 차트에 기초할 수 있다. 대변 분류 차트는 대변의 형태와 이에 대한 식별 정보, 특징 등을 포함하는 것으로서, 예를 들어, 대변 분류 차트는 브리스톨 대변 차트일 수 있다. 브리스톨 대변 차트에 의할 경우, 헬스케어 장치(200)는 분석 대상물의 형태에 기초하여 분석 대상물이 브리스톨 대변 차트의 제 1 유형 내지 제 7 유형 중 어디에 속하는지 분류할 수 있다. 하기에서는 설명의 편의를 위해 브리스톨 대변 차트를 기준으로 본 발명의 실시예를 설명하나, 이에 한정되는 것은 아니다.
실시예에서, 헬스케어 장치(200)는, 분석 대상물의 유형을 최종 분류하기 전에 분석 대상물의 형태에 기초하여 분석 대상물을 분류 후보군에 할당할 수 있다. 예를 들어, 제 1 분류 후보군은 비교적 쉽게 분류할 수 있는 유형에 대한 분류를 포함하고, 제 2 분류 후보군은 쉽게 분류하기 어려운 유형에 대한 분류를 포함할 수 있다. 할당된 분류 후보군에 따라 상이한 방식으로 분석 대상물의 유형이 결정될 수 있다.
예를 들어, 브리스톨 대변 차트의 제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형에 속할 경우, 제 1 분류 후보군으로 분류할 수 있다. 또한, 제 1 분류 후보군에 속하지 않을 경우, 또는 제 2 유형 내지 제 4 유형에 속할 경우, 제 2 분류 후보군으로 분류할 수 있다.
제 1 분류 후보군(제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형)에 속할 경우, 청크들이 비교적 명확하게 구분 인식되어, 헬스케어 장치(200)는 용이하게 분류할 수 있다. 이와 달리, 제 2 분류 후보군(제 2 유형 내지 제 4 유형)에 속할 경우에는, 제 2 유형, 제 3 유형, 제 4 유형은 큰 덩어리의 텍스처에 따른 분류이므로 제 1 분류 후보군과 상이한 특징을 가지고, 덩어리 내의 질감에 대한 분석이 추가적으로 필요할 수 있다.
실시예에서, 헬스케어 장치(200)는 엣지 디텍션을 통해 분석 대상물의 형태를 파악하고, 분석 대상물이 전체적인 하나의 덩어리인지, 복수의 여러 덩어리로 구성되는지, 덩어리를 판독할 수 없는 경우인지 판단할 수 있다. 이에 기초하여 분석 대상물인 대변이 제 1 분류 후보군인지 제 2 분류 후보군에 속하는지 여부를 결정할 수 있다. 즉, 헬스케어 장치(200)는 큰 하나의 덩어리를 관심 영역으로 설정한 경우 분석 대상물이 제 2 분류 후보군에 속하는 것으로 추정할 수 있다. 또한 헬스케어 장치(200)는 제 1 분류 후보군의 일부 패턴을 탐색한 경우(예를 들어, 관심 영역이 이미지 대부분의 영역인 경우 등), 분석 대상물이 제 1 분류 후보군에 속하는 것으로 추정할 수 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상물이 제 1 분류 후보군에 속하는 경우, 분석 대상물의 적어도 일부가 제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형에 속하는지 여부를 판단하고, 각각의 유형에 속하는 경우 해당 유형으로 분석 대상물을 분류할 수 있다.
실시예에서, 헬스케어 장치(200)는 2차 엣지 디텍션을 통해 제 2 분류 후보군에 속하는 분석 대상물의 텍스처를 분석함으로써, 분석 대상물이 제 2 분류 후보군 중 어느 유형에 속하는지 여부를 분류할 수 있다. 즉, 헬스케어 장치(200)는 분석 대상물의 유형이 제 2 분류 후보군에 속하는 경우, 제 2 유형, 제 3 유형 또는 제 4 유형 중 하나로 분류하기 위하여 적어도 1회의 엣지 디텍션을 수행할 수 있으며, 각 유형에 해당할 확률에 대한 형태로 분석 결과를 출력할 수도 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상물을 분석하여 사용자의 건강 상태를 추론할 수 있다. 실시예에 따라, 이와 같은 추론에는 앞서 설명한 분석 대상물의 분류가 수반될 수 있다. 구체적으로, 헬스케어 장치(200)는 분석 대상물의 형태를 분석하고, 이에 기초하여 분석 대상물의 유형 분류한 후, 해당 유형의 특징, 사용자의 신체 상태 등에 기초하여 사용자의 건상 상태를 추론할 수 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상물의 형태 분석, 분석 대상물의 유형 분류 및/또는 건강 상태의 추론에 있어 분석 모델을 이용할 수 있다. 이때 분석 모델은 뉴럴 네트워크에 기초하여 딥러닝으로 학습되는 분석 모델에 기초할 수 있다. 다만 이에 한정되는 것은 아니다.
실시예에서, 분석 모델은 분석 대상 이미지를 입력으로 하여 대변 분류 차트(예를 들어, 브리스톨 대변 차트)의 유형을 출력으로 하도록 학습된 모델일 수 있다. 분석 모델은 예를 들어, 이미지 처리 가능한 인공 신경망 모델로 구성될 수 있다. 분석 모델은 분류 후보군에 따라 분석 방법을 상이하게 적용하도록 학습된 모델일 수 있다. 분석 모델은 분류 후보군에 기초하여 상이한 서브모델로 입력 데이터를 처리하도록 학습된 모델일 수 있다. 또한, 분석 모델은 분류 후보군에 관한 정보를 분석 데이터와 함께 입력하여 대변 분류 차트의 유형을 출력하도록 학습된 모델일 수 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지를 분석 모델로 처리함에 있어서 분류 후보군에 기초하여 상이하게 처리할 수 있다. 예를 들어, 헬스케어 장치(200)는 분석 대상 이미지와 분류 후보군을 함께 분석 모델에 입력할 수도 있으며, 헬스케어 장치(200)는 분류 후보군에 기초하여 분석 대상 이미지를 처리할 분석 모델의 서브 모델을 선택할 수도 있다.
보다 구체적으로, 분석 모델은 분류 후보군이, 예를 들어 브리스톨 대변 차트의 제 2 분류 후보군에 해당하는 경우, 분석 대상물의 영역 전체에 대한 분석을 수행하도록 학습될 수 있다. 즉, 분석 모델은 분류 후보군이 제 2 분류 후보군에 해당하는 경우 분석 대상물의 영역을 전체적으로 판독하여 최종 결론을 내도록 학습될 수 있다.
또한 분석 모델은 분류 후보군이, 예를 들어, 제 1 분류 후보군에 해당하는 경우), 분석 대상물의 영역 중 일부에 포함된 대변의 형상이 브리스톨 대변 차트의 유형 중 어느 유형으로 분류되는지 여부를 확인하도록 학습될 수 있다. 즉, 분석 모델은 분류 후보군이 제 1 분류 후보군에 해당되는 경우 분석 대상물의 영역 중 적어도 일부만이 브리스톨 대변 차트의 제 1 유형, 제 5 유형 내지 제 7 유형 중 하나의 클래스로 분류되는 경우 해당 결론을 최종 결론으로 하도록 학습될 수 있다.
실시예에서, 헬스케어 장치(200)는 엣지 디텍션 결과에 기초하여 분석 대상 이미지에 포함된 대변의 유형을 판단할 수도 있으며, 엣지 디텍션 결과 및 엣지 디텍션 결과에 기초한 분석 모델의 분류 결과에 기초하여 대변의 유형을 판단할 수도 있다. 헬스케어 장치(200)는 엣지 디텍션 결과에 기초하여 대변의 유형을 1차적으로 가분류하고, 그에 따라 분류 모델을 이용하여 대변의 유형을 2차적으로 재분류 함으로써 1차 분류의 분류 결과를 재검증하여 정확도를 높일 수도 있다.
실시예에서, 헬스케어 장치(200)는 대변 분류 차트 상의 유형에 관련한 정보와 대변의 색상에 관련한 정보 등에 기초하여 사용자의 건강 상태에 관련한 추론 정보를 생성할 수 있다. 헬스케어 장치(200)는 사용자의 대변에 관한 분석 정보에 기초하여 사용자의 영양 상태, 장 건강 상태 등에 관련한 정보를 생성할 수 있다.
실시예에서, 헬스케어 장치(200)는 1차적으로 대변의 유형에 관련한 정보를 생성하고, 2차적으로 대변의 색상에 관련한 정보를 생성할 수 있다. 대변의 색상을 판별하기 위해서는 HSV(Hue Saturation Value) 모델을 이용할 수 있으나 본 실시예는 이에 제한되지 않는다. 헬스케어 장치(200)는 대변의 유형과 대변의 색상에 관련한 정보에 기초하여 사용자의 장건강 상태를 판단할 수 있다. 대변의 색상에 따라, 적색 계열의 혈변인 경우 사용자는 장염, 치질, 치열, 항문 열상, 선천성 이상 또는 장폐색 증의 상태일 수 있다. 대변의 색상이 회색 계열인 경우 사용자는 간, 담도 폐쇄 질환 등의 상태일 수 있다. 대변의 색상이 진한 황색 계열인 경우 사용자는 담즙 색소가 배출되는 상태일 수 있다. 대변의 색상이 황갈색 개열인 경우 사용자는 정상 상태일 수 있다. 대변의 색상이 녹색 계열인 경우 사용자는 소화불량, 녹색 채소의 과다 섭취 또는 체내 미흡수 철분 배설 등의 상태일 수 있다. 대변의 색상이 흑색 계열인 경우 식도/위/십이지장 출혈, 염증성 장질환 등의 상태일 수 있다.
실시예에서, 헬스케어 장치(200)는 측정 장치(100)로부터 사용자 생체 정보를 수신하여 사용자 생체 정보에 기초한 사용자 건강 상태 정보를 추가적으로 생성할 수 있다. 예를 들어, 변기는 변좌에 접촉한 사용자의 피부로부터 사용자의 다양한 생체 정보를 수집할 수 있다. 예를 들어, 변기는 생체 전류 수집 모듈을 변좌에 포함할 수 있으며, 변기는 이를 통해 사용자의 생체 전류를 수집하여 사용자에게 건강 위험 등이 있는지 여부를 헬스케어 장치(200)가 판단하도록 할 수 있다. 또한 헬스케어 장치(200)는 변기로부터 수집된 사용자의 생체 정보에 기초하여 사용자의 체성분, 심박 관련 정보 등을 포함하는 통합 건강 상태 정보를 생성할 수 있다.
실시예에서, 헬스케어 장치(200)는 사용자의 건강 이상이 추측되는 경우에 사용자에게 알림을 전달할 수 있다. 또한, 헬스케어 장치(200)는 헬스케어 장치(200)에 저장된 사용자의 기초 생체 정보에 기초하여 사용자의 건강 이상을 판단할 수도 있다. 예를 들어, 헬스케어 장치(200)는 사용자의 기초 생체 정보(예를 들어, 건강 검진 데이터)와 대변에 대한 분류 결과에 기초하여 사용자의 병을 진단하고 이를 사용자에게 알릴 수 있다. 즉, 녹색 계열의 대변이 제 2 유형으로 분류된 경우, 헬스케어 장치(200)는 이러한 정보와 사용자의 건강 검진 데이터를 조합하여 사용자의 상태가 단순 녹색 채소 과다 섭취 상태가 아닌 체내 미흡수 철분 배설 상태임으로 판단할 수도 있다. 전술한 기재는 예시일 뿐이며 본 실시예는 이에 제한되지 않는다.
도 2에서 도시되는 바와 같이, 헬스케어 장치(200)는 프로세서(210), 메모리(230), 네트워크부(250)를 포함할 수 있다.
프로세서(210)는 헬스케어 장치(200)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(210)는 헬스케어 장치(200)에 저장된 프로그램을 실행함으로써, 헬스케어 장치(200) 내의 구성요소들을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(210)는 헬스케어 장치(200)의 동작을 위한 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 적어도 하나의 인스트럭션(instruction)을 처리하도록 구성될 수 있다. 상술된 인스트럭션은 메모리(230)로부터 프로세서(210)에 제공될 수 있다. 즉, 프로세서(210)는 메모리(230)와 같은 기록 장치에 저장된 프로그램 코드에 따라 인스트럭션을 실행하도록 구성될 수 있다. 혹은 인스트럭션은 네트워크부(250)를 통해 헬스케어 장치(200)로 수신되어 프로세서(210)로 제공될 수도 있다. 또한, 프로세서(210)는 하나 이상의 코어로 구성될 수 있으며, 중앙 처리 장치(CPU, central processing unit), 범용 그래픽 처리 장치 (GPGPU, general purpose graphics processing unit), 텐서 처리 장치(TPU, tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서(210)를 포함할 수 있다. 프로세서(210)는 메모리(230)에 저장된 컴퓨터 프로그램을 판독하여 실시예에 따른 기계 학습을 위한 데이터 처리를 수행할 수 있다. 실시예에 따라 프로세서(210)는 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(210)는 딥러닝(DL, deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(210)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에서 복수의 헬스케어 장치(200)의 프로세서(210)를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에 따른 헬스케어 장치(200)에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.
실시예에서, 메모리(230)는 프로세서(210)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(250)가 수신한 임의의 형태의 정보를 저장할 수 있다.
실시예에서, 메모리(230)는 플래시 메모리(230) 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(230)(예를 들어 SD 또는 XD 메모리(230) 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리(230), 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 헬스케어 장치(200)는 인터넷(internet) 상에서 상기 메모리(230)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리(230)에 대한 기재는 예시일 뿐, 본 실시예는 이에 제한되지 않는다.
실시예에서, 따른 네트워크부(250)는 공중전화 교환망(PSTN, Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.
실시예에서, 네트워크부(250)는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.
실시예에서, 네트워크부(250)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN, Personal Area Network), 근거리 통신망(WAN, Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW, World Wide Web)일 수 있으며, 적외선(IrDA, Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다.
도 2에 도시된 헬스케어 장치(200)의 구성은 간략화 하여 나타낸 예시일 뿐이다. 실시예에서 헬스케어 장치(200)는 헬스케어 장치(200)의 컴퓨팅 환경을 수행하기 위한 다른 구성들이 포함될 수 있고, 개시된 구성들 중 일부만이 헬스케어 장치(200)를 구성할 수도 있다.
도 3은 본 발명의 실시예에 따른 인공 신경 네트워크를 나타낸 개략도이다.
연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의 링크에 의해 상호 연결될 수 있다.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드의 데이터는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 링크는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.
상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.
신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.
최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들을 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다.
실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 실시예의 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 실시예의 또 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 실시예의 또 다른 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.
딥 뉴럴 네트워크(DNN, deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN, convolutional neural network), 리커런트 뉴럴 네트워크(RNN, recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM, restricted boltzmann machine), 심층 신뢰 네트워크(DBN, deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN, Generative Adversarial Network) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 실시예는 이에 제한되지 않는다.
실시예에서, 네트워크 함수는 오토 인코더(autoencoder)를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 차원과 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.
뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 반교사학습(semi supervised learning), 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 뉴럴 네트워크가 특정한 동작을 수행하기 위한 지식을 뉴럴 네트워크에 적용하는 과정일 수 있다.
뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링 되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.
뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer)의 활용 등의 방법이 적용될 수 있다.
도 4는 본 발명의 실시예에 따른 브리스톨 대변 차트를 설명하는 도면이다.
도 4를 참조하여 브리스톨 대변 차트(Bristol Stool Chart)에 기초하여 설명하자면, 제 1 유형의 땅콩처럼 분리된 덩어리는 청크에 해당할 수 있다. 제 1 유형의 경우 사용자는 심한 변비 상태일 수 있다. 또한 제 2 유형의 소시지 모양에서 울퉁불퉁한 덩어리는 청크에 해당할 수 있다. 즉, 제 2 유형의 경우에는 전체적으로 하나의 덩어리지만 하나의 덩어리 안에 복수의 청크를 포함할 수 있다. 제 2 유형인 경우 사용자는 가벼운 변비 상태일 수 있다. 제 3 유형의 경우에도 표면의 균열에 의하여 청크들이 구분될 수 있다. 즉, 제 2 유형의 경우보다 구분의 정도는 낮으나 제 3 유형의 경우에도 청크를 포함할 수 있다. 제 3 유형인 경우 사용자는 정상 상태 일 수 있다. 제 4 유형의 경우에는 하나의 덩어리로 판단될 수 있으며 청크를 추출하기 어려울 수 있다. 제 4 유형인 경우 사용자는 정상 상태일 수 있다. 제 5 유형의 경우에도 부드러운 각각의 덩어리가 청크에 해당할 수 있다. 제 5 유형인 경우 사용자는 섬유질 부족 가능성이 있을 수 있다. 제 6 유형의 경우는 보다 작은 다수의 청크들로 구성되는 경우일 수 있다. 제 6 유형은 대장염 상태일 수 있다. 제 7 유형은 완전한 액체로서 청크들을 추출하기 어려우며, 전체 형상으로 판단될 수 있다. 제 7 유형인 경우 사용자는 심한 대장염이거나, 대장/직장에 대한 암 조직 발생, 영향 불균형 등 좋지 못한 건강 상태 일 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 또한 각각의 실시예는 필요에 따라 서로 조합되어 운용할 수 있다. 예컨대, 실시예와 다른 실시예의 일부분들이 서로 조합되어 장치의 동작이 운용될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (8)

  1. 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법으로서,
    분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계;
    상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하는 단계;
    상기 형태 및 소정의 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하는 단계;
    상기 분석 대상물의 색상을 분석하는 단계; 및
    상기 분석 대상물의 상기 유형 및 상기 색상에 기초하여 사용자의 건강 상태를 추론하는 단계를 포함하는, 방법.
  2. 제 1 항에 있어서,
    상기 분석 대상물의 유형을 결정하는 단계는, 상기 형태에 기초하여, 상기 분석 대상물을 적어도 하나의 분류 후보군 중 하나에 할당하는 단계; 및 상기 할당된 분류 후보군에 따라 상이한 방식으로 상기 분석 대상물의 유형을 결정하는 단계를 포함하는, 방법.
  3. 제 1 항에 있어서,
    상기 분석 대상물의 형태를 분석하는 단계는, 상기 분석 대상 이미지에서 상기 분석 대상물이 위치하는 관심 영역을 추출하기 위해 1차 엣지 디텍션을 수행하는 단계; 및 상기 분석 대상물의 형태를 분석하기 위해 상기 관심 영역에 대하여 2차 엣지 디텍션을 수행하는 단계를 포함하는, 방법.
  4. 제 3 항에 있어서,
    상기 1차 엣지 디텍션은 케니 엣지(canny edge) 디텍션 알고리즘에 기초하여 수행되고, 상기 2차 엣지 디텍션은 LBP(Local Binary Pattern)에 기초하여 수행되는, 방법.
  5. 제 1 항에 있어서,
    상기 분석 대상물의 유형을 결정하는 단계는, 소정의 분석 대상 이미지를 입력으로 하여 상기 대변 분류 차트에 따른 유형을 출력하도록 학습된 인공 신경망 모델에 의해 수행되는, 방법.
  6. 제 1 항에 있어서,
    변좌와 접촉한 상기 사용자의 피부로부터 측정되는 생체 정보를 획득하는 단계를 더 포함하는, 방법.
  7. 헬스케어 장치로서,
    컴퓨터 실행가능한 명령들을 저장하기 위한 메모리; 및
    상기 메모리에 저장된 명령들을 실행하기 위한 프로세서를 포함하고,
    상기 프로세서는, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하고, 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하고, 상기 형태 및 소정의 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하고, 상기 분석 대상물의 색상을 분석하며, 상기 분석 대상물의 상기 유형 및 상기 색상에 기초하여 사용자의 건강 상태를 추론하는, 장치.
  8. 제 1 항 내지 제 6 항 중 어느 한 항에 따른 방법을 수행하기 위해 매체에 저장되는 컴퓨터 프로그램.
KR1020210020486A 2021-02-16 2021-02-16 헬스케어 시스템 KR20220117403A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210020486A KR20220117403A (ko) 2021-02-16 2021-02-16 헬스케어 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210020486A KR20220117403A (ko) 2021-02-16 2021-02-16 헬스케어 시스템

Publications (1)

Publication Number Publication Date
KR20220117403A true KR20220117403A (ko) 2022-08-24

Family

ID=83111691

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210020486A KR20220117403A (ko) 2021-02-16 2021-02-16 헬스케어 시스템

Country Status (1)

Country Link
KR (1) KR20220117403A (ko)

Similar Documents

Publication Publication Date Title
Öztürk et al. Residual LSTM layered CNN for classification of gastrointestinal tract diseases
Demir DeepCoroNet: A deep LSTM approach for automated detection of COVID-19 cases from chest X-ray images
Chudzik et al. Microaneurysm detection using fully convolutional neural networks
Guo et al. A retinal vessel detection approach using convolution neural network with reinforcement sample learning strategy
Tang et al. A novel machine learning technique for computer-aided diagnosis
Godkhindi et al. Automated detection of polyps in CT colonography images using deep learning algorithms in colon cancer diagnosis
Muthukannan Optimized convolution neural network based multiple eye disease detection
CN113924579A (zh) 用于确定协议配置的集成神经网络
Thallam et al. Early stage lung cancer prediction using various machine learning techniques
Parra-Mora et al. Epiretinal membrane detection in optical coherence tomography retinal images using deep learning
Mubarak Classification of early stages of esophageal cancer using transfer learning
Vasilakakis et al. Weakly supervised multilabel classification for semantic interpretation of endoscopy video frames
Chatchaiwatkul et al. Lung disease detection and classification with deep learning approach
Prabhakar et al. Exponential gannet firefly optimization algorithm enabled deep learning for diabetic retinopathy detection
KR102526901B1 (ko) 헬스케어 시스템
KR20220117403A (ko) 헬스케어 시스템
Dhingra Classification of Diabetic Retinopathy Disease with Improved Transfer Learning Techniques using EfficientNets
Navaneethan et al. Enhancing diabetic retinopathy detection through preprocessing and feature extraction with MGA-CSG algorithm
Islam et al. Classification of gastric precancerous diseases using hybrid cnn-svm
KR20230103145A (ko) 헬스케어 시스템
Mantzaris et al. A non-symbolic implementation of abdominal pain estimation in childhood
Rao et al. DCNN Model for Automatic Detection of Polyps using UNet
Brown et al. Deep learning for computer-aided diagnosis in ophthalmology: a review
Randive et al. A self-adaptive optimisation for diabetic retinopathy detection with neural classification
Dimas et al. Co-operative cnn for visual saliency prediction on wce images

Legal Events

Date Code Title Description
A201 Request for examination