KR102526901B1 - Healthcare system - Google Patents

Healthcare system Download PDF

Info

Publication number
KR102526901B1
KR102526901B1 KR1020210006135A KR20210006135A KR102526901B1 KR 102526901 B1 KR102526901 B1 KR 102526901B1 KR 1020210006135 A KR1020210006135 A KR 1020210006135A KR 20210006135 A KR20210006135 A KR 20210006135A KR 102526901 B1 KR102526901 B1 KR 102526901B1
Authority
KR
South Korea
Prior art keywords
analysis
analysis target
shape
edge detection
chunks
Prior art date
Application number
KR1020210006135A
Other languages
Korean (ko)
Other versions
KR20220103859A (en
Inventor
김보성
Original Assignee
주식회사 쉬즈엠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쉬즈엠 filed Critical 주식회사 쉬즈엠
Priority to KR1020210006135A priority Critical patent/KR102526901B1/en
Publication of KR20220103859A publication Critical patent/KR20220103859A/en
Application granted granted Critical
Publication of KR102526901B1 publication Critical patent/KR102526901B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/0038Devices for taking faeces samples; Faecal examination devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20116Active contour; Active surface; Snakes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Medicines Containing Material From Animals Or Micro-Organisms (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 실시예에 따라 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법이 제공된다. 상기 방법은, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계; 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하는 단계; 상기 형태 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하는 단계; 및 상기 유형에 기초하여 사용자의 건강 상태를 추론하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method performed in one or more processors of a healthcare device is provided. The method may include acquiring an analysis target image including feces, which is an analysis target; analyzing the shape of the analysis target in the analysis target image; determining the type of the analyte based on the shape and stool classification chart; and inferring the user's health condition based on the type.

Description

헬스케어 시스템{HEALTHCARE SYSTEM}Healthcare system {HEALTHCARE SYSTEM}

본 발명은 헬스케어 시스템에 관한 것이다.The present invention relates to a healthcare system.

일반적으로 우리가 섭취하는 음식물 등은 식도, 위, 소장, 대장 등을 통과하는 소화 과정을 거쳐 남은 물질이 항문을 통하여 대변으로 배출된다. 이때, 대변의 형태, 색, 크기 및 양 등을 살펴봄으로써 개개인의 건강 상태를 알 수 있다. 예를 들어, 대변의 색이 적갈색 또는 빨간색일 경우, 위장 출혈 또는 치질, 장 질환 등을 의심해 볼 수 있으며, 대변이 녹색을 띄고 설사일 경우, 위 세균 감염 등을 의심해 볼 수 있다. 또한, 단단하고 작은 알갱이 형태의 대변은 소화 계통에서 노폐물을 씻어내는 섬유가 부족한 것을 의심해 볼 수 있다.BACKGROUND OF THE INVENTION [0002] In general, the food we ingest goes through a digestive process passing through the esophagus, stomach, small intestine, large intestine, etc., and the remaining material is discharged as feces through the anus. At this time, by examining the shape, color, size and amount of feces, the individual's health condition can be known. For example, if the color of the stool is maroon or red, gastrointestinal bleeding or hemorrhoids, intestinal disease, etc. may be suspected, and if the stool is green and diarrhea, gastric bacterial infection may be suspected. Also, hard and small grainy stools can be suspicious of a lack of fiber to flush waste out of the digestive system.

다만, 종래에는, 대변을 이용하여 개개인의 건강 상태를 진단하기 위해서, 각자가 자신(또는 환자)의 대변 샘플을 채취하고, 이를 의료기관에 제출하여 검사를 받아야 하기 때문에, 대변 샘플을 의료기관까지 운반하는 과정이나 검사 과정 중에 대변 샘플이 오염될 가능성이 있으며, 의료기관에서 이를 보관하는 중에 대변 샘플이 뒤바뀌는 경우가 생기는 등의 문제점이 있다. 또한, 의료기관에 대변 샘플을 제출한 후에 검사 결과가 나오는 데에 일정 시간이 걸리기 때문에, 개개인의 건강 상태를 즉각적으로 진단받기 어렵다는 문제가 있다.However, conventionally, in order to diagnose an individual's health condition using stool, each person has to take a stool sample of himself (or a patient) and submit it to a medical institution for examination, so the stool sample is transported to a medical institution. There is a possibility that the stool sample may be contaminated during the process or examination process, and there are problems such as a case where the stool sample is reversed while storing it in a medical institution. In addition, since it takes a certain amount of time for test results to come out after submitting a stool sample to a medical institution, there is a problem in that it is difficult to immediately diagnose an individual's health condition.

KRKR 10-2019-0030822 10-2019-0030822 AA KRKR 10-1595434 10-1595434 B1B1 KRKR 10-2018-0015858 10-2018-0015858 AA

본 발명은 상기 문제점을 해결하기 위한 것으로서, 사용자의 건강 상태를 분석할 수 있는 헬스케어 시스템을 제공하는 것을 그 목적으로 한다.The present invention is to solve the above problems, and an object of the present invention is to provide a health care system capable of analyzing a user's health condition.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명의 실시예에 따라 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법이 제공된다. 상기 방법은, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계; 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하는 단계; 상기 형태 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하는 단계; 및 상기 유형에 기초하여 사용자의 건강 상태를 추론하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method performed in one or more processors of a healthcare device is provided. The method may include acquiring an analysis target image including feces, which is an analysis target; analyzing the shape of the analysis target in the analysis target image; determining the type of the analyte based on the shape and stool classification chart; and inferring the user's health condition based on the type.

또한, 상기 분석 대상 이미지는 변기에 장착된 카메라로부터 획득될 수 있다.In addition, the analysis target image may be obtained from a camera mounted on the toilet.

또한, 상기 분석 대상물의 형태를 분석하는 단계는, 상기 분석 대상 이미지에서 상기 분석 대상물이 위치하는 관심 영역을 추출하기 위해 1차 엣지 디텍션을 수행하는 단계; 및 상기 분석 대상물의 형태를 분석하기 위해 상기 관심 영역에 대하여 2차 엣지 디텍션을 수행하는 단계를 포함할 수 있다.In addition, the step of analyzing the shape of the analysis target may include performing primary edge detection to extract a region of interest in which the analysis target is located in the analysis target image; and performing secondary edge detection on the region of interest to analyze the shape of the analysis object.

또한, 상기 1차 엣지 디텍션은 케니 엣지(canny edge) 디텍션 알고리즘에 기초하여 수행되고, 상기 2차 엣지 디텍션은 LBP(Local Binary Pattern)에 기초하여 수행될 수 있다.In addition, the first edge detection may be performed based on a canny edge detection algorithm, and the second edge detection may be performed based on a local binary pattern (LBP).

또한, 상기 2차 엣지 디텍션을 수행하는 단계는, 상기 분석 대상물을 청크(chunk) 단위로 인식할 수 있도록 상기 청크의 경계를 분석함으로써 수행되고, 상기 청크는 상기 대변의 일부로서, 적어도 하나의 상기 청크가 군집하여 상기 분석 대상물을 형성할 수 있다.In addition, the step of performing the secondary edge detection is performed by analyzing the boundary of the chunk to recognize the analysis target in units of chunks, and the chunk is a part of the stool, and at least one of the Chunks may cluster to form the analyte.

또한, 상기 형태에 대한 분석은 상기 분석 대상물에 포함된 청크의 크기, 청크의 수, 청크의 응집도, 청크의 형상 또는 청크의 추출 여부 중 적어도 하나에 대한 정보를 포함할 수 있다.In addition, the analysis of the shape may include information on at least one of the size of chunks included in the analysis object, the number of chunks, the degree of cohesion of chunks, the shape of chunks, or whether chunks have been extracted.

또한, 상기 대변 분류 차트는, 브리스톨 대변 차트일 수 있다.In addition, the stool classification chart may be a Bristol stool chart.

본 발명의 실시예에 따라 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법을 수행하기 위해 매체에 저장되는 컴퓨터 프로그램이 제공된다. According to an embodiment of the present invention, a computer program stored in a medium to perform a method performed by one or more processors of a healthcare device is provided.

본 발명의 실시예에 따라 헬스케어 장치가 제공된다. 상기 장치는, 컴퓨터 실행가능한 명령들을 저장하기 위한 메모리; 및 상기 메모리에 저장된 명령들을 실행하기 위한 프로세서를 포함하고, 상기 프로세서는, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하고, 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하고, 상기 형태 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하며, 상기 유형에 기초하여 사용자의 건강 상태를 추론할 수 있다.A healthcare device is provided according to an embodiment of the present invention. The apparatus includes a memory for storing computer executable instructions; And a processor for executing instructions stored in the memory, wherein the processor acquires an analysis target image including stool, an analysis target, analyzes the shape of the analysis target in the analysis target image, and analyzes the shape and Based on the stool classification chart, the type of the object to be analyzed may be determined, and the user's health condition may be inferred based on the type.

본 발명에 따르면, 사용자의 건강 상태를 분석하는 방법을 제공할 수 있다.According to the present invention, it is possible to provide a method for analyzing a user's health condition.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 실시예에 따른 헬스케어 시스템의 블록도이다.
도 2는 본 발명의 실시예에 따른 헬스케어 시스템을 구성하는 헬스케어 장치의 블록도이다.
도 3은 본 발명의 실시예에 따른 인공 신경 네트워크를 나타낸 개략도이다.
도 4는 본 발명의 실시예에 따른 브리스톨 대변 차트를 설명하는 도면이다.
In order to more fully understand the drawings cited in the detailed description of the present invention, a brief description of each drawing is provided.
1 is a block diagram of a healthcare system according to an embodiment of the present invention.
2 is a block diagram of a healthcare device constituting a healthcare system according to an embodiment of the present invention.
3 is a schematic diagram showing an artificial neural network according to an embodiment of the present invention.
4 is a diagram illustrating a Bristol stool chart according to an embodiment of the present invention.

이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 실시예를 구성하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 이하에서 기재되는 편의상 상하좌우의 방향은 도면을 기준으로 한 것이며, 해당 방향으로 본 발명의 권리범위가 반드시 한정되는 것은 아니다.Hereinafter, exemplary embodiments according to the present invention will be described in detail with reference to the contents described in the accompanying drawings. In addition, a method of configuring and using the embodiment will be described in detail with reference to the contents described in the accompanying drawings. Like reference numerals or numerals in each drawing indicate parts or components that perform substantially the same function. For convenience described below, directions of up, down, left, and right are based on the drawings, and the scope of the present invention is not necessarily limited to the corresponding directions.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.Terms including ordinal numbers, such as first and second, may be used to describe various elements, but elements are not limited by the terms. Terms are only used to distinguish one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include a combination of a plurality of related items or any one of a plurality of related items.

본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are used to describe embodiments, and are not intended to limit and/or limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms include or have are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features, numbers, or steps However, it should be understood that it does not preclude the possibility of existence or addition of operations, components, parts, or combinations thereof.

명세서 전체에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 간접적으로 연결되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to be connected to another part, this includes not only a case where it is directly connected but also a case where it is indirectly connected with another element interposed therebetween. In addition, when a part includes a certain component, this means that it may further include other components without excluding other components unless otherwise stated.

또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. .

본 명세서에서 네트워크 함수와 인공 신경망 및 뉴럴 네트워크(neural network)는 상호 교환가능하게 사용될 수 있다.In this specification, network functions, artificial neural networks, and neural networks may be used interchangeably.

도 1은 본 발명의 실시예에 따른 헬스케어 시스템의 블록도이다.1 is a block diagram of a healthcare system according to an embodiment of the present invention.

도 1을 참조하면, 헬스케어 시스템(1000)은 측정 장치(100), 헬스케어 장치(200) 및 사용자 단말(300)을 포함할 수 있다.Referring to FIG. 1 , a healthcare system 1000 may include a measurement device 100 , a healthcare device 200 and a user terminal 300 .

측정 장치(100)는 분석 대상물을 촬영하여 분석 대상 이미지를 생성할 수 있다. 헬스케어 장치(200)는 분석 대상 이미지를 수신하고, 이를 이용하여 사용자의 건강 상태를 분석한 후 사용자 단말(300)로 전달할 수 있다.The measuring device 100 may generate an analysis target image by photographing the analysis target. The healthcare device 200 may receive the image to be analyzed, analyze the user's health condition using the image, and transmit the result to the user terminal 300 .

실시예에서, 사용자의 건강 상태에 대한 정보를 획득하기 위한 분석 대상물은 사용자의 신체로부터 유래된 분비물들을 포함할 수 있으며, 분비물들은 예를 들어 대변일 수 있다. 다만 이에 한정되는 것은 아니다.In an embodiment, an analysis object for obtaining information on a user's health condition may include secretions derived from the user's body, and the secretions may be feces, for example. However, it is not limited thereto.

실시예에서, 측정 장치(100)는 분석 대상물을 촬영하기에 적합한 위치에 구비될 수 있다. 얘를 들어, 분석 대상물이 변기인 경우, 측정 장치(100)는 변기의 일부 또는 비데의 일부일 수 있으며, 분석 대상 이미지는 측정 장치(100) 내의 카메라로부터 촬영될 수 있다.In an embodiment, the measuring device 100 may be provided at a location suitable for photographing the analysis target. For example, when the analysis target is a toilet, the measuring device 100 may be a part of the toilet or a bidet, and an analysis target image may be captured from a camera in the measuring device 100 .

실시예에서, 헬스케어 장치(200)는 측정 장치(100)로부터 각종 데이터를 수집하기 위한 클라우드 서버를 포함할 수 있으나 이에 제한되지 않으며, 사용자 단의 컴퓨터 디바이스일 수도 있다. 또한, 헬스케어 장치(200)는 측정 장치(100)로부터 데이터를 수집할 수도 있으며, 사용자 단말(300)을 통해 측정 장치(100)로부터 데이터를 수집할 수도 있다.In an embodiment, the healthcare device 200 may include a cloud server for collecting various data from the measurement device 100, but is not limited thereto, and may be a user end computer device. In addition, the healthcare device 200 may collect data from the measurement device 100 or may collect data from the measurement device 100 through the user terminal 300 .

도 1에서 도시되는 헬스케어 시스템(1000)은 예시적인 것으로서, 본 발명이 적용되는 실시예에 따라 다양한 구성이 적용될 수 있다.The healthcare system 1000 shown in FIG. 1 is exemplary, and various configurations may be applied according to an embodiment to which the present invention is applied.

도 2는 본 발명의 실시예에 따른 헬스케어 시스템을 구성하는 헬스케어 장치의 블록도이다.2 is a block diagram of a healthcare device constituting a healthcare system according to an embodiment of the present invention.

헬스케어 장치(200)는 분석 대상 이미지를 획득하고, 이로부터 분석 대상물의 형태를 분석한 후, 이를 분석 모델에 적용하여 사용자의 건강 상태를 추론할 수 있다. 여기서 분석 대상물은 대변이고, 분석 대상 이미지는 변기에 장착된 카메라로부터 촬영된 것일 수 있다. 다만, 이에 한정되는 것은 아니다.The healthcare device 200 may obtain an analysis target image, analyze the shape of the analysis target therefrom, and apply the result to an analysis model to infer the health state of the user. Here, the object to be analyzed may be feces, and the image to be analyzed may be taken from a camera mounted on the toilet bowl. However, it is not limited thereto.

실시예에서, 헬스케어 장치(200)는 분석 대상 이미지에서 분석 대상물의 형태를 분석하기 전에 분석 대상 이미지에 대해 소정의 영상 처리를 수행할 수 있다. 영상 처리는, 형태 분석에 적합하도록 분석 대상 이미지에 변경을 가하는 것으로서, 예를 들어, 색상 변환, 노이즈 제거, 화질 조정 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.In an embodiment, the healthcare device 200 may perform predetermined image processing on the analysis target image before analyzing the shape of the analysis target in the analysis target image. Image processing is applying changes to an analysis target image to be suitable for shape analysis, and may include, for example, color conversion, noise removal, image quality adjustment, etc., but is not limited thereto.

실시예에서, 헬스케어 장치(200)는 분석 대상 이미지에서 분석 대상물의 형태를 분석할 수 있다. 이때, 분석 대상물이 대변이고, 분석 대상 이미지가 수세식 변기에서 획득된 대변의 이미지일 수 있다. 구체적으로, 헬스케어 장치(200)는 분석 대상 이미지로부터 분석 대상물의 외형 정보를 획득함으로써 형태를 분석할 수 있다. 외형 정보는 예를 들어, 대변의 크기, 청크(chunk)의 수, 청크의 형상, 청크의 크기, 청크의 응집도 등을 포함할 수 있다. 다만 이에 한정되는 것은 아니고, 대변을 식별, 분류하기 위한 다양한 정보가 포함할 수 있다.In an embodiment, the healthcare device 200 may analyze the shape of the object to be analyzed in the image to be analyzed. In this case, the analysis target may be stool, and the analysis target image may be an image of stool obtained from a flush toilet. Specifically, the healthcare device 200 may analyze the shape by obtaining external information of the analysis target from the analysis target image. The appearance information may include, for example, the size of feces, the number of chunks, the shape of chunks, the size of chunks, and the degree of cohesion of chunks. However, it is not limited thereto, and various information for identifying and classifying feces may be included.

실시예에서, 헬스케어 장치(200)는 분석 대상물의 형태 분석에 엣지 디텍션(edge detection)을 수반할 수 있다. 얘를 들어, 분석 대상물인 대변은 수면 아래에 위치하므로, 분석 대상 이미지에는, 수면에 의한 빛 반사, 수면의 색 등이 분석 대상 이미지에 영향을 주게 된다. 특히 대변은 변기 내에서 위치 고정되는 것이 아니라, 이동하거나, 정렬이 달라질 수 있다. 또한, 예를 들어, 대변이 다수의 청크로 이루어지는 경우, 청크들은 한 군데로 군집되게 되어, 각 청크, 나아가 대변의 전체적인 형태 파악이 어려운 문제가 있다. 따라서 헬스케어 장치(200)는 하나 이상의 단계의 엣지 디텍션을 수행하여 분석 대상 이미지 내에 포함된 객체들의 경계를 보다 선명하고 명확하고 및/또는 분석에 불필요한 객체를 제거/최소화함으로써, 분석 신뢰도를 높일 수 있다. 예를 들어, 엣지 디텍션은, 케니 엣지(canny edge) 디텍션 알고리즘, LBP(Local Binary Pattern) 등에 기초하여 수행될 수 있다. 특히 LBP에 의하는 경우, 청크들 간의 경계와 질감을 보다 명확하게 파악할 수 있어 적합하다.In an embodiment, the healthcare device 200 may accompany edge detection to analysis of the shape of the object to be analyzed. For example, since feces, which is an analysis target, is located under the water surface, light reflection by the water surface and color of the water surface affect the analysis target image. In particular, the feces are not fixed in position in the toilet, but may be moved or aligned. Also, for example, when feces are composed of a plurality of chunks, the chunks are clustered in one place, making it difficult to grasp the overall shape of each chunk or feces. Therefore, the healthcare device 200 performs one or more stages of edge detection to make the boundaries of objects included in the analysis target image clearer and clearer and/or remove/minimize unnecessary objects for analysis, thereby increasing analysis reliability. there is. For example, edge detection may be performed based on a canny edge detection algorithm, a local binary pattern (LBP), or the like. In particular, in the case of LBP, it is suitable because the boundary and texture between chunks can be grasped more clearly.

실시예에서, 헬스케어 장치(200)는 엣지 디텍션을 통해 분석 대상 이미지에서 분석 대상물을 추출할 수 있다. 즉, 분석 대상 이미지 중에서 분석 대상물이 포함되는 소정의 영역인 관심 영역(region of interest)을 추출할 수 있다. 이와 같은 엣지 디텍션에는 연산 용량이 상대적으로 적거나 대변과 대변 이외의 영역을 구분하기에 용이한 엣지 디텍션 알고리즘이 사용될 수 있다. 예를 들어, 케니 엣지 디텍션 알고리즘이 적용될 수 있다. 관심 영역이 추출되면, 이에 대해 보다 심층 분석이 이루어질 수 있다.In an embodiment, the healthcare device 200 may extract an analysis target from an analysis target image through edge detection. That is, a region of interest, which is a predetermined region including the analysis object, may be extracted from the analysis object image. For such edge detection, an edge detection algorithm that has relatively little computational capacity or is easy to distinguish between feces and areas other than feces may be used. For example, a Kenny edge detection algorithm may be applied. Once the region of interest has been extracted, a more in-depth analysis can be performed on it.

실시예에서, 헬스케어 장치(200)는 1차 엣지 디텍션 및 2차 엣지 디텍션을 수행할 수 있다. 1차 엣지 디텍션은 분석 대상 이미지에서 분석 대상물이 위치하는 관심 영역을 추출하기 위한 것이고, 2차 엣지 디텍션은 관심 영역에 대해 적용되어 분석 대상물의 형태를 결정하기 위한 것이다. 이러한 관심 영역의 추출을 통해 분석 대상 이미지에서 유효하게 분석하여야 할 부분을 추출함으로써, 분석 대상물의 분석을 위한 연산량을 감소시킬 수 있다. 또한, 2차 엣지 디텍션은 분석 대상물의 형태 파악에 보다 효과적인 알고리즘이 적용될 수 있다. 예를 들어 2차 엣지 디텍션은 분석 대상물의 질감(texture)을 판독하는데 이용될 수 있다. 예를 들어, 1차 엣지 디텍션은 케니 엣지 디텍션 알고리즘에 기초한 것이고, 2차 엣지 디텍션은 LBP에 기초한 것일 수 있다.In an embodiment, the healthcare device 200 may perform first edge detection and second edge detection. The primary edge detection is for extracting a region of interest where the analysis target is located in the analysis target image, and the secondary edge detection is applied to the region of interest to determine the shape of the analysis target. By extracting a portion to be effectively analyzed from the analysis target image through the extraction of the region of interest, the amount of computation for analyzing the analysis target can be reduced. In addition, for the secondary edge detection, a more effective algorithm may be applied to grasp the shape of the object to be analyzed. For example, secondary edge detection may be used to read the texture of an analysis object. For example, the first edge detection may be based on the Kenny edge detection algorithm, and the second edge detection may be based on LBP.

실시예에서, 헬스케어 장치(200)는 분석 대상물을 청크 단위로 인식할 수 있도록 분석 대상물에 대한 청크의 경계를 분석할 수 있다. 청크는 분석 대상물(즉, 대변)의 일부로서, 적어도 하나의 청크가 군집하여 분석 대상물을 형성할 수 있다. 이때 각각의 청크는 사람의 건강 상태, 장내 유산균 상태, 수분 상태 등에 기초하여 일정한 형태를 가질 수 있다. 청크 인식을 위한 경계 분석은 예를 들어, LBP 등의 엣지 디텍션을 통해 이루어질 수 있다. 이때 엣지 디텍션은 2차 엣지 디텍션일 수 있으나, 이에 한정되는 것은 아니다.In an embodiment, the healthcare device 200 may analyze a chunk boundary of an analysis object to recognize the analysis object in units of chunks. A chunk is a part of an analysis target (ie, feces), and at least one chunk may form an analysis target by clustering. At this time, each chunk may have a certain shape based on a person's health condition, intestinal lactic acid bacteria condition, moisture condition, and the like. Boundary analysis for chunk recognition may be performed through, for example, edge detection such as LBP. In this case, the edge detection may be secondary edge detection, but is not limited thereto.

실시예에서, 헬스케어 장치(200)는 분석 대상물의 형태에 기초하여 분석 대상물을 유형을 결정할 수 있다. 이와 같은 분류에는 소정의 대변 분류 차트에 기초할 수 있다. 대변 분류 차트는 대변의 형태와 이에 대한 식별 정보, 특징 등을 포함하는 것으로서, 예를 들어, 대변 분류 차트는 브리스톨 대변 차트일 수 있다. 브리스톨 대변 차트에 의할 경우, 헬스케어 장치(200)는 분석 대상물의 형태에 기초하여 분석 대상물이 브리스톨 대변 차트의 제 1 유형 내지 제 7 유형 중 어디에 속하는지 분류할 수 있다. 하기에서는 설명의 편의를 위해 브리스톨 대변 차트를 기준으로 본 발명의 실시예를 설명하나, 이에 한정되는 것은 아니다.In an embodiment, the healthcare device 200 may determine the type of the analyte based on the shape of the analyte. Such classification may be based on a predetermined stool classification chart. The feces classification chart includes the form of feces and identification information and characteristics thereof. For example, the feces classification chart may be a Bristol feces chart. In the case of the Bristol stool chart, the healthcare device 200 may classify the analysis object to which one of the first to seventh types of the Bristol stool chart belongs to the analysis object based on the shape of the analysis object. In the following, examples of the present invention will be described based on the Bristol stool chart for convenience of explanation, but are not limited thereto.

실시예에서, 헬스케어 장치(200)는, 분석 대상물의 유형을 최종 분류하기 전에 분석 대상물의 형태에 기초하여 분석 대상물을 분류 후보군에 할당할 수 있다. 예를 들어, 제 1 분류 후보군은 비교적 쉽게 분류할 수 있는 유형에 대한 분류를 포함하고, 제 2 분류 후보군은 쉽게 분류하기 어려운 유형에 대한 분류를 포함할 수 있다.In an embodiment, the healthcare device 200 may allocate an analysis object to a classification candidate group based on the type of the analysis object before finally classifying the type of the analysis object. For example, the first classification candidate group may include classifications for types that can be classified relatively easily, and the second classification candidate group may include classifications for types that are difficult to classify easily.

예를 들어, 브리스톨 대변 차트의 제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형에 속할 경우, 제 1 분류 후보군으로 분류할 수 있다. 또한, 제 1 분류 후보군에 속하지 않을 경우, 또는 제 2 유형 내지 제 4 유형에 속할 경우, 제 2 분류 후보군으로 분류할 수 있다.For example, if they belong to the first type, the fifth type, the sixth type, and the seventh type of the Bristol stool chart, they may be classified as the first classification candidate group. In addition, if it does not belong to the first classification candidate group or if it belongs to the second to fourth types, it may be classified as the second classification candidate group.

제 1 분류 후보군(제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형)에 속할 경우, 청크들이 비교적 명확하게 구분 인식되어, 헬스케어 장치(200)는 용이하게 분류할 수 있다. 이와 달리, 제 2 분류 후보군(제 2 유형 내지 제 4 유형)에 속할 경우에는, 제 2 유형, 제 3 유형, 제 4 유형은 큰 덩어리의 텍스처에 따른 분류이므로 제 1 분류 후보군과 상이한 특징을 가지고, 덩어리 내의 질감에 대한 분석이 추가적으로 필요할 수 있다.If they belong to the first classification candidate group (first type, fifth type, sixth type, and seventh type), chunks are relatively clearly distinguished and recognized, and the healthcare device 200 can easily classify them. On the other hand, if they belong to the second classification candidate group (the second to the fourth type), the second type, the third type, and the fourth type are classified according to the texture of the large lump, so they have different characteristics from the first classification candidate group. , additional analysis of the texture within the mass may be required.

실시예에서, 헬스케어 장치(200)는 엣지 디텍션을 통해 분석 대상물의 형태를 파악하고, 분석 대상물이 전체적인 하나의 덩어리인지, 복수의 여러 덩어리로 구성되는지, 덩어리를 판독할 수 없는 경우인지 판단할 수 있다. 이에 기초하여 분석 대상물인 대변이 제 1 분류 후보군인지 제 2 분류 후보군에 속하는지 여부를 결정할 수 있다. 즉, 헬스케어 장치(200)는 큰 하나의 덩어리를 관심 영역으로 설정한 경우 분석 대상물이 제 2 분류 후보군에 속하는 것으로 추정할 수 있다. 또한 헬스케어 장치(200)는 제 1 분류 후보군의 일부 패턴을 탐색한 경우(예를 들어, 관심 영역이 이미지 대부분의 영역인 경우 등), 분석 대상물이 제 1 분류 후보군에 속하는 것으로 추정할 수 있다.In an embodiment, the healthcare device 200 determines the shape of the object to be analyzed through edge detection, and determines whether the object to be analyzed is a whole lump, composed of a plurality of lumps, or a case where the lump cannot be read. can Based on this, it is possible to determine whether feces, which are analysis objects, belong to the first classification candidate group or the second classification candidate group. That is, when one large lump is set as the region of interest, the healthcare device 200 may estimate that the object to be analyzed belongs to the second classification candidate group. In addition, when a partial pattern of the first classification candidate group is searched for (eg, a region of interest is most of an image), the healthcare device 200 may estimate that the analysis object belongs to the first classification candidate group. .

실시예에서, 헬스케어 장치(200)는 분석 대상물이 제 1 분류 후보군에 속하는 경우, 분석 대상물의 적어도 일부가 제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형에 속하는지 여부를 판단하고, 각각의 유형에 속하는 경우 해당 유형으로 분석 대상물을 분류할 수 있다.In an embodiment, the healthcare device 200 determines whether at least some of the analysis objects belong to the first type, the fifth type, the sixth type, and the seventh type when the analysis object belongs to the first classification candidate group, and However, if it belongs to each type, it is possible to classify the analyte into that type.

실시예에서, 헬스케어 장치(200)는 2차 엣지 디텍션을 통해 제 2 분류 후보군에 속하는 분석 대상물의 텍스처를 분석함으로써, 분석 대상물이 제 2 분류 후보군 중 어느 유형에 속하는지 여부를 분류할 수 있다. 즉, 헬스케어 장치(200)는 분석 대상물의 유형이 제 2 분류 후보군에 속하는 경우, 제 2 유형, 제 3 유형 또는 제 4 유형 중 하나로 분류하기 위하여 엣지 디텍션을 수행할 수 있으며, 각 유형에 해당할 확률에 대한 형태로 분석 결과를 출력할 수도 있다.In an embodiment, the healthcare device 200 may classify whether the analysis object belongs to which type of the second classification candidate group by analyzing the texture of the analysis object belonging to the second classification candidate group through secondary edge detection. . That is, when the type of object to be analyzed belongs to the second classification candidate group, the healthcare device 200 may perform edge detection to classify the object into one of the second type, the third type, and the fourth type, corresponding to each type. It is also possible to output the analysis result in the form of probability.

실시예에서, 헬스케어 장치(200)는 분석 대상물을 분석하여 사용자의 건강 상태를 추론할 수 있다. 실시예에 따라, 이와 같은 추론에는 앞서 설명한 분석 대상물의 분류가 수반될 수 있다. 구체적으로, 헬스케어 장치(200)는 분석 대상물의 형태를 분석하고, 이에 기초하여 분석 대상물의 유형 분류한 후, 해당 유형의 특징, 사용자의 신체 상태 등에 기초하여 사용자의 건상 상태를 추론할 수 있다.In an embodiment, the healthcare device 200 may infer the user's health condition by analyzing the analysis object. Depending on the embodiment, such inference may be accompanied by the above-described classification of the analysis target. Specifically, the healthcare device 200 analyzes the shape of the analysis object, classifies the type of analysis object based on this, and then infers the user's health condition based on the characteristics of the type, the user's physical condition, and the like. .

실시예에서, 헬스케어 장치(200)는 분석 대상물의 형태 분석, 분석 대상물의 유형 분류 및/또는 건강 상태의 추론에 있어 분석 모델을 이용할 수 있다. 이때 분석 모델은 뉴럴 네트워크에 기초하여 딥러닝으로 학습되는 분석 모델에 기초할 수 있다. 다만 이에 한정되는 것은 아니다.In an embodiment, the healthcare device 200 may use an analysis model in analyzing the shape of an analysis object, classifying the type of analysis object, and/or inferring a health condition. In this case, the analysis model may be based on an analysis model learned through deep learning based on a neural network. However, it is not limited thereto.

실시예에서, 분석 모델은 분석 대상 이미지를 입력으로 하여 대변 분류 차트(예를 들어, 브리스톨 대변 차트)의 유형을 출력으로 하도록 학습된 모델일 수 있다. 분석 모델은 예를 들어, 이미지 처리 가능한 인공 신경망 모델로 구성될 수 있다. 분석 모델은 분류 후보군에 따라 분석 방법을 상이하게 적용하도록 학습된 모델일 수 있다. 분석 모델은 분류 후보군에 기초하여 상이한 서브모델로 입력 데이터를 처리하도록 학습된 모델일 수 있다. 또한, 분석 모델은 분류 후보군에 관한 정보를 분석 데이터와 함께 입력하여 대변 분류 차트의 유형을 출력하도록 학습된 모델일 수 있다.In an embodiment, the analysis model may be a model trained to take an analysis target image as an input and output a type of stool classification chart (eg, Bristol stool chart). The analysis model may include, for example, an artificial neural network model capable of image processing. The analysis model may be a model learned to apply an analysis method differently according to classification candidates. The analysis model may be a model learned to process input data with different submodels based on classification candidates. In addition, the analysis model may be a model learned to output a type of feces classification chart by inputting information about classification candidates together with analysis data.

실시예에서, 헬스케어 장치(200)는 분석 대상 이미지를 분석 모델로 처리함에 있어서 분류 후보군에 기초하여 상이하게 처리할 수 있다. 예를 들어, 헬스케어 장치(200)는 분석 대상 이미지와 분류 후보군을 함께 분석 모델에 입력할 수도 있으며, 헬스케어 장치(200)는 분류 후보군에 기초하여 분석 대상 이미지를 처리할 분석 모델의 서브 모델을 선택할 수도 있다.In an embodiment, the healthcare device 200 may process the analysis target image differently based on the classification candidate group in processing the analysis model. For example, the healthcare device 200 may input an analysis target image and a classification candidate group together into an analysis model, and the healthcare device 200 may process the analysis target image based on the classification candidate group as a sub-model of the analysis model. can also be selected.

보다 구체적으로, 분석 모델은 분류 후보군이, 예를 들어 브리스톨 대변 차트의 제 2 분류 후보군에 해당하는 경우, 분석 대상물의 영역 전체에 대한 분석을 수행하도록 학습될 수 있다. 즉, 분석 모델은 분류 후보군이 제 2 분류 후보군에 해당하는 경우 분석 대상물의 영역을 전체적으로 판독하여 최종 결론을 내도록 학습될 수 있다.More specifically, the analysis model may be trained to analyze the entire region of the analysis object when the classification candidate group corresponds to, for example, the second classification candidate group of the Bristol Stool Chart. That is, when the classification candidate group corresponds to the second classification candidate group, the analysis model may be trained to read the entire region of the analysis object and draw a final conclusion.

또한 분석 모델은 분류 후보군이, 예를 들어, 제 1 분류 후보군에 해당하는 경우), 분석 대상물의 영역 중 일부에 포함된 대변의 형상이 브리스톨 대변 차트의 유형 중 어느 유형으로 분류되는지 여부를 확인하도록 학습될 수 있다. 즉, 분석 모델은 분류 후보군이 제 1 분류 후보군에 해당되는 경우 분석 대상물의 영역 중 적어도 일부만이 브리스톨 대변 차트의 제 1 유형, 제 5 유형 내지 제 7 유형 중 하나의 클래스로 분류되는 경우 해당 결론을 최종 결론으로 하도록 학습될 수 있다.In addition, the analysis model determines whether the classification candidate group corresponds to, for example, the first classification candidate group), whether the shape of stool included in some of the areas of the analysis target is classified into any type of the type of Bristol stool chart. can be learned That is, the analysis model makes a corresponding conclusion when the classification candidate group corresponds to the first classification candidate group and when at least some of the regions of the analysis target are classified into one of the first type, fifth to seventh type of the Bristol Stool Chart. It can be learned to make final conclusions.

실시예에서, 헬스케어 장치(200)는 엣지 디텍션 결과에 기초하여 분석 대상 이미지에 포함된 대변의 유형을 판단할 수도 있으며, 엣지 디텍션 결과 및 엣지 디텍션 결과에 기초한 분석 모델의 분류 결과에 기초하여 대변의 유형을 판단할 수도 있다. 헬스케어 장치(200)는 엣지 디텍션 결과에 기초하여 대변의 유형을 1차적으로 가분류하고, 그에 따라 분류 모델을 이용하여 대변의 유형을 2차적으로 재분류 함으로써 1차 분류의 분류 결과를 재검증하여 정확도를 높일 수도 있다.In an embodiment, the healthcare device 200 may determine the type of feces included in the analysis target image based on the edge detection result, and feces based on the edge detection result and the classification result of the analysis model based on the edge detection result. type can be determined. The healthcare device 200 first tentatively classifies the type of feces based on the edge detection result, and secondarily reclassifies the type of feces using a classification model accordingly, thereby re-verifying the classification result of the primary classification You can increase the accuracy by doing this.

실시예에서, 헬스케어 장치(200)는 대변 분류 차트 상의 유형에 관련한 정보와 대변의 색상에 관련한 정보 등에 기초하여 사용자의 건강 상태에 관련한 추론 정보를 생성할 수 있다. 헬스케어 장치(200)는 사용자의 대변에 관한 분석 정보에 기초하여 사용자의 영양 상태, 장 건강 상태 등에 관련한 정보를 생성할 수 있다.In an embodiment, the healthcare device 200 may generate inferred information related to the user's health condition based on information related to the type on the stool classification chart and information related to the color of stool. The healthcare device 200 may generate information related to the user's nutritional status, intestinal health status, and the like, based on analysis information on the user's feces.

실시예에서, 헬스케어 장치(200)는 1차적으로 대변의 유형에 관련한 정보를 생성하고, 2차적으로 대변의 색상에 관련한 정보를 생성할 수 있다. 대변의 색상을 판별하기 위해서는 HSV(Hue Saturation Value) 모델을 이용할 수 있으나 본 실시예는 이에 제한되지 않는다. 헬스케어 장치(200)는 대변의 유형과 대변의 색상에 관련한 정보에 기초하여 사용자의 장건강 상태를 판단할 수 있다. 대변의 색상에 따라, 적색 계열의 혈변인 경우 사용자는 장염, 치질, 치열, 항문 열상, 선천성 이상 또는 장폐색 증의 상태일 수 있다. 대변의 색상이 회색 계열인 경우 사용자는 간, 담도 폐쇄 질환 등의 상태일 수 있다. 대변의 색상이 진한 황색 계열인 경우 사용자는 담즙 색소가 배출되는 상태일 수 있다. 대변의 색상이 황갈색 개열인 경우 사용자는 정상 상태일 수 있다. 대변의 색상이 녹색 계열인 경우 사용자는 소화불량, 녹색 채소의 과다 섭치 또는 체내 미흡수 철분 배설 등의 상태일 수 있다. 대변의 색상이 흑색 계열인 경우 식도/위/십이지장 출혈, 염증성 장질환 등의 상태일 수 있다.In an embodiment, the healthcare device 200 may firstly generate information related to the type of feces and secondarily generate information related to the color of the feces. In order to determine the color of feces, a Hue Saturation Value (HSV) model may be used, but the present embodiment is not limited thereto. The healthcare device 200 may determine the user's intestinal health status based on information related to the type and color of stool. Depending on the color of the stool, in the case of red bloody stool, the user may have enteritis, hemorrhoids, fissures, anal lacerations, congenital abnormalities, or intestinal obstruction. If the color of stool is gray, the user may have a liver or biliary obstruction disease. If the color of the stool is dark yellow, the user may be in a state in which bile pigments are excreted. If the color of the feces is tan cleft, the user may be in a normal state. If the color of the stool is green, the user may be in a state of indigestion, excessive intake of green vegetables, or unabsorbed iron excretion in the body. If the color of the stool is black, it may be a condition such as esophageal/gastric/duodenal bleeding or inflammatory bowel disease.

실시예에서, 헬스케어 장치(200)는 측정 장치(100)로부터 사용자 생체 정보를 수신하여 사용자 생체 정보에 기초한 사용자 건강 상태 정보를 추가적으로 생성할 수 있다. 예를 들어, 변기는 변좌에 접촉한 사용자의 피부로부터 사용자의 다양한 생체 정보를 수집할 수 있다. 예를 들어, 변기는 생체 전류 수집 모듈을 변좌에 포함할 수 있으며, 변기는 이를 통해 사용자의 생체 전류를 수집하여 사용자에게 건강 위험 등이 있는지 여부를 헬스케어 장치(200)가 판단하도록 할 수 있다. 또한 헬스케어 장치(200)는 변기로부터 수집된 사용자의 생체 정보에 기초하여 사용자의 체성분, 심박 관련 정보 등을 포함하는 통합 건강 상태 정보를 생성할 수 있다.In an embodiment, the healthcare device 200 may receive user biometric information from the measurement device 100 and additionally generate user health state information based on the user biometric information. For example, the toilet may collect various biometric information of the user from the user's skin in contact with the toilet seat. For example, the toilet may include a biocurrent collection module in the toilet seat, and the toilet collects the user's biocurrent through this to allow the healthcare device 200 to determine whether there is a health risk to the user. . In addition, the healthcare device 200 may generate integrated health condition information including the user's body composition and heartbeat-related information based on the user's biometric information collected from the toilet.

실시예에서, 헬스케어 장치(200)는 사용자의 건강 이상이 추측되는 경우에 사용자에게 알림을 전달할 수 있다. 또한, 헬스케어 장치(200)는 헬스케어 장치(200)에 저장된 사용자의 기초 생체 정보에 기초하여 사용자의 건강 이상을 판단할 수도 있다. 예를 들어, 헬스케어 장치(200)는 사용자의 기초 생체 정보(예를 들어, 건강 검진 데이터)와 대변에 대한 분류 결과에 기초하여 사용자의 병을 진단하고 이를 사용자에게 알릴 수 있다. 즉, 녹색 계열의 대변이 제 2 유형으로 분류된 경우, 헬스케어 장치(200)는 이러한 정보와 사용자의 건강 검진 데이터를 조합하여 사용자의 상태가 단순 녹색 채소 과다 섭취 상태가 아닌 체내 미흡수 철분 배설 상태임으로 판단할 수도 있다. 전술한 기재는 예시일 뿐이며 본 실시예는 이에 제한되지 않는다.In an embodiment, the healthcare device 200 may deliver a notification to the user when the user's health condition is suspected. Also, the healthcare device 200 may determine the user's health abnormality based on the user's basic biometric information stored in the healthcare device 200 . For example, the healthcare device 200 may diagnose the user's disease based on the user's basic biometric information (eg, health examination data) and stool classification results, and notify the user of the diagnosis. That is, when the green stool is classified as the second type, the health care device 200 combines this information and the user's health examination data to excrete unabsorbed iron in the body when the user's condition is not a simple excessive intake of green vegetables. It can also be judged as a state. The above description is only an example and the present embodiment is not limited thereto.

도 2에서 도시되는 바와 같이, 헬스케어 장치(200)는 프로세서(210), 메모리(230), 네트워크부(250)를 포함할 수 있다.As shown in FIG. 2 , the healthcare device 200 may include a processor 210 , a memory 230 , and a network unit 250 .

프로세서(210)는 헬스케어 장치(200)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(210)는 헬스케어 장치(200)에 저장된 프로그램을 실행함으로써, 헬스케어 장치(200) 내의 구성요소들을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(210)는 헬스케어 장치(200)의 동작을 위한 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 적어도 하나의 인스트럭션(instruction)을 처리하도록 구성될 수 있다. 상술된 인스트럭션은 메모리(230)로부터 프로세서(210)에 제공될 수 있다. 즉, 프로세서(210)는 메모리(230)와 같은 기록 장치에 저장된 프로그램 코드에 따라 인스트럭션을 실행하도록 구성될 수 있다. 혹은 인스트럭션은 네트워크부(250)를 통해 헬스케어 장치(200)로 수신되어 프로세서(210)로 제공될 수도 있다. 또한, 프로세서(210)는 하나 이상의 코어로 구성될 수 있으며, 중앙 처리 장치(CPU, central processing unit), 범용 그래픽 처리 장치 (GPGPU, general purpose graphics processing unit), 텐서 처리 장치(TPU, tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서(210)를 포함할 수 있다. 프로세서(210)는 메모리(230)에 저장된 컴퓨터 프로그램을 판독하여 실시예에 따른 기계 학습을 위한 데이터 처리를 수행할 수 있다. 실시예에 따라 프로세서(210)는 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(210)는 딥러닝(DL, deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(210)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에서 복수의 헬스케어 장치(200)의 프로세서(210)를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에 따른 헬스케어 장치(200)에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.The processor 210 may control overall operations of the healthcare device 200 . For example, the processor 210 may overall control components within the healthcare device 200 by executing a program stored in the healthcare device 200 . For example, the processor 210 may be configured to process at least one instruction by performing basic arithmetic, logic, and input/output operations for the operation of the healthcare device 200 . The instructions described above may be provided to processor 210 from memory 230 . That is, processor 210 may be configured to execute instructions according to program codes stored in a recording device such as memory 230 . Alternatively, the instruction may be received by the healthcare device 200 through the network unit 250 and provided to the processor 210 . In addition, the processor 210 may include one or more cores, including a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU). ), etc., and a processor 210 for data analysis and deep learning. The processor 210 may read the computer program stored in the memory 230 and perform data processing for machine learning according to an embodiment. According to an embodiment, the processor 210 may perform an operation for learning the neural network. The processor 210 is used for neural network learning, such as processing input data for learning in deep learning (DL), extracting features from input data, calculating errors, and updating neural network weights using backpropagation. calculations can be performed. At least one of the CPU, GPGPU, and TPU of the processor 210 may process learning of the network function. For example, the CPU and GPGPU can process learning of network functions and data classification using network functions. Also, in an embodiment, the processors 210 of the plurality of healthcare devices 200 may be used together to process learning of the network function and data classification using the network function. In addition, the computer program executed in the healthcare device 200 according to the embodiment may be a CPU, GPGPU or TPU executable program.

실시예에서, 메모리(230)는 프로세서(210)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(250)가 수신한 임의의 형태의 정보를 저장할 수 있다.In an embodiment, the memory 230 may store any type of information generated or determined by the processor 210 and any type of information received by the network unit 250 .

실시예에서, 메모리(230)는 플래시 메모리(230) 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(230)(예를 들어 SD 또는 XD 메모리(230) 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리(230), 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 헬스케어 장치(200)는 인터넷(internet) 상에서 상기 메모리(230)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리(230)에 대한 기재는 예시일 뿐, 본 실시예는 이에 제한되지 않는다.In an embodiment, the memory 230 is a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory 230 (eg For example, SD or XD memory (230), etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), It may include at least one type of storage medium among a programmable read-only memory (PROM), a magnetic memory 230, a magnetic disk, and an optical disk. The healthcare device 200 may operate in relation to a web storage performing a storage function of the memory 230 on the Internet. The above description of the memory 230 is only an example, and the present embodiment is not limited thereto.

실시예에서, 따른 네트워크부(250)는 공중전화 교환망(PSTN, Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.In an embodiment, the network unit 250 according to the Public Switched Telephone Network (PSTN), x Digital Subscriber Line (xDSL), Rate Adaptive DSL (RADSL), Multi Rate DSL (MDSL), Very High Speed (VDSL) DSL), UADSL (Universal Asymmetric DSL), HDSL (High Bit Rate DSL), and various wired communication systems such as a local area network (LAN) may be used.

실시예에서, 네트워크부(250)는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.In an embodiment, the network unit 250 may include Code Division Multi Access (CDMA), Time Division Multi Access (TDMA), Frequency Division Multi Access (FDMA), Orthogonal Frequency Division Multi Access (OFDMA), and Single Carrier-FDMA (SC-FDMA). FDMA) and other systems may be used.

실시예에서, 네트워크부(250)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN, Personal Area Network), 근거리 통신망(WAN, Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW, World Wide Web)일 수 있으며, 적외선(IrDA, Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다.In an embodiment, the network unit 250 may be configured regardless of its communication type, such as wired and wireless, and is composed of various communication networks such as a personal area network (PAN) and a wide area network (WAN). It can be. In addition, the network may be the known World Wide Web (WWW), or may use a wireless transmission technology used for short-range communication, such as Infrared Data Association (IrDA) or Bluetooth.

도 2에 도시된 헬스케어 장치(200)의 구성은 간략화 하여 나타낸 예시일 뿐이다. 실시예에서 헬스케어 장치(200)는 헬스케어 장치(200)의 컴퓨팅 환경을 수행하기 위한 다른 구성들이 포함될 수 있고, 개시된 구성들 중 일부만이 헬스케어 장치(200)를 구성할 수도 있다.The configuration of the healthcare device 200 shown in FIG. 2 is only a simplified example. In the embodiment, the healthcare device 200 may include other components for performing a computing environment of the healthcare device 200, and only some of the disclosed components may constitute the healthcare device 200.

도 3은 본 발명의 실시예에 따른 인공 신경 네트워크를 나타낸 개략도이다.3 is a schematic diagram showing an artificial neural network according to an embodiment of the present invention.

연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의 링크에 의해 상호 연결될 수 있다.A computational model, a neural network, a network function, and a neural network may be used interchangeably. A neural network may consist of a set of interconnected computational units, which may generally be referred to as nodes. These nodes may also be referred to as neurons. A neural network includes one or more nodes. Nodes (or neurons) constituting neural networks may be interconnected by one or more links.

신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.In a neural network, one or more nodes connected through a link may form a relative relationship of an input node and an output node. The concept of an input node and an output node is relative, and any node in an output node relationship with one node may have an input node relationship with another node, and vice versa. As described above, an input node to output node relationship may be created around a link. More than one output node can be connected to one input node through a link, and vice versa.

하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드의 데이터는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 링크는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.In a relationship between an input node and an output node connected through one link, the value of data of the output node may be determined based on data input to the input node. Here, a link interconnecting an input node and an output node may have a weight. The weight may be variable, and may be changed by a user or an algorithm in order to perform a function desired by the neural network. For example, when one or more input nodes are interconnected by respective links to one output node, the output node is set to a link corresponding to values input to input nodes connected to the output node and respective input nodes. An output node value may be determined based on the weight.

상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.As described above, in the neural network, one or more nodes are interconnected through one or more links to form an input node and output node relationship in the neural network. Characteristics of the neural network may be determined according to the number of nodes and links in the neural network, an association between the nodes and links, and a weight value assigned to each link. For example, when there are two neural networks having the same number of nodes and links and different weight values of the links, the two neural networks may be recognized as different from each other.

신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.A neural network may be composed of a set of one or more nodes. A subset of nodes constituting a neural network may constitute a layer. Some of the nodes constituting the neural network may form one layer based on distances from the first input node. For example, a set of nodes having a distance of n from the first input node may constitute n layers. The distance from the first input node may be defined by the minimum number of links that must be passed through to reach the corresponding node from the first input node. However, the definition of such a layer is arbitrary for explanation, and the order of a layer in a neural network may be defined in a method different from the above. For example, a layer of nodes may be defined by a distance from a final output node.

최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들을 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다.An initial input node may refer to one or more nodes to which data is directly input without going through a link in relation to other nodes among nodes in the neural network. Alternatively, in a relationship between nodes based on a link in a neural network, it may mean nodes that do not have other input nodes connected by a link. Similarly, the final output node may refer to one or more nodes that do not have an output node in relation to other nodes among nodes in the neural network. Also, the hidden node may refer to nodes constituting the neural network other than the first input node and the last output node.

실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 실시예의 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 실시예의 또 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 실시예의 또 다른 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.The neural network according to the embodiment may have the same number of nodes in the input layer as the number of nodes in the output layer, and may be a neural network in which the number of nodes decreases and then increases as the number of nodes progresses from the input layer to the hidden layer. In addition, the neural network according to another embodiment of the present embodiment may be a neural network in which the number of nodes of the input layer may be less than the number of nodes of the output layer, and the number of nodes decreases as the number of nodes increases from the input layer to the hidden layer. . In addition, the neural network according to another embodiment of the present embodiment may be a neural network in which the number of nodes of the input layer may be greater than the number of nodes of the output layer, and the number of nodes increases as the number of nodes increases from the input layer to the hidden layer. there is. A neural network according to another embodiment of the present embodiment may be a neural network in the form of a combination of the aforementioned neural networks.

딥 뉴럴 네트워크(DNN, deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN, convolutional neural network), 리커런트 뉴럴 네트워크(RNN, recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM, restricted boltzmann machine), 심층 신뢰 네트워크(DBN, deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN, Generative Adversarial Network) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 실시예는 이에 제한되지 않는다. A deep neural network (DNN) may refer to a neural network including a plurality of hidden layers in addition to an input layer and an output layer. Deep neural networks can reveal latent structures in data. In other words, it can identify the latent structure of a photo, text, video, sound, or music (e.g., what objects are in the photo, what the content and emotion of the text are, what the content and emotion of the audio are, etc.). . Deep neural networks include convolutional neural networks (CNNs), recurrent neural networks (RNNs), auto encoders, generative adversarial networks (GANs), and restricted boltzmann machines (RBMs). machine), a deep belief network (DBN), a Q network, a U network, a Siamese network, a Generative Adversarial Network (GAN), and the like. The description of the deep neural network described above is only an example, and the present embodiment is not limited thereto.

실시예에서, 네트워크 함수는 오토 인코더(autoencoder)를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 차원과 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.In an embodiment, the network function may include an autoencoder. An autoencoder may be a type of artificial neural network for outputting output data similar to input data. An auto-encoder may include at least one hidden layer, and an odd number of hidden layers may be disposed between input and output layers. The number of nodes of each layer may be reduced from the number of nodes of the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically with the reduction from the bottleneck layer to the output layer (symmetrical to the input layer). Autoencoders can perform non-linear dimensionality reduction. The number of input layers and output layers may correspond to dimensions after preprocessing of input data. In the auto-encoder structure, the number of hidden layer nodes included in the encoder may decrease as the distance from the input layer increases. If the number of nodes in the bottleneck layer (the layer with the fewest nodes located between the encoder and decoder) is too small, a sufficient amount of information may not be conveyed, so more than a certain number (e.g., more than half of the input layer, etc.) ) may be maintained.

뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 반교사학습(semi supervised learning), 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 뉴럴 네트워크가 특정한 동작을 수행하기 위한 지식을 뉴럴 네트워크에 적용하는 과정일 수 있다.The neural network may be trained using at least one of supervised learning, unsupervised learning, semi-supervised learning, and reinforcement learning. Learning of the neural network may be a process of applying knowledge for the neural network to perform a specific operation to the neural network.

뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링 되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.A neural network can be trained in a way that minimizes output errors. In the learning of the neural network, the learning data is repeatedly input into the neural network, the output of the neural network for the training data and the error of the target are calculated, and the error of the neural network is transferred from the output layer of the neural network to the input layer in the direction of reducing the error. It is a process of updating the weight of each node of the neural network by backpropagating in the same direction. In the case of teacher learning, the learning data in which the correct answer is labeled is used for each learning data (ie, the labeled learning data), and in the case of comparative teacher learning, the correct answer may not be labeled in each learning data. That is, for example, learning data in the case of teacher learning about data classification may be data in which each learning data is labeled with a category. Labeled training data is input to a neural network, and an error may be calculated by comparing an output (category) of the neural network and a label of the training data. As another example, in the case of comparative history learning for data classification, an error may be calculated by comparing input learning data with a neural network output. The calculated error is back-propagated in a reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back-propagation. The amount of change in the connection weight of each updated node may be determined according to a learning rate. The neural network's computation of input data and backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently according to the number of iterations of the learning cycle of the neural network. For example, a high learning rate may be used in the early stage of neural network training to increase efficiency by allowing the neural network to quickly obtain a certain level of performance, and a low learning rate may be used in the late stage to increase accuracy.

뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer)의 활용 등의 방법이 적용될 수 있다.In neural network learning, generally, training data can be a subset of real data (ie, data to be processed using the trained neural network), and therefore, errors for training data are reduced, but errors for real data are reduced. There may be incremental learning cycles. Overfitting is a phenomenon in which errors for actual data increase due to excessive learning on training data. For example, a phenomenon in which a neural network that has learned a cat by showing a yellow cat does not recognize that it is a cat when it sees a cat other than yellow may be a type of overfitting. Overfitting can act as a cause of increasing the error of machine learning algorithms. Various optimization methods can be used to prevent such overfitting. To prevent overfitting, methods such as increasing the training data, regularization, inactivating some nodes in the network during learning, and using a batch normalization layer should be applied. can

도 4는 본 발명의 실시예에 따른 브리스톨 대변 차트를 설명하는 도면이다.4 is a diagram illustrating a Bristol stool chart according to an embodiment of the present invention.

도 4를 참조하여 브리스톨 대변 차트(Bristol Stool Chart)에 기초하여 설명하자면, 제 1 유형의 땅콩처럼 분리된 덩어리는 청크에 해당할 수 있다. 제 1 유형의 경우 사용자는 심한 변비 상태일 수 있다. 또한 제 2 유형의 소시지 모양에서 울퉁불퉁한 덩어리는 청크에 해당할 수 있다. 즉, 제 2 유형의 경우에는 전체적으로 하나의 덩어리지만 하나의 덩어리 안에 복수의 청크를 포함할 수 있다. 제 2 유형인 경우 사용자는 가벼운 변비 상태일 수 있다. 제 3 유형의 경우에도 표면의 균열에 의하여 청크들이 구분될 수 있다. 즉, 제 2 유형의 경우보다 구분의 정도는 낮으나 제 3 유형의 경우에도 청크를 포함할 수 있다. 제 3 유형인 경우 사용자는 정상 상태 일 수 있다. 제 4 유형의 경우에는 하나의 덩어리로 판단될 수 있으며 청크를 추출하기 어려울 수 있다. 제 4 유형인 경우 사용자는 정상 상태일 수 있다. 제 5 유형의 경우에도 부드러운 각각의 덩어리가 청크에 해당할 수 있다. 제 5 유형인 경우 사용자는 섬유질 부족 가능성이 있을 수 있다. 제 6 유형의 경우는 보다 작은 다수의 청크들로 구성되는 경우일 수 있다. 제 6 유형은 대장염 상태일 수 있다. 제 7 유형은 완전한 액체로서 청크들을 추출하기 어려우며, 전체 형상으로 판단될 수 있다. 제 7 유형인 경우 사용자는 심한 대장염이거나, 대장/직장에 대한 암 조직 발생, 영향 불균형 등 좋지 못한 건강 상태 일 수 있다.Referring to FIG. 4, based on the Bristol Stool Chart, the separated chunks, such as the first type of peanuts, may correspond to chunks. In case of the first type, the user may be severely constipated. Also, in the shape of the second type of sausage, lumps may correspond to chunks. That is, in the case of the second type, although it is one chunk as a whole, a plurality of chunks may be included in one chunk. In case of the second type, the user may be mildly constipated. Even in the case of the third type, chunks can be distinguished by surface cracks. That is, although the degree of classification is lower than that of the second type, chunks may be included even in the third type. In case of the third type, the user may be in a normal state. In the case of the fourth type, it may be determined as one chunk and it may be difficult to extract the chunk. In case of the fourth type, the user may be in a normal state. Even in the case of the fifth type, each soft lump may correspond to a chunk. In the case of the fifth type, the user may have a possibility of fiber deficiency. The sixth type may be a case composed of a plurality of smaller chunks. A sixth type may be a colitis condition. The seventh type is difficult to extract chunks as a complete liquid, and can be judged as a whole shape. In the case of the seventh type, the user may have severe colitis, a bad health condition such as occurrence of cancer tissue in the large intestine/rectum, and an imbalance of effects.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 또한 각각의 실시예는 필요에 따라 서로 조합되어 운용할 수 있다. 예컨대, 실시예와 다른 실시예의 일부분들이 서로 조합되어 장치의 동작이 운용될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved. In addition, each embodiment can be operated in combination with each other as needed. For example, an operation of a device may be operated by combining parts of an embodiment and other embodiments. Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (9)

헬스케어 장치의 하나 이상의 프로세서에서 수행되는 건강 상태 분석 방법으로서,
분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계;
상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하는 단계;
상기 형태 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하는 단계; 및
상기 유형에 기초하여 사용자의 건강 상태를 추론하는 단계를 포함하고,
상기 분석 대상물의 형태를 분석하는 단계는, 상기 분석 대상 이미지에서 상기 분석 대상물이 위치하는 관심 영역을 추출하기 위해 1차 엣지 디텍션을 수행하는 단계; 및 상기 분석 대상물의 형태를 분석하기 위해 상기 관심 영역에 대하여 2차 엣지 디텍션을 수행하는 단계를 포함히고,
상기 2차 엣지 디텍션을 수행하는 단계는, 상기 분석 대상물을 청크(chunk) 단위로 인식할 수 있도록 상기 청크의 경계를 분석함으로써 수행되고, 상기 청크는 상기 대변의 일부로서, 적어도 하나의 상기 청크가 군집하여 상기 분석 대상물을 형성하는, 방법.
A health condition analysis method performed in one or more processors of a healthcare device,
Acquiring an analysis target image containing feces as an analysis target;
analyzing the shape of the analysis target in the analysis target image;
determining the type of the analyte based on the shape and stool classification chart; and
Inferring the user's health condition based on the type;
Analyzing the shape of the object of analysis may include performing primary edge detection to extract a region of interest in which the object of analysis is located in the image of the object of analysis; and performing secondary edge detection on the region of interest to analyze the shape of the analysis target,
The step of performing the secondary edge detection is performed by analyzing the boundary of the chunk to recognize the analysis object in units of chunks, and the chunk is a part of the feces, and at least one of the chunks clustering to form the analyte.
제 1 항에 있어서,
상기 분석 대상 이미지는 변기에 장착된 카메라로부터 획득되는, 방법.
According to claim 1,
The method of claim 1, wherein the image to be analyzed is obtained from a camera mounted on a toilet bowl.
삭제delete 제 1 항에 있어서,
상기 1차 엣지 디텍션은 케니 엣지(canny edge) 디텍션 알고리즘에 기초하여 수행되고, 상기 2차 엣지 디텍션은 LBP(Local Binary Pattern)에 기초하여 수행되는, 방법.
According to claim 1,
The first edge detection is performed based on a canny edge detection algorithm, and the second edge detection is performed based on a local binary pattern (LBP).
삭제delete 제 1 항에 있어서,
상기 형태에 대한 분석은 상기 분석 대상물에 포함된 청크의 크기, 청크의 수, 청크의 응집도, 청크의 형상 또는 청크의 추출 여부 중 적어도 하나에 대한 정보를 포함하는, 방법.
According to claim 1,
The analysis of the shape includes information on at least one of the size of chunks included in the analysis object, the number of chunks, the degree of cohesion of chunks, the shape of chunks, or whether chunks are extracted.
제 1 항에 있어서,
상기 대변 분류 차트는, 브리스톨 대변 차트인, 방법.
According to claim 1,
The method of claim 1, wherein the stool classification chart is a Bristol stool chart.
헬스케어 장치로서,
컴퓨터 실행가능한 명령들을 저장하기 위한 메모리; 및
상기 메모리에 저장된 명령들을 실행하기 위한 프로세서를 포함하고,
상기 프로세서는, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하고, 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하고, 상기 형태 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하며, 상기 유형에 기초하여 사용자의 건강 상태를 추론하고,
상기 프로세서는, 상기 분석 대상 이미지에서 상기 분석 대상물이 위치하는 관심 영역을 추출하기 위해 1차 엣지 디텍션을 수행하고, 상기 분석 대상물의 형태를 분석하기 위해 상기 관심 영역에 대하여 2차 엣지 디텍션을 수행하여, 상기 분석 대상물의 형태를 분석하고,
상기 프로세서의 상기 2차 엣지 디텍션은 상기 분석 대상물을 청크(chunk) 단위로 인식할 수 있도록 상기 청크의 경계를 분석함으로써 수행되고,
상기 청크는 상기 대변의 일부로서, 적어도 하나의 상기 청크가 군집하여 상기 분석 대상물을 형성하는, 장치.
As a healthcare device,
memory for storing computer executable instructions; and
a processor for executing instructions stored in the memory;
The processor acquires an analysis target image including feces as an analysis target, analyzes the shape of the analysis target in the analysis target image, and determines the type of the analysis target based on the shape and the stool classification chart, Inferring the health status of the user based on the type;
The processor performs primary edge detection to extract a region of interest where the analysis target is located in the analysis target image, and performs secondary edge detection on the region of interest to analyze the shape of the analysis target, , Analyzing the shape of the analyte,
The secondary edge detection of the processor is performed by analyzing the boundary of the chunk to recognize the analysis target in units of chunks,
wherein the chunk is part of the feces, and at least one of the chunks clusters to form the analyte.
제 1 항, 제 2 항, 제 4 항, 제 6 항 및 제 7 항 중 어느 한 항에 따른 방법을 수행하기 위해 매체에 저장되는 컴퓨터 프로그램.A computer program stored in a medium to perform the method according to any one of claims 1, 2, 4, 6 and 7.
KR1020210006135A 2021-01-15 2021-01-15 Healthcare system KR102526901B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210006135A KR102526901B1 (en) 2021-01-15 2021-01-15 Healthcare system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210006135A KR102526901B1 (en) 2021-01-15 2021-01-15 Healthcare system

Publications (2)

Publication Number Publication Date
KR20220103859A KR20220103859A (en) 2022-07-25
KR102526901B1 true KR102526901B1 (en) 2023-05-02

Family

ID=82608853

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210006135A KR102526901B1 (en) 2021-01-15 2021-01-15 Healthcare system

Country Status (1)

Country Link
KR (1) KR102526901B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101595434B1 (en) * 2014-10-13 2016-02-19 한국생산기술연구원 Apparatus and method for measuring the shape of stool

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180015858A (en) 2016-08-04 2018-02-14 주식회사 케이티 Server and method for analyzing body type and user device
KR101976494B1 (en) 2017-09-15 2019-05-10 임대환 Method And Potty for Analyzing Personal Health

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101595434B1 (en) * 2014-10-13 2016-02-19 한국생산기술연구원 Apparatus and method for measuring the shape of stool

Also Published As

Publication number Publication date
KR20220103859A (en) 2022-07-25

Similar Documents

Publication Publication Date Title
Öztürk et al. Residual LSTM layered CNN for classification of gastrointestinal tract diseases
Guo et al. A retinal vessel detection approach using convolution neural network with reinforcement sample learning strategy
Dey et al. An optimized fuzzy ensemble of convolutional neural networks for detecting tuberculosis from Chest X-ray images
AlBadawi et al. Arterioles and venules classification in retinal images using fully convolutional deep neural network
EP3996103A1 (en) Image diagnosis apparatus using deep learning model and method therefor
CN113924579A (en) Integrated neural network for determining protocol configuration
Harshitha et al. Predicting the stages of diabetic retinopathy using deep learning
Vasilakakis et al. Weakly supervised multilabel classification for semantic interpretation of endoscopy video frames
EP3916642A2 (en) Differential learning for learning networks
Lafraxo et al. Computer-aided system for bleeding detection in wce images based on cnn-gru network
CN115115569A (en) Image correlation detection method and detection device
KR102526901B1 (en) Healthcare system
Prabhakar et al. Exponential gannet firefly optimization algorithm enabled deep learning for diabetic retinopathy detection
KR20220117403A (en) Healthcare system
KR20230103145A (en) Healthcare system
Islam et al. Classification of gastric precancerous diseases using hybrid cnn-svm
JP2024500470A (en) Lesion analysis methods in medical images
Navaneethan et al. Enhancing Diabetic Retinopathy Detection through Preprocessing and Feature Extraction with MGA-CSG Algorithm
Mantzaris et al. A non-symbolic implementation of abdominal pain estimation in childhood
KR20220128015A (en) System for analyzing skin
Rao et al. DCNN Model for Automatic Detection of Polyps using UNet
Brown et al. Deep learning for computer-aided diagnosis in ophthalmology: a review
Jena et al. A Novel Approach for Diabetic Retinopathy Screening Using Asymmetric Deep Learning Features. Big Data Cogn. Comput. 2023, 7, 25
KR102540175B1 (en) Ai based pig disease management system
Melin et al. Particle Swarm Optimization of Convolutional Neural Networks for Diabetic Retinopathy Classification

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant