KR102526901B1 - Healthcare system - Google Patents
Healthcare system Download PDFInfo
- Publication number
- KR102526901B1 KR102526901B1 KR1020210006135A KR20210006135A KR102526901B1 KR 102526901 B1 KR102526901 B1 KR 102526901B1 KR 1020210006135 A KR1020210006135 A KR 1020210006135A KR 20210006135 A KR20210006135 A KR 20210006135A KR 102526901 B1 KR102526901 B1 KR 102526901B1
- Authority
- KR
- South Korea
- Prior art keywords
- analysis
- analysis target
- shape
- edge detection
- chunks
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B10/00—Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
- A61B10/0038—Devices for taking faeces samples; Faecal examination devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7271—Specific aspects of physiological measurement analysis
- A61B5/7275—Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20116—Active contour; Active surface; Snakes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radiology & Medical Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Medicines Containing Material From Animals Or Micro-Organisms (AREA)
- Image Analysis (AREA)
Abstract
본 발명의 실시예에 따라 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법이 제공된다. 상기 방법은, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계; 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하는 단계; 상기 형태 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하는 단계; 및 상기 유형에 기초하여 사용자의 건강 상태를 추론하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method performed in one or more processors of a healthcare device is provided. The method may include acquiring an analysis target image including feces, which is an analysis target; analyzing the shape of the analysis target in the analysis target image; determining the type of the analyte based on the shape and stool classification chart; and inferring the user's health condition based on the type.
Description
본 발명은 헬스케어 시스템에 관한 것이다.The present invention relates to a healthcare system.
일반적으로 우리가 섭취하는 음식물 등은 식도, 위, 소장, 대장 등을 통과하는 소화 과정을 거쳐 남은 물질이 항문을 통하여 대변으로 배출된다. 이때, 대변의 형태, 색, 크기 및 양 등을 살펴봄으로써 개개인의 건강 상태를 알 수 있다. 예를 들어, 대변의 색이 적갈색 또는 빨간색일 경우, 위장 출혈 또는 치질, 장 질환 등을 의심해 볼 수 있으며, 대변이 녹색을 띄고 설사일 경우, 위 세균 감염 등을 의심해 볼 수 있다. 또한, 단단하고 작은 알갱이 형태의 대변은 소화 계통에서 노폐물을 씻어내는 섬유가 부족한 것을 의심해 볼 수 있다.BACKGROUND OF THE INVENTION [0002] In general, the food we ingest goes through a digestive process passing through the esophagus, stomach, small intestine, large intestine, etc., and the remaining material is discharged as feces through the anus. At this time, by examining the shape, color, size and amount of feces, the individual's health condition can be known. For example, if the color of the stool is maroon or red, gastrointestinal bleeding or hemorrhoids, intestinal disease, etc. may be suspected, and if the stool is green and diarrhea, gastric bacterial infection may be suspected. Also, hard and small grainy stools can be suspicious of a lack of fiber to flush waste out of the digestive system.
다만, 종래에는, 대변을 이용하여 개개인의 건강 상태를 진단하기 위해서, 각자가 자신(또는 환자)의 대변 샘플을 채취하고, 이를 의료기관에 제출하여 검사를 받아야 하기 때문에, 대변 샘플을 의료기관까지 운반하는 과정이나 검사 과정 중에 대변 샘플이 오염될 가능성이 있으며, 의료기관에서 이를 보관하는 중에 대변 샘플이 뒤바뀌는 경우가 생기는 등의 문제점이 있다. 또한, 의료기관에 대변 샘플을 제출한 후에 검사 결과가 나오는 데에 일정 시간이 걸리기 때문에, 개개인의 건강 상태를 즉각적으로 진단받기 어렵다는 문제가 있다.However, conventionally, in order to diagnose an individual's health condition using stool, each person has to take a stool sample of himself (or a patient) and submit it to a medical institution for examination, so the stool sample is transported to a medical institution. There is a possibility that the stool sample may be contaminated during the process or examination process, and there are problems such as a case where the stool sample is reversed while storing it in a medical institution. In addition, since it takes a certain amount of time for test results to come out after submitting a stool sample to a medical institution, there is a problem in that it is difficult to immediately diagnose an individual's health condition.
본 발명은 상기 문제점을 해결하기 위한 것으로서, 사용자의 건강 상태를 분석할 수 있는 헬스케어 시스템을 제공하는 것을 그 목적으로 한다.The present invention is to solve the above problems, and an object of the present invention is to provide a health care system capable of analyzing a user's health condition.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.
본 발명의 실시예에 따라 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법이 제공된다. 상기 방법은, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계; 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하는 단계; 상기 형태 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하는 단계; 및 상기 유형에 기초하여 사용자의 건강 상태를 추론하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a method performed in one or more processors of a healthcare device is provided. The method may include acquiring an analysis target image including feces, which is an analysis target; analyzing the shape of the analysis target in the analysis target image; determining the type of the analyte based on the shape and stool classification chart; and inferring the user's health condition based on the type.
또한, 상기 분석 대상 이미지는 변기에 장착된 카메라로부터 획득될 수 있다.In addition, the analysis target image may be obtained from a camera mounted on the toilet.
또한, 상기 분석 대상물의 형태를 분석하는 단계는, 상기 분석 대상 이미지에서 상기 분석 대상물이 위치하는 관심 영역을 추출하기 위해 1차 엣지 디텍션을 수행하는 단계; 및 상기 분석 대상물의 형태를 분석하기 위해 상기 관심 영역에 대하여 2차 엣지 디텍션을 수행하는 단계를 포함할 수 있다.In addition, the step of analyzing the shape of the analysis target may include performing primary edge detection to extract a region of interest in which the analysis target is located in the analysis target image; and performing secondary edge detection on the region of interest to analyze the shape of the analysis object.
또한, 상기 1차 엣지 디텍션은 케니 엣지(canny edge) 디텍션 알고리즘에 기초하여 수행되고, 상기 2차 엣지 디텍션은 LBP(Local Binary Pattern)에 기초하여 수행될 수 있다.In addition, the first edge detection may be performed based on a canny edge detection algorithm, and the second edge detection may be performed based on a local binary pattern (LBP).
또한, 상기 2차 엣지 디텍션을 수행하는 단계는, 상기 분석 대상물을 청크(chunk) 단위로 인식할 수 있도록 상기 청크의 경계를 분석함으로써 수행되고, 상기 청크는 상기 대변의 일부로서, 적어도 하나의 상기 청크가 군집하여 상기 분석 대상물을 형성할 수 있다.In addition, the step of performing the secondary edge detection is performed by analyzing the boundary of the chunk to recognize the analysis target in units of chunks, and the chunk is a part of the stool, and at least one of the Chunks may cluster to form the analyte.
또한, 상기 형태에 대한 분석은 상기 분석 대상물에 포함된 청크의 크기, 청크의 수, 청크의 응집도, 청크의 형상 또는 청크의 추출 여부 중 적어도 하나에 대한 정보를 포함할 수 있다.In addition, the analysis of the shape may include information on at least one of the size of chunks included in the analysis object, the number of chunks, the degree of cohesion of chunks, the shape of chunks, or whether chunks have been extracted.
또한, 상기 대변 분류 차트는, 브리스톨 대변 차트일 수 있다.In addition, the stool classification chart may be a Bristol stool chart.
본 발명의 실시예에 따라 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법을 수행하기 위해 매체에 저장되는 컴퓨터 프로그램이 제공된다. According to an embodiment of the present invention, a computer program stored in a medium to perform a method performed by one or more processors of a healthcare device is provided.
본 발명의 실시예에 따라 헬스케어 장치가 제공된다. 상기 장치는, 컴퓨터 실행가능한 명령들을 저장하기 위한 메모리; 및 상기 메모리에 저장된 명령들을 실행하기 위한 프로세서를 포함하고, 상기 프로세서는, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하고, 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하고, 상기 형태 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하며, 상기 유형에 기초하여 사용자의 건강 상태를 추론할 수 있다.A healthcare device is provided according to an embodiment of the present invention. The apparatus includes a memory for storing computer executable instructions; And a processor for executing instructions stored in the memory, wherein the processor acquires an analysis target image including stool, an analysis target, analyzes the shape of the analysis target in the analysis target image, and analyzes the shape and Based on the stool classification chart, the type of the object to be analyzed may be determined, and the user's health condition may be inferred based on the type.
본 발명에 따르면, 사용자의 건강 상태를 분석하는 방법을 제공할 수 있다.According to the present invention, it is possible to provide a method for analyzing a user's health condition.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 실시예에 따른 헬스케어 시스템의 블록도이다.
도 2는 본 발명의 실시예에 따른 헬스케어 시스템을 구성하는 헬스케어 장치의 블록도이다.
도 3은 본 발명의 실시예에 따른 인공 신경 네트워크를 나타낸 개략도이다.
도 4는 본 발명의 실시예에 따른 브리스톨 대변 차트를 설명하는 도면이다.In order to more fully understand the drawings cited in the detailed description of the present invention, a brief description of each drawing is provided.
1 is a block diagram of a healthcare system according to an embodiment of the present invention.
2 is a block diagram of a healthcare device constituting a healthcare system according to an embodiment of the present invention.
3 is a schematic diagram showing an artificial neural network according to an embodiment of the present invention.
4 is a diagram illustrating a Bristol stool chart according to an embodiment of the present invention.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 실시예를 구성하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 이하에서 기재되는 편의상 상하좌우의 방향은 도면을 기준으로 한 것이며, 해당 방향으로 본 발명의 권리범위가 반드시 한정되는 것은 아니다.Hereinafter, exemplary embodiments according to the present invention will be described in detail with reference to the contents described in the accompanying drawings. In addition, a method of configuring and using the embodiment will be described in detail with reference to the contents described in the accompanying drawings. Like reference numerals or numerals in each drawing indicate parts or components that perform substantially the same function. For convenience described below, directions of up, down, left, and right are based on the drawings, and the scope of the present invention is not necessarily limited to the corresponding directions.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.Terms including ordinal numbers, such as first and second, may be used to describe various elements, but elements are not limited by the terms. Terms are only used to distinguish one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The terms and/or include a combination of a plurality of related items or any one of a plurality of related items.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are used to describe embodiments, and are not intended to limit and/or limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms include or have are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features, numbers, or steps However, it should be understood that it does not preclude the possibility of existence or addition of operations, components, parts, or combinations thereof.
명세서 전체에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 간접적으로 연결되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to be connected to another part, this includes not only a case where it is directly connected but also a case where it is indirectly connected with another element interposed therebetween. In addition, when a part includes a certain component, this means that it may further include other components without excluding other components unless otherwise stated.
또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. .
본 명세서에서 네트워크 함수와 인공 신경망 및 뉴럴 네트워크(neural network)는 상호 교환가능하게 사용될 수 있다.In this specification, network functions, artificial neural networks, and neural networks may be used interchangeably.
도 1은 본 발명의 실시예에 따른 헬스케어 시스템의 블록도이다.1 is a block diagram of a healthcare system according to an embodiment of the present invention.
도 1을 참조하면, 헬스케어 시스템(1000)은 측정 장치(100), 헬스케어 장치(200) 및 사용자 단말(300)을 포함할 수 있다.Referring to FIG. 1 , a
측정 장치(100)는 분석 대상물을 촬영하여 분석 대상 이미지를 생성할 수 있다. 헬스케어 장치(200)는 분석 대상 이미지를 수신하고, 이를 이용하여 사용자의 건강 상태를 분석한 후 사용자 단말(300)로 전달할 수 있다.The
실시예에서, 사용자의 건강 상태에 대한 정보를 획득하기 위한 분석 대상물은 사용자의 신체로부터 유래된 분비물들을 포함할 수 있으며, 분비물들은 예를 들어 대변일 수 있다. 다만 이에 한정되는 것은 아니다.In an embodiment, an analysis object for obtaining information on a user's health condition may include secretions derived from the user's body, and the secretions may be feces, for example. However, it is not limited thereto.
실시예에서, 측정 장치(100)는 분석 대상물을 촬영하기에 적합한 위치에 구비될 수 있다. 얘를 들어, 분석 대상물이 변기인 경우, 측정 장치(100)는 변기의 일부 또는 비데의 일부일 수 있으며, 분석 대상 이미지는 측정 장치(100) 내의 카메라로부터 촬영될 수 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 측정 장치(100)로부터 각종 데이터를 수집하기 위한 클라우드 서버를 포함할 수 있으나 이에 제한되지 않으며, 사용자 단의 컴퓨터 디바이스일 수도 있다. 또한, 헬스케어 장치(200)는 측정 장치(100)로부터 데이터를 수집할 수도 있으며, 사용자 단말(300)을 통해 측정 장치(100)로부터 데이터를 수집할 수도 있다.In an embodiment, the
도 1에서 도시되는 헬스케어 시스템(1000)은 예시적인 것으로서, 본 발명이 적용되는 실시예에 따라 다양한 구성이 적용될 수 있다.The
도 2는 본 발명의 실시예에 따른 헬스케어 시스템을 구성하는 헬스케어 장치의 블록도이다.2 is a block diagram of a healthcare device constituting a healthcare system according to an embodiment of the present invention.
헬스케어 장치(200)는 분석 대상 이미지를 획득하고, 이로부터 분석 대상물의 형태를 분석한 후, 이를 분석 모델에 적용하여 사용자의 건강 상태를 추론할 수 있다. 여기서 분석 대상물은 대변이고, 분석 대상 이미지는 변기에 장착된 카메라로부터 촬영된 것일 수 있다. 다만, 이에 한정되는 것은 아니다.The
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지에서 분석 대상물의 형태를 분석하기 전에 분석 대상 이미지에 대해 소정의 영상 처리를 수행할 수 있다. 영상 처리는, 형태 분석에 적합하도록 분석 대상 이미지에 변경을 가하는 것으로서, 예를 들어, 색상 변환, 노이즈 제거, 화질 조정 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지에서 분석 대상물의 형태를 분석할 수 있다. 이때, 분석 대상물이 대변이고, 분석 대상 이미지가 수세식 변기에서 획득된 대변의 이미지일 수 있다. 구체적으로, 헬스케어 장치(200)는 분석 대상 이미지로부터 분석 대상물의 외형 정보를 획득함으로써 형태를 분석할 수 있다. 외형 정보는 예를 들어, 대변의 크기, 청크(chunk)의 수, 청크의 형상, 청크의 크기, 청크의 응집도 등을 포함할 수 있다. 다만 이에 한정되는 것은 아니고, 대변을 식별, 분류하기 위한 다양한 정보가 포함할 수 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 분석 대상물의 형태 분석에 엣지 디텍션(edge detection)을 수반할 수 있다. 얘를 들어, 분석 대상물인 대변은 수면 아래에 위치하므로, 분석 대상 이미지에는, 수면에 의한 빛 반사, 수면의 색 등이 분석 대상 이미지에 영향을 주게 된다. 특히 대변은 변기 내에서 위치 고정되는 것이 아니라, 이동하거나, 정렬이 달라질 수 있다. 또한, 예를 들어, 대변이 다수의 청크로 이루어지는 경우, 청크들은 한 군데로 군집되게 되어, 각 청크, 나아가 대변의 전체적인 형태 파악이 어려운 문제가 있다. 따라서 헬스케어 장치(200)는 하나 이상의 단계의 엣지 디텍션을 수행하여 분석 대상 이미지 내에 포함된 객체들의 경계를 보다 선명하고 명확하고 및/또는 분석에 불필요한 객체를 제거/최소화함으로써, 분석 신뢰도를 높일 수 있다. 예를 들어, 엣지 디텍션은, 케니 엣지(canny edge) 디텍션 알고리즘, LBP(Local Binary Pattern) 등에 기초하여 수행될 수 있다. 특히 LBP에 의하는 경우, 청크들 간의 경계와 질감을 보다 명확하게 파악할 수 있어 적합하다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 엣지 디텍션을 통해 분석 대상 이미지에서 분석 대상물을 추출할 수 있다. 즉, 분석 대상 이미지 중에서 분석 대상물이 포함되는 소정의 영역인 관심 영역(region of interest)을 추출할 수 있다. 이와 같은 엣지 디텍션에는 연산 용량이 상대적으로 적거나 대변과 대변 이외의 영역을 구분하기에 용이한 엣지 디텍션 알고리즘이 사용될 수 있다. 예를 들어, 케니 엣지 디텍션 알고리즘이 적용될 수 있다. 관심 영역이 추출되면, 이에 대해 보다 심층 분석이 이루어질 수 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 1차 엣지 디텍션 및 2차 엣지 디텍션을 수행할 수 있다. 1차 엣지 디텍션은 분석 대상 이미지에서 분석 대상물이 위치하는 관심 영역을 추출하기 위한 것이고, 2차 엣지 디텍션은 관심 영역에 대해 적용되어 분석 대상물의 형태를 결정하기 위한 것이다. 이러한 관심 영역의 추출을 통해 분석 대상 이미지에서 유효하게 분석하여야 할 부분을 추출함으로써, 분석 대상물의 분석을 위한 연산량을 감소시킬 수 있다. 또한, 2차 엣지 디텍션은 분석 대상물의 형태 파악에 보다 효과적인 알고리즘이 적용될 수 있다. 예를 들어 2차 엣지 디텍션은 분석 대상물의 질감(texture)을 판독하는데 이용될 수 있다. 예를 들어, 1차 엣지 디텍션은 케니 엣지 디텍션 알고리즘에 기초한 것이고, 2차 엣지 디텍션은 LBP에 기초한 것일 수 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 분석 대상물을 청크 단위로 인식할 수 있도록 분석 대상물에 대한 청크의 경계를 분석할 수 있다. 청크는 분석 대상물(즉, 대변)의 일부로서, 적어도 하나의 청크가 군집하여 분석 대상물을 형성할 수 있다. 이때 각각의 청크는 사람의 건강 상태, 장내 유산균 상태, 수분 상태 등에 기초하여 일정한 형태를 가질 수 있다. 청크 인식을 위한 경계 분석은 예를 들어, LBP 등의 엣지 디텍션을 통해 이루어질 수 있다. 이때 엣지 디텍션은 2차 엣지 디텍션일 수 있으나, 이에 한정되는 것은 아니다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 분석 대상물의 형태에 기초하여 분석 대상물을 유형을 결정할 수 있다. 이와 같은 분류에는 소정의 대변 분류 차트에 기초할 수 있다. 대변 분류 차트는 대변의 형태와 이에 대한 식별 정보, 특징 등을 포함하는 것으로서, 예를 들어, 대변 분류 차트는 브리스톨 대변 차트일 수 있다. 브리스톨 대변 차트에 의할 경우, 헬스케어 장치(200)는 분석 대상물의 형태에 기초하여 분석 대상물이 브리스톨 대변 차트의 제 1 유형 내지 제 7 유형 중 어디에 속하는지 분류할 수 있다. 하기에서는 설명의 편의를 위해 브리스톨 대변 차트를 기준으로 본 발명의 실시예를 설명하나, 이에 한정되는 것은 아니다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는, 분석 대상물의 유형을 최종 분류하기 전에 분석 대상물의 형태에 기초하여 분석 대상물을 분류 후보군에 할당할 수 있다. 예를 들어, 제 1 분류 후보군은 비교적 쉽게 분류할 수 있는 유형에 대한 분류를 포함하고, 제 2 분류 후보군은 쉽게 분류하기 어려운 유형에 대한 분류를 포함할 수 있다.In an embodiment, the
예를 들어, 브리스톨 대변 차트의 제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형에 속할 경우, 제 1 분류 후보군으로 분류할 수 있다. 또한, 제 1 분류 후보군에 속하지 않을 경우, 또는 제 2 유형 내지 제 4 유형에 속할 경우, 제 2 분류 후보군으로 분류할 수 있다.For example, if they belong to the first type, the fifth type, the sixth type, and the seventh type of the Bristol stool chart, they may be classified as the first classification candidate group. In addition, if it does not belong to the first classification candidate group or if it belongs to the second to fourth types, it may be classified as the second classification candidate group.
제 1 분류 후보군(제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형)에 속할 경우, 청크들이 비교적 명확하게 구분 인식되어, 헬스케어 장치(200)는 용이하게 분류할 수 있다. 이와 달리, 제 2 분류 후보군(제 2 유형 내지 제 4 유형)에 속할 경우에는, 제 2 유형, 제 3 유형, 제 4 유형은 큰 덩어리의 텍스처에 따른 분류이므로 제 1 분류 후보군과 상이한 특징을 가지고, 덩어리 내의 질감에 대한 분석이 추가적으로 필요할 수 있다.If they belong to the first classification candidate group (first type, fifth type, sixth type, and seventh type), chunks are relatively clearly distinguished and recognized, and the
실시예에서, 헬스케어 장치(200)는 엣지 디텍션을 통해 분석 대상물의 형태를 파악하고, 분석 대상물이 전체적인 하나의 덩어리인지, 복수의 여러 덩어리로 구성되는지, 덩어리를 판독할 수 없는 경우인지 판단할 수 있다. 이에 기초하여 분석 대상물인 대변이 제 1 분류 후보군인지 제 2 분류 후보군에 속하는지 여부를 결정할 수 있다. 즉, 헬스케어 장치(200)는 큰 하나의 덩어리를 관심 영역으로 설정한 경우 분석 대상물이 제 2 분류 후보군에 속하는 것으로 추정할 수 있다. 또한 헬스케어 장치(200)는 제 1 분류 후보군의 일부 패턴을 탐색한 경우(예를 들어, 관심 영역이 이미지 대부분의 영역인 경우 등), 분석 대상물이 제 1 분류 후보군에 속하는 것으로 추정할 수 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 분석 대상물이 제 1 분류 후보군에 속하는 경우, 분석 대상물의 적어도 일부가 제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형에 속하는지 여부를 판단하고, 각각의 유형에 속하는 경우 해당 유형으로 분석 대상물을 분류할 수 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 2차 엣지 디텍션을 통해 제 2 분류 후보군에 속하는 분석 대상물의 텍스처를 분석함으로써, 분석 대상물이 제 2 분류 후보군 중 어느 유형에 속하는지 여부를 분류할 수 있다. 즉, 헬스케어 장치(200)는 분석 대상물의 유형이 제 2 분류 후보군에 속하는 경우, 제 2 유형, 제 3 유형 또는 제 4 유형 중 하나로 분류하기 위하여 엣지 디텍션을 수행할 수 있으며, 각 유형에 해당할 확률에 대한 형태로 분석 결과를 출력할 수도 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 분석 대상물을 분석하여 사용자의 건강 상태를 추론할 수 있다. 실시예에 따라, 이와 같은 추론에는 앞서 설명한 분석 대상물의 분류가 수반될 수 있다. 구체적으로, 헬스케어 장치(200)는 분석 대상물의 형태를 분석하고, 이에 기초하여 분석 대상물의 유형 분류한 후, 해당 유형의 특징, 사용자의 신체 상태 등에 기초하여 사용자의 건상 상태를 추론할 수 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 분석 대상물의 형태 분석, 분석 대상물의 유형 분류 및/또는 건강 상태의 추론에 있어 분석 모델을 이용할 수 있다. 이때 분석 모델은 뉴럴 네트워크에 기초하여 딥러닝으로 학습되는 분석 모델에 기초할 수 있다. 다만 이에 한정되는 것은 아니다.In an embodiment, the
실시예에서, 분석 모델은 분석 대상 이미지를 입력으로 하여 대변 분류 차트(예를 들어, 브리스톨 대변 차트)의 유형을 출력으로 하도록 학습된 모델일 수 있다. 분석 모델은 예를 들어, 이미지 처리 가능한 인공 신경망 모델로 구성될 수 있다. 분석 모델은 분류 후보군에 따라 분석 방법을 상이하게 적용하도록 학습된 모델일 수 있다. 분석 모델은 분류 후보군에 기초하여 상이한 서브모델로 입력 데이터를 처리하도록 학습된 모델일 수 있다. 또한, 분석 모델은 분류 후보군에 관한 정보를 분석 데이터와 함께 입력하여 대변 분류 차트의 유형을 출력하도록 학습된 모델일 수 있다.In an embodiment, the analysis model may be a model trained to take an analysis target image as an input and output a type of stool classification chart (eg, Bristol stool chart). The analysis model may include, for example, an artificial neural network model capable of image processing. The analysis model may be a model learned to apply an analysis method differently according to classification candidates. The analysis model may be a model learned to process input data with different submodels based on classification candidates. In addition, the analysis model may be a model learned to output a type of feces classification chart by inputting information about classification candidates together with analysis data.
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지를 분석 모델로 처리함에 있어서 분류 후보군에 기초하여 상이하게 처리할 수 있다. 예를 들어, 헬스케어 장치(200)는 분석 대상 이미지와 분류 후보군을 함께 분석 모델에 입력할 수도 있으며, 헬스케어 장치(200)는 분류 후보군에 기초하여 분석 대상 이미지를 처리할 분석 모델의 서브 모델을 선택할 수도 있다.In an embodiment, the
보다 구체적으로, 분석 모델은 분류 후보군이, 예를 들어 브리스톨 대변 차트의 제 2 분류 후보군에 해당하는 경우, 분석 대상물의 영역 전체에 대한 분석을 수행하도록 학습될 수 있다. 즉, 분석 모델은 분류 후보군이 제 2 분류 후보군에 해당하는 경우 분석 대상물의 영역을 전체적으로 판독하여 최종 결론을 내도록 학습될 수 있다.More specifically, the analysis model may be trained to analyze the entire region of the analysis object when the classification candidate group corresponds to, for example, the second classification candidate group of the Bristol Stool Chart. That is, when the classification candidate group corresponds to the second classification candidate group, the analysis model may be trained to read the entire region of the analysis object and draw a final conclusion.
또한 분석 모델은 분류 후보군이, 예를 들어, 제 1 분류 후보군에 해당하는 경우), 분석 대상물의 영역 중 일부에 포함된 대변의 형상이 브리스톨 대변 차트의 유형 중 어느 유형으로 분류되는지 여부를 확인하도록 학습될 수 있다. 즉, 분석 모델은 분류 후보군이 제 1 분류 후보군에 해당되는 경우 분석 대상물의 영역 중 적어도 일부만이 브리스톨 대변 차트의 제 1 유형, 제 5 유형 내지 제 7 유형 중 하나의 클래스로 분류되는 경우 해당 결론을 최종 결론으로 하도록 학습될 수 있다.In addition, the analysis model determines whether the classification candidate group corresponds to, for example, the first classification candidate group), whether the shape of stool included in some of the areas of the analysis target is classified into any type of the type of Bristol stool chart. can be learned That is, the analysis model makes a corresponding conclusion when the classification candidate group corresponds to the first classification candidate group and when at least some of the regions of the analysis target are classified into one of the first type, fifth to seventh type of the Bristol Stool Chart. It can be learned to make final conclusions.
실시예에서, 헬스케어 장치(200)는 엣지 디텍션 결과에 기초하여 분석 대상 이미지에 포함된 대변의 유형을 판단할 수도 있으며, 엣지 디텍션 결과 및 엣지 디텍션 결과에 기초한 분석 모델의 분류 결과에 기초하여 대변의 유형을 판단할 수도 있다. 헬스케어 장치(200)는 엣지 디텍션 결과에 기초하여 대변의 유형을 1차적으로 가분류하고, 그에 따라 분류 모델을 이용하여 대변의 유형을 2차적으로 재분류 함으로써 1차 분류의 분류 결과를 재검증하여 정확도를 높일 수도 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 대변 분류 차트 상의 유형에 관련한 정보와 대변의 색상에 관련한 정보 등에 기초하여 사용자의 건강 상태에 관련한 추론 정보를 생성할 수 있다. 헬스케어 장치(200)는 사용자의 대변에 관한 분석 정보에 기초하여 사용자의 영양 상태, 장 건강 상태 등에 관련한 정보를 생성할 수 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 1차적으로 대변의 유형에 관련한 정보를 생성하고, 2차적으로 대변의 색상에 관련한 정보를 생성할 수 있다. 대변의 색상을 판별하기 위해서는 HSV(Hue Saturation Value) 모델을 이용할 수 있으나 본 실시예는 이에 제한되지 않는다. 헬스케어 장치(200)는 대변의 유형과 대변의 색상에 관련한 정보에 기초하여 사용자의 장건강 상태를 판단할 수 있다. 대변의 색상에 따라, 적색 계열의 혈변인 경우 사용자는 장염, 치질, 치열, 항문 열상, 선천성 이상 또는 장폐색 증의 상태일 수 있다. 대변의 색상이 회색 계열인 경우 사용자는 간, 담도 폐쇄 질환 등의 상태일 수 있다. 대변의 색상이 진한 황색 계열인 경우 사용자는 담즙 색소가 배출되는 상태일 수 있다. 대변의 색상이 황갈색 개열인 경우 사용자는 정상 상태일 수 있다. 대변의 색상이 녹색 계열인 경우 사용자는 소화불량, 녹색 채소의 과다 섭치 또는 체내 미흡수 철분 배설 등의 상태일 수 있다. 대변의 색상이 흑색 계열인 경우 식도/위/십이지장 출혈, 염증성 장질환 등의 상태일 수 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 측정 장치(100)로부터 사용자 생체 정보를 수신하여 사용자 생체 정보에 기초한 사용자 건강 상태 정보를 추가적으로 생성할 수 있다. 예를 들어, 변기는 변좌에 접촉한 사용자의 피부로부터 사용자의 다양한 생체 정보를 수집할 수 있다. 예를 들어, 변기는 생체 전류 수집 모듈을 변좌에 포함할 수 있으며, 변기는 이를 통해 사용자의 생체 전류를 수집하여 사용자에게 건강 위험 등이 있는지 여부를 헬스케어 장치(200)가 판단하도록 할 수 있다. 또한 헬스케어 장치(200)는 변기로부터 수집된 사용자의 생체 정보에 기초하여 사용자의 체성분, 심박 관련 정보 등을 포함하는 통합 건강 상태 정보를 생성할 수 있다.In an embodiment, the
실시예에서, 헬스케어 장치(200)는 사용자의 건강 이상이 추측되는 경우에 사용자에게 알림을 전달할 수 있다. 또한, 헬스케어 장치(200)는 헬스케어 장치(200)에 저장된 사용자의 기초 생체 정보에 기초하여 사용자의 건강 이상을 판단할 수도 있다. 예를 들어, 헬스케어 장치(200)는 사용자의 기초 생체 정보(예를 들어, 건강 검진 데이터)와 대변에 대한 분류 결과에 기초하여 사용자의 병을 진단하고 이를 사용자에게 알릴 수 있다. 즉, 녹색 계열의 대변이 제 2 유형으로 분류된 경우, 헬스케어 장치(200)는 이러한 정보와 사용자의 건강 검진 데이터를 조합하여 사용자의 상태가 단순 녹색 채소 과다 섭취 상태가 아닌 체내 미흡수 철분 배설 상태임으로 판단할 수도 있다. 전술한 기재는 예시일 뿐이며 본 실시예는 이에 제한되지 않는다.In an embodiment, the
도 2에서 도시되는 바와 같이, 헬스케어 장치(200)는 프로세서(210), 메모리(230), 네트워크부(250)를 포함할 수 있다.As shown in FIG. 2 , the
프로세서(210)는 헬스케어 장치(200)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(210)는 헬스케어 장치(200)에 저장된 프로그램을 실행함으로써, 헬스케어 장치(200) 내의 구성요소들을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(210)는 헬스케어 장치(200)의 동작을 위한 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 적어도 하나의 인스트럭션(instruction)을 처리하도록 구성될 수 있다. 상술된 인스트럭션은 메모리(230)로부터 프로세서(210)에 제공될 수 있다. 즉, 프로세서(210)는 메모리(230)와 같은 기록 장치에 저장된 프로그램 코드에 따라 인스트럭션을 실행하도록 구성될 수 있다. 혹은 인스트럭션은 네트워크부(250)를 통해 헬스케어 장치(200)로 수신되어 프로세서(210)로 제공될 수도 있다. 또한, 프로세서(210)는 하나 이상의 코어로 구성될 수 있으며, 중앙 처리 장치(CPU, central processing unit), 범용 그래픽 처리 장치 (GPGPU, general purpose graphics processing unit), 텐서 처리 장치(TPU, tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서(210)를 포함할 수 있다. 프로세서(210)는 메모리(230)에 저장된 컴퓨터 프로그램을 판독하여 실시예에 따른 기계 학습을 위한 데이터 처리를 수행할 수 있다. 실시예에 따라 프로세서(210)는 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(210)는 딥러닝(DL, deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(210)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에서 복수의 헬스케어 장치(200)의 프로세서(210)를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에 따른 헬스케어 장치(200)에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.The
실시예에서, 메모리(230)는 프로세서(210)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(250)가 수신한 임의의 형태의 정보를 저장할 수 있다.In an embodiment, the
실시예에서, 메모리(230)는 플래시 메모리(230) 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(230)(예를 들어 SD 또는 XD 메모리(230) 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리(230), 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 헬스케어 장치(200)는 인터넷(internet) 상에서 상기 메모리(230)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리(230)에 대한 기재는 예시일 뿐, 본 실시예는 이에 제한되지 않는다.In an embodiment, the
실시예에서, 따른 네트워크부(250)는 공중전화 교환망(PSTN, Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.In an embodiment, the
실시예에서, 네트워크부(250)는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.In an embodiment, the
실시예에서, 네트워크부(250)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN, Personal Area Network), 근거리 통신망(WAN, Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW, World Wide Web)일 수 있으며, 적외선(IrDA, Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다.In an embodiment, the
도 2에 도시된 헬스케어 장치(200)의 구성은 간략화 하여 나타낸 예시일 뿐이다. 실시예에서 헬스케어 장치(200)는 헬스케어 장치(200)의 컴퓨팅 환경을 수행하기 위한 다른 구성들이 포함될 수 있고, 개시된 구성들 중 일부만이 헬스케어 장치(200)를 구성할 수도 있다.The configuration of the
도 3은 본 발명의 실시예에 따른 인공 신경 네트워크를 나타낸 개략도이다.3 is a schematic diagram showing an artificial neural network according to an embodiment of the present invention.
연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의 링크에 의해 상호 연결될 수 있다.A computational model, a neural network, a network function, and a neural network may be used interchangeably. A neural network may consist of a set of interconnected computational units, which may generally be referred to as nodes. These nodes may also be referred to as neurons. A neural network includes one or more nodes. Nodes (or neurons) constituting neural networks may be interconnected by one or more links.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.In a neural network, one or more nodes connected through a link may form a relative relationship of an input node and an output node. The concept of an input node and an output node is relative, and any node in an output node relationship with one node may have an input node relationship with another node, and vice versa. As described above, an input node to output node relationship may be created around a link. More than one output node can be connected to one input node through a link, and vice versa.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드의 데이터는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 링크는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.In a relationship between an input node and an output node connected through one link, the value of data of the output node may be determined based on data input to the input node. Here, a link interconnecting an input node and an output node may have a weight. The weight may be variable, and may be changed by a user or an algorithm in order to perform a function desired by the neural network. For example, when one or more input nodes are interconnected by respective links to one output node, the output node is set to a link corresponding to values input to input nodes connected to the output node and respective input nodes. An output node value may be determined based on the weight.
상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.As described above, in the neural network, one or more nodes are interconnected through one or more links to form an input node and output node relationship in the neural network. Characteristics of the neural network may be determined according to the number of nodes and links in the neural network, an association between the nodes and links, and a weight value assigned to each link. For example, when there are two neural networks having the same number of nodes and links and different weight values of the links, the two neural networks may be recognized as different from each other.
신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.A neural network may be composed of a set of one or more nodes. A subset of nodes constituting a neural network may constitute a layer. Some of the nodes constituting the neural network may form one layer based on distances from the first input node. For example, a set of nodes having a distance of n from the first input node may constitute n layers. The distance from the first input node may be defined by the minimum number of links that must be passed through to reach the corresponding node from the first input node. However, the definition of such a layer is arbitrary for explanation, and the order of a layer in a neural network may be defined in a method different from the above. For example, a layer of nodes may be defined by a distance from a final output node.
최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들을 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다.An initial input node may refer to one or more nodes to which data is directly input without going through a link in relation to other nodes among nodes in the neural network. Alternatively, in a relationship between nodes based on a link in a neural network, it may mean nodes that do not have other input nodes connected by a link. Similarly, the final output node may refer to one or more nodes that do not have an output node in relation to other nodes among nodes in the neural network. Also, the hidden node may refer to nodes constituting the neural network other than the first input node and the last output node.
실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 실시예의 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 실시예의 또 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 실시예의 또 다른 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.The neural network according to the embodiment may have the same number of nodes in the input layer as the number of nodes in the output layer, and may be a neural network in which the number of nodes decreases and then increases as the number of nodes progresses from the input layer to the hidden layer. In addition, the neural network according to another embodiment of the present embodiment may be a neural network in which the number of nodes of the input layer may be less than the number of nodes of the output layer, and the number of nodes decreases as the number of nodes increases from the input layer to the hidden layer. . In addition, the neural network according to another embodiment of the present embodiment may be a neural network in which the number of nodes of the input layer may be greater than the number of nodes of the output layer, and the number of nodes increases as the number of nodes increases from the input layer to the hidden layer. there is. A neural network according to another embodiment of the present embodiment may be a neural network in the form of a combination of the aforementioned neural networks.
딥 뉴럴 네트워크(DNN, deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN, convolutional neural network), 리커런트 뉴럴 네트워크(RNN, recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM, restricted boltzmann machine), 심층 신뢰 네트워크(DBN, deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN, Generative Adversarial Network) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 실시예는 이에 제한되지 않는다. A deep neural network (DNN) may refer to a neural network including a plurality of hidden layers in addition to an input layer and an output layer. Deep neural networks can reveal latent structures in data. In other words, it can identify the latent structure of a photo, text, video, sound, or music (e.g., what objects are in the photo, what the content and emotion of the text are, what the content and emotion of the audio are, etc.). . Deep neural networks include convolutional neural networks (CNNs), recurrent neural networks (RNNs), auto encoders, generative adversarial networks (GANs), and restricted boltzmann machines (RBMs). machine), a deep belief network (DBN), a Q network, a U network, a Siamese network, a Generative Adversarial Network (GAN), and the like. The description of the deep neural network described above is only an example, and the present embodiment is not limited thereto.
실시예에서, 네트워크 함수는 오토 인코더(autoencoder)를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 차원과 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.In an embodiment, the network function may include an autoencoder. An autoencoder may be a type of artificial neural network for outputting output data similar to input data. An auto-encoder may include at least one hidden layer, and an odd number of hidden layers may be disposed between input and output layers. The number of nodes of each layer may be reduced from the number of nodes of the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically with the reduction from the bottleneck layer to the output layer (symmetrical to the input layer). Autoencoders can perform non-linear dimensionality reduction. The number of input layers and output layers may correspond to dimensions after preprocessing of input data. In the auto-encoder structure, the number of hidden layer nodes included in the encoder may decrease as the distance from the input layer increases. If the number of nodes in the bottleneck layer (the layer with the fewest nodes located between the encoder and decoder) is too small, a sufficient amount of information may not be conveyed, so more than a certain number (e.g., more than half of the input layer, etc.) ) may be maintained.
뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 반교사학습(semi supervised learning), 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 뉴럴 네트워크가 특정한 동작을 수행하기 위한 지식을 뉴럴 네트워크에 적용하는 과정일 수 있다.The neural network may be trained using at least one of supervised learning, unsupervised learning, semi-supervised learning, and reinforcement learning. Learning of the neural network may be a process of applying knowledge for the neural network to perform a specific operation to the neural network.
뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링 되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.A neural network can be trained in a way that minimizes output errors. In the learning of the neural network, the learning data is repeatedly input into the neural network, the output of the neural network for the training data and the error of the target are calculated, and the error of the neural network is transferred from the output layer of the neural network to the input layer in the direction of reducing the error. It is a process of updating the weight of each node of the neural network by backpropagating in the same direction. In the case of teacher learning, the learning data in which the correct answer is labeled is used for each learning data (ie, the labeled learning data), and in the case of comparative teacher learning, the correct answer may not be labeled in each learning data. That is, for example, learning data in the case of teacher learning about data classification may be data in which each learning data is labeled with a category. Labeled training data is input to a neural network, and an error may be calculated by comparing an output (category) of the neural network and a label of the training data. As another example, in the case of comparative history learning for data classification, an error may be calculated by comparing input learning data with a neural network output. The calculated error is back-propagated in a reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back-propagation. The amount of change in the connection weight of each updated node may be determined according to a learning rate. The neural network's computation of input data and backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently according to the number of iterations of the learning cycle of the neural network. For example, a high learning rate may be used in the early stage of neural network training to increase efficiency by allowing the neural network to quickly obtain a certain level of performance, and a low learning rate may be used in the late stage to increase accuracy.
뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer)의 활용 등의 방법이 적용될 수 있다.In neural network learning, generally, training data can be a subset of real data (ie, data to be processed using the trained neural network), and therefore, errors for training data are reduced, but errors for real data are reduced. There may be incremental learning cycles. Overfitting is a phenomenon in which errors for actual data increase due to excessive learning on training data. For example, a phenomenon in which a neural network that has learned a cat by showing a yellow cat does not recognize that it is a cat when it sees a cat other than yellow may be a type of overfitting. Overfitting can act as a cause of increasing the error of machine learning algorithms. Various optimization methods can be used to prevent such overfitting. To prevent overfitting, methods such as increasing the training data, regularization, inactivating some nodes in the network during learning, and using a batch normalization layer should be applied. can
도 4는 본 발명의 실시예에 따른 브리스톨 대변 차트를 설명하는 도면이다.4 is a diagram illustrating a Bristol stool chart according to an embodiment of the present invention.
도 4를 참조하여 브리스톨 대변 차트(Bristol Stool Chart)에 기초하여 설명하자면, 제 1 유형의 땅콩처럼 분리된 덩어리는 청크에 해당할 수 있다. 제 1 유형의 경우 사용자는 심한 변비 상태일 수 있다. 또한 제 2 유형의 소시지 모양에서 울퉁불퉁한 덩어리는 청크에 해당할 수 있다. 즉, 제 2 유형의 경우에는 전체적으로 하나의 덩어리지만 하나의 덩어리 안에 복수의 청크를 포함할 수 있다. 제 2 유형인 경우 사용자는 가벼운 변비 상태일 수 있다. 제 3 유형의 경우에도 표면의 균열에 의하여 청크들이 구분될 수 있다. 즉, 제 2 유형의 경우보다 구분의 정도는 낮으나 제 3 유형의 경우에도 청크를 포함할 수 있다. 제 3 유형인 경우 사용자는 정상 상태 일 수 있다. 제 4 유형의 경우에는 하나의 덩어리로 판단될 수 있으며 청크를 추출하기 어려울 수 있다. 제 4 유형인 경우 사용자는 정상 상태일 수 있다. 제 5 유형의 경우에도 부드러운 각각의 덩어리가 청크에 해당할 수 있다. 제 5 유형인 경우 사용자는 섬유질 부족 가능성이 있을 수 있다. 제 6 유형의 경우는 보다 작은 다수의 청크들로 구성되는 경우일 수 있다. 제 6 유형은 대장염 상태일 수 있다. 제 7 유형은 완전한 액체로서 청크들을 추출하기 어려우며, 전체 형상으로 판단될 수 있다. 제 7 유형인 경우 사용자는 심한 대장염이거나, 대장/직장에 대한 암 조직 발생, 영향 불균형 등 좋지 못한 건강 상태 일 수 있다.Referring to FIG. 4, based on the Bristol Stool Chart, the separated chunks, such as the first type of peanuts, may correspond to chunks. In case of the first type, the user may be severely constipated. Also, in the shape of the second type of sausage, lumps may correspond to chunks. That is, in the case of the second type, although it is one chunk as a whole, a plurality of chunks may be included in one chunk. In case of the second type, the user may be mildly constipated. Even in the case of the third type, chunks can be distinguished by surface cracks. That is, although the degree of classification is lower than that of the second type, chunks may be included even in the third type. In case of the third type, the user may be in a normal state. In the case of the fourth type, it may be determined as one chunk and it may be difficult to extract the chunk. In case of the fourth type, the user may be in a normal state. Even in the case of the fifth type, each soft lump may correspond to a chunk. In the case of the fifth type, the user may have a possibility of fiber deficiency. The sixth type may be a case composed of a plurality of smaller chunks. A sixth type may be a colitis condition. The seventh type is difficult to extract chunks as a complete liquid, and can be judged as a whole shape. In the case of the seventh type, the user may have severe colitis, a bad health condition such as occurrence of cancer tissue in the large intestine/rectum, and an imbalance of effects.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 또한 각각의 실시예는 필요에 따라 서로 조합되어 운용할 수 있다. 예컨대, 실시예와 다른 실시예의 일부분들이 서로 조합되어 장치의 동작이 운용될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved. In addition, each embodiment can be operated in combination with each other as needed. For example, an operation of a device may be operated by combining parts of an embodiment and other embodiments. Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (9)
분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계;
상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하는 단계;
상기 형태 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하는 단계; 및
상기 유형에 기초하여 사용자의 건강 상태를 추론하는 단계를 포함하고,
상기 분석 대상물의 형태를 분석하는 단계는, 상기 분석 대상 이미지에서 상기 분석 대상물이 위치하는 관심 영역을 추출하기 위해 1차 엣지 디텍션을 수행하는 단계; 및 상기 분석 대상물의 형태를 분석하기 위해 상기 관심 영역에 대하여 2차 엣지 디텍션을 수행하는 단계를 포함히고,
상기 2차 엣지 디텍션을 수행하는 단계는, 상기 분석 대상물을 청크(chunk) 단위로 인식할 수 있도록 상기 청크의 경계를 분석함으로써 수행되고, 상기 청크는 상기 대변의 일부로서, 적어도 하나의 상기 청크가 군집하여 상기 분석 대상물을 형성하는, 방법.A health condition analysis method performed in one or more processors of a healthcare device,
Acquiring an analysis target image containing feces as an analysis target;
analyzing the shape of the analysis target in the analysis target image;
determining the type of the analyte based on the shape and stool classification chart; and
Inferring the user's health condition based on the type;
Analyzing the shape of the object of analysis may include performing primary edge detection to extract a region of interest in which the object of analysis is located in the image of the object of analysis; and performing secondary edge detection on the region of interest to analyze the shape of the analysis target,
The step of performing the secondary edge detection is performed by analyzing the boundary of the chunk to recognize the analysis object in units of chunks, and the chunk is a part of the feces, and at least one of the chunks clustering to form the analyte.
상기 분석 대상 이미지는 변기에 장착된 카메라로부터 획득되는, 방법.According to claim 1,
The method of claim 1, wherein the image to be analyzed is obtained from a camera mounted on a toilet bowl.
상기 1차 엣지 디텍션은 케니 엣지(canny edge) 디텍션 알고리즘에 기초하여 수행되고, 상기 2차 엣지 디텍션은 LBP(Local Binary Pattern)에 기초하여 수행되는, 방법.According to claim 1,
The first edge detection is performed based on a canny edge detection algorithm, and the second edge detection is performed based on a local binary pattern (LBP).
상기 형태에 대한 분석은 상기 분석 대상물에 포함된 청크의 크기, 청크의 수, 청크의 응집도, 청크의 형상 또는 청크의 추출 여부 중 적어도 하나에 대한 정보를 포함하는, 방법.According to claim 1,
The analysis of the shape includes information on at least one of the size of chunks included in the analysis object, the number of chunks, the degree of cohesion of chunks, the shape of chunks, or whether chunks are extracted.
상기 대변 분류 차트는, 브리스톨 대변 차트인, 방법.According to claim 1,
The method of claim 1, wherein the stool classification chart is a Bristol stool chart.
컴퓨터 실행가능한 명령들을 저장하기 위한 메모리; 및
상기 메모리에 저장된 명령들을 실행하기 위한 프로세서를 포함하고,
상기 프로세서는, 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하고, 상기 분석 대상 이미지에서 상기 분석 대상물의 형태를 분석하고, 상기 형태 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하며, 상기 유형에 기초하여 사용자의 건강 상태를 추론하고,
상기 프로세서는, 상기 분석 대상 이미지에서 상기 분석 대상물이 위치하는 관심 영역을 추출하기 위해 1차 엣지 디텍션을 수행하고, 상기 분석 대상물의 형태를 분석하기 위해 상기 관심 영역에 대하여 2차 엣지 디텍션을 수행하여, 상기 분석 대상물의 형태를 분석하고,
상기 프로세서의 상기 2차 엣지 디텍션은 상기 분석 대상물을 청크(chunk) 단위로 인식할 수 있도록 상기 청크의 경계를 분석함으로써 수행되고,
상기 청크는 상기 대변의 일부로서, 적어도 하나의 상기 청크가 군집하여 상기 분석 대상물을 형성하는, 장치.As a healthcare device,
memory for storing computer executable instructions; and
a processor for executing instructions stored in the memory;
The processor acquires an analysis target image including feces as an analysis target, analyzes the shape of the analysis target in the analysis target image, and determines the type of the analysis target based on the shape and the stool classification chart, Inferring the health status of the user based on the type;
The processor performs primary edge detection to extract a region of interest where the analysis target is located in the analysis target image, and performs secondary edge detection on the region of interest to analyze the shape of the analysis target, , Analyzing the shape of the analyte,
The secondary edge detection of the processor is performed by analyzing the boundary of the chunk to recognize the analysis target in units of chunks,
wherein the chunk is part of the feces, and at least one of the chunks clusters to form the analyte.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210006135A KR102526901B1 (en) | 2021-01-15 | 2021-01-15 | Healthcare system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210006135A KR102526901B1 (en) | 2021-01-15 | 2021-01-15 | Healthcare system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220103859A KR20220103859A (en) | 2022-07-25 |
KR102526901B1 true KR102526901B1 (en) | 2023-05-02 |
Family
ID=82608853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210006135A KR102526901B1 (en) | 2021-01-15 | 2021-01-15 | Healthcare system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102526901B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101595434B1 (en) * | 2014-10-13 | 2016-02-19 | 한국생산기술연구원 | Apparatus and method for measuring the shape of stool |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180015858A (en) | 2016-08-04 | 2018-02-14 | 주식회사 케이티 | Server and method for analyzing body type and user device |
KR101976494B1 (en) | 2017-09-15 | 2019-05-10 | 임대환 | Method And Potty for Analyzing Personal Health |
-
2021
- 2021-01-15 KR KR1020210006135A patent/KR102526901B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101595434B1 (en) * | 2014-10-13 | 2016-02-19 | 한국생산기술연구원 | Apparatus and method for measuring the shape of stool |
Also Published As
Publication number | Publication date |
---|---|
KR20220103859A (en) | 2022-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Öztürk et al. | Residual LSTM layered CNN for classification of gastrointestinal tract diseases | |
Guo et al. | A retinal vessel detection approach using convolution neural network with reinforcement sample learning strategy | |
Dey et al. | An optimized fuzzy ensemble of convolutional neural networks for detecting tuberculosis from Chest X-ray images | |
AlBadawi et al. | Arterioles and venules classification in retinal images using fully convolutional deep neural network | |
EP3996103A1 (en) | Image diagnosis apparatus using deep learning model and method therefor | |
CN113924579A (en) | Integrated neural network for determining protocol configuration | |
Harshitha et al. | Predicting the stages of diabetic retinopathy using deep learning | |
Vasilakakis et al. | Weakly supervised multilabel classification for semantic interpretation of endoscopy video frames | |
EP3916642A2 (en) | Differential learning for learning networks | |
Lafraxo et al. | Computer-aided system for bleeding detection in wce images based on cnn-gru network | |
CN115115569A (en) | Image correlation detection method and detection device | |
KR102526901B1 (en) | Healthcare system | |
Prabhakar et al. | Exponential gannet firefly optimization algorithm enabled deep learning for diabetic retinopathy detection | |
KR20220117403A (en) | Healthcare system | |
KR20230103145A (en) | Healthcare system | |
Islam et al. | Classification of gastric precancerous diseases using hybrid cnn-svm | |
JP2024500470A (en) | Lesion analysis methods in medical images | |
Navaneethan et al. | Enhancing Diabetic Retinopathy Detection through Preprocessing and Feature Extraction with MGA-CSG Algorithm | |
Mantzaris et al. | A non-symbolic implementation of abdominal pain estimation in childhood | |
KR20220128015A (en) | System for analyzing skin | |
Rao et al. | DCNN Model for Automatic Detection of Polyps using UNet | |
Brown et al. | Deep learning for computer-aided diagnosis in ophthalmology: a review | |
Jena et al. | A Novel Approach for Diabetic Retinopathy Screening Using Asymmetric Deep Learning Features. Big Data Cogn. Comput. 2023, 7, 25 | |
KR102540175B1 (en) | Ai based pig disease management system | |
Melin et al. | Particle Swarm Optimization of Convolutional Neural Networks for Diabetic Retinopathy Classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |