WO2023128040A1 - 헬스케어 시스템 - Google Patents

헬스케어 시스템 Download PDF

Info

Publication number
WO2023128040A1
WO2023128040A1 PCT/KR2022/000029 KR2022000029W WO2023128040A1 WO 2023128040 A1 WO2023128040 A1 WO 2023128040A1 KR 2022000029 W KR2022000029 W KR 2022000029W WO 2023128040 A1 WO2023128040 A1 WO 2023128040A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
analysis
analysis target
target image
color
Prior art date
Application number
PCT/KR2022/000029
Other languages
English (en)
French (fr)
Inventor
김보성
Original Assignee
주식회사 쉬즈엠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쉬즈엠 filed Critical 주식회사 쉬즈엠
Publication of WO2023128040A1 publication Critical patent/WO2023128040A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/0038Devices for taking faeces samples; Faecal examination devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B2010/0003Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements including means for analysis by an unskilled person

Definitions

  • the present invention relates to a healthcare system.
  • the food we ingest goes through a digestive process passing through the esophagus, stomach, small intestine, large intestine, etc., and the remaining material is discharged as feces through the anus.
  • the individual's health condition can be known. For example, if the color of the stool is maroon or red, gastrointestinal bleeding or hemorrhoids, intestinal disease, etc. may be suspected, and if the stool is green and diarrhea, gastric bacterial infection may be suspected. Also, hard and small grainy stools can be suspicious of a lack of fiber to flush waste out of the digestive system.
  • the present invention has been made to solve the above problems, and an object of the present invention is to provide a health care system that can indirectly determine the state of feces without directly checking one's own feces.
  • a method performed in one or more processors of a healthcare device may include obtaining an analysis target image including feces, an analysis target of a first user; analyzing at least one of the shape and color of the analysis object in the analysis object image; and providing at least one of a visual notification and an auditory notification generated based on a result of analysis of the analysis target image to the first user.
  • the analysis target image may be obtained from a camera mounted on the toilet.
  • the visual notification may be provided in a downward direction of the toilet by a light mounted on the toilet, and the providing may be provided while the first user is located on the toilet.
  • the method may further include determining the type of the analysis object based on the analysis result of the analysis object image and the feces classification chart.
  • At least one of the visual notification and the auditory notification may be generated based on the type.
  • the auditory notification may include at least one of speech sounds and music capable of conveying meaning or emotion related to an analysis result of the analysis target image.
  • the visual notification is based on the analysis result of the analysis target image to deliver information about the health condition of the first user or the analysis target, which is inferred from the analysis result of the analysis target image. At least one of color, shape and flicker may be determined.
  • obtaining user information use agreement from the first user obtaining user information use agreement from the first user; and transmitting at least one of diagnosis basic data based on the analysis target image and an analysis result of the analysis target image to a device of a second user.
  • diagnosis basic data may include data processed to easily identify the analysis target included in the analysis target image by the second user and information of the first user.
  • the method may further include transmitting information about the type to a device of the first user, except for the analysis target image.
  • a healthcare device includes a memory for storing computer executable instructions; and a processor for executing commands stored in the memory, wherein the processor acquires an analysis target image including feces, an analysis target of a first user, and selects among the shape and color of the analysis target in the analysis target image. At least one may be analyzed, and at least one of a visual notification and an auditory notification generated based on the analysis result of the analysis target image may be provided to the first user.
  • the device may further include a measuring device that captures an analysis target image including feces, which is an analysis target of the first user.
  • a computer program is provided according to an embodiment of the present invention.
  • the program may be stored in a medium to perform a method according to an embodiment of the present invention.
  • the first user by providing the first user with a visual or auditory notification generated based on the shape and color of the object of analysis including feces, the first user can indirectly detect feces without directly confirming the feces of the first user. status can be ascertained.
  • the health state of the first user can be easily grasped through the second user.
  • first user data such as an analysis target image and an analysis result thereof are deleted when certain conditions are satisfied, thereby protecting the first user's personal information and maintaining security.
  • FIG. 1 is a block diagram of a healthcare system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a healthcare device constituting a healthcare system according to an embodiment of the present invention.
  • FIG. 4 is a diagram for explaining an operating state of a healthcare device according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a Bristol stool chart according to an embodiment of the present invention.
  • first and second may be used to describe various elements, but elements are not limited by the terms. Terms are only used to distinguish one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
  • the terms and/or include a combination of a plurality of related items or any one of a plurality of related items.
  • network functions artificial neural networks, and neural networks may be used interchangeably.
  • FIG. 1 is a block diagram of a healthcare system according to an embodiment of the present invention.
  • a healthcare system 1000 may include a measurement device 100 , a healthcare device 200 and a first user terminal 300 .
  • the measuring device 100 may generate an analysis target image by photographing the analysis target.
  • the healthcare device 200 may receive an analysis target image, generate at least one of a visual notification and an audible notification by using the image, and then provide the information to the first user.
  • the healthcare device 200 may provide a visual notification or an auditory notification to the first user's terminal 300 or other devices or devices that the first user can check. can
  • an analysis object for obtaining information on the health status of the first user may include secretions derived from the body of the first user, and the secretions may be feces, for example. However, it is not limited thereto.
  • the measuring device 100 may be provided at a location suitable for photographing the analysis target.
  • the analysis target is a toilet
  • the measuring device 100 may be a part of the toilet or a bidet, and an analysis target image may be captured from a camera in the measuring device 100 .
  • the healthcare device 200 may include a cloud server for collecting various data from the measurement device 100, but is not limited thereto, and may be a computer device of a first user end. In addition, the healthcare device 200 may collect data from the measurement device 100 or may collect data from the measurement device 100 through the first user terminal 300 .
  • the healthcare system 1000 shown in FIG. 1 is exemplary, and various configurations may be applied according to an embodiment to which the present invention is applied.
  • FIG. 2 is a block diagram of a healthcare device constituting a healthcare system according to an embodiment of the present invention.
  • the healthcare device 200 obtains an analysis target image, analyzes at least one of the shape and color of the analysis target therefrom, and provides at least one of a visual notification and an audible notification generated based thereon to the first user can do.
  • the object to be analyzed may be feces, and the image to be analyzed may be taken from a camera mounted on the toilet bowl. However, it is not limited thereto.
  • the healthcare device 200 may perform predetermined image processing on the analysis target image before analyzing the shape and color of the analysis target image in the analysis target image.
  • Image processing is applying changes to an analysis target image to be suitable for shape analysis, and may include, for example, color conversion, noise removal, image quality adjustment, etc., but is not limited thereto.
  • the healthcare device 200 may analyze the shape of the object to be analyzed in the image to be analyzed.
  • the analysis target may be stool
  • the analysis target image may be an image of stool obtained from a flush toilet.
  • the healthcare device 200 may analyze the shape by obtaining external information of the analysis target from the analysis target image.
  • the appearance information may include, for example, the size of feces, the number of chunks, the shape of chunks, the size of chunks, and the degree of cohesion of chunks. However, it is not limited thereto, and various information for identifying and classifying feces may be included.
  • the healthcare device 200 may accompany edge detection to analysis of the shape of the object to be analyzed.
  • feces which is an analysis target
  • the reflection of light by the water surface and the color of the water surface affect the analysis target image.
  • the feces are not fixed in position in the toilet, but may be moved or aligned.
  • the chunks are clustered in one place, making it difficult to grasp the overall shape of each chunk or feces.
  • the healthcare device 200 performs one or more stages of edge detection to make the boundaries of objects included in the analysis target image clearer and clearer and/or remove/minimize unnecessary objects for analysis, thereby increasing analysis reliability.
  • edge detection may be performed based on a canny edge detection algorithm, a local binary pattern (LBP), or the like.
  • LBP local binary pattern
  • the healthcare device 200 may perform first edge detection and second edge detection.
  • the primary edge detection is for extracting a region of interest where the analysis target is located in the analysis target image
  • the secondary edge detection is applied to the region of interest to determine the shape of the analysis target.
  • a more effective algorithm may be applied to grasp the shape of the object to be analyzed.
  • secondary edge detection may be used to read the texture of an analysis object.
  • the first edge detection may be based on the Kenny edge detection algorithm
  • the second edge detection may be based on LBP.
  • the analysis model learns to determine whether the shape of feces included in some of the areas of the analysis object is classified into which type of the types of the Bristol stool chart, if the classification candidate group corresponds to, for example, the first classification candidate group. It can be. That is, the analysis model makes a corresponding conclusion when the classification candidate group corresponds to the first classification candidate group and when at least some of the regions of the analysis target are classified into one of the first type, fifth to seventh type of the Bristol Stool Chart. It can be learned to make final conclusions.
  • the healthcare device 200 may determine the type of feces included in the analysis target image based on the edge detection result, and feces based on the edge detection result and the classification result of the analysis model based on the edge detection result. type can be determined. The healthcare device 200 first tentatively classifies the type of feces based on the edge detection result, and secondarily reclassifies the type of feces using a classification model accordingly, thereby re-verifying the classification result of the primary classification You can increase the accuracy by doing this.
  • the healthcare device 200 may generate inference information related to the health condition of the first user based on information related to the type on the stool classification chart and information related to the color of stool.
  • the healthcare device 200 may generate information related to the first user's nutritional status, intestinal health status, and the like, based on the analysis information on the stool of the first user.
  • the healthcare device 200 may analyze the color of the analysis target in the analysis target image.
  • a Hue Saturation Value (HSV) model may be used, but the present embodiment is not limited thereto.
  • the healthcare device 200 may determine the intestinal health state of the first user based on information related to the type and color of stool.
  • the first user may have enteritis, hemorrhoids, fissures, anal lacerations, congenital abnormalities, or intestinal obstruction.
  • the color of stool is gray, the first user may have a liver or biliary obstruction disease.
  • the first user When the color of feces is dark yellow, the first user may be in a state in which bile pigments are discharged. When the color of stool is yellowish brown, the first user may be in a normal state. When the color of stool is green, the first user may be in a state of indigestion, excessive consumption of green vegetables, or excretion of unabsorbed iron in the body. If the color of the stool is black, it may be a condition such as esophageal/gastric/duodenal bleeding or inflammatory bowel disease.
  • an analyte may include urine in addition/alternatively to feces.
  • the healthcare device 200 may analyze the shape and/or color of urine. For example, the healthcare device 200 may determine whether bubbles are generated in urine, the distribution of bubbles, and the amount of bubbles through at least one edge detection. Also, for example, the healthcare device 200 may use a Hue Saturation Value (HSV) model to determine the color of urine. At this time, if noise is formed in the analysis target image including urine, or if the contents in the existing toilet bowl are not transparent and have color, the healthcare device 200 performs color image processing (Color Image Processing) before determining the color. ) can be used to perform color conversion, noise removal, and the like.
  • HSV Hue Saturation Value
  • the health care device 200 may determine the health state of the first user based on urine analysis results (eg, urine foam, color, etc.). For example, if a lot of foam is formed in the urine, it may be a condition such as diabetes or proteinuria. Also, depending on the color of urine, if it is dark yellow, the first user may have a problem with liver function. If the color of urine is dark brown, it may be a condition such as glomerulonephritis or rhabdomyolysis. If the color of urine is red-based hematuria, there may be a problem with the urinary tract, such as the kidneys, renal pelvis, ureters, bladder, urethra, and prostate. If the color of your urine is clear and colorless, you may have a problem with kidney function. When the color of urine is light yellow, the first user may be in a normal state.
  • urine analysis results eg, urine foam, color, etc.
  • the healthcare device 200 may receive first user biometric information from the measurement device 100 and additionally generate first user health state information based on the first user biometric information.
  • the toilet may collect various biometric information of the first user from the first user's skin in contact with the toilet seat.
  • the toilet may include a biocurrent collection module in the toilet seat, and the toilet collects the biocurrent of the first user through this, so that the health care device 200 determines whether there is a health risk to the first user.
  • an electroencephalogram (EEG) sensor, a photoplethysmogram (PPG) sensor, and the like are provided on the upper portion of the toilet seat cover, so that an electrocardiogram, a heart rate, and the like can be measured from the skin of a first user positioned on the toilet bowl.
  • the healthcare device 200 may generate integrated health state information including body composition and heart rate-related information of the first user based on the biometric information of the first user collected from the toilet seat.
  • the healthcare device 200 may provide at least one of a visual notification and an audible notification to the first user.
  • the visual or auditory notification may be generated based on the analysis result of the analysis target image and/or the type of the analysis target so that the first user can indirectly grasp the state of the analysis target without directly observing the analysis target.
  • the healthcare device 200 may provide a visual notification or an audible notification to the first user while the first user is on the toilet.
  • a sensor may be provided on the top of the toilet cover.
  • the sensing unit may use a pressure sensor to detect pressure applied when the first user is positioned on the toilet.
  • the sensor may measure information such as a start point and an end point of defecation of the first user.
  • the health care device 200 receives information such as when the first user's defecation starts and ends, measured through a toilet sensor, and defecation habits such as average defecation time and frequency of the first user. can be analyzed. Through this, the healthcare device 200 may additionally generate health state information of the first user based on bowel habit information.
  • a positive auditory notification or a negative auditory notification may be provided as the auditory notification based on the analysis result of the analysis target image and/or the type of the analysis target.
  • the auditory notification may include at least one of speech sounds and music capable of conveying meaning or emotion related to an analysis result of an analysis target image. For example, if the analysis result for the analysis target image is positive, or the analysis target corresponds to the 4th and 5th types, the auditory notification may convey a positive meaning such as “congratulations” to the first user. It can be produced by speech sounds. Also, for example, when the analysis result of the analysis target image is negative or the analysis target corresponds to the 6th type or the 7th type, an audible notification may be generated as a warning sound that alerts the first user.
  • a yellow visual notification may be emitted
  • a red visual notification may be emitted
  • the analysis target is composed of one large chunk and several small chunks
  • a visual notification in the shape of a long straight line is emitted in one part
  • a visual notification in the shape of several dots is emitted in another part, so that the first user
  • the visual notification may indicate this by rapidly blinking.
  • the visual notification may indicate this by blinking for a long time.
  • the healthcare device 200 may deliver a notification to the first user when an abnormality in health of the first user is suspected.
  • the healthcare device 200 may determine the first user's health abnormality based on the basic biometric information of the first user stored in the healthcare device 200 .
  • the healthcare device 200 diagnoses the first user's illness based on the first user's basic biometric information (eg, health checkup data) and the stool classification result, and informs the first user of the diagnosis. can That is, when the green stool is classified as the second type, the health care device 200 combines this information and the first user's health examination data to determine whether the first user's condition is not a simple overconsumption of green vegetables. It can also be determined that it is a state of underabsorbed iron excretion.
  • the above description is only an example and the present embodiment is not limited thereto.
  • the healthcare device 200 may transmit at least one of diagnosis basic data based on the analysis target image and analysis results for the analysis target image to the device of the second user.
  • the second user may include, but is not limited to, a medical worker, a person who can provide professional advice on the health condition of the first user, and a person who can make a diagnosis.
  • the basic expert diagnosis data may include data processed so that the second user can easily identify the analysis target included in the analysis target image and information of the first user.
  • the diagnosis basic data is configured by matching the analysis target image with information such as gender, age, and medical history of the first user, so that the second user can easily grasp the health condition of the first user through the analysis target image.
  • the healthcare device 200 uses the network unit 250 to identify a first user who is using the healthcare device 200 from among at least one first user, and each first user has Wired and wireless communication may be performed with a user terminal (eg, a mobile phone, a smart watch, etc.).
  • a user terminal eg, a mobile phone, a smart watch, etc.
  • the health care device 200 may communicate with at least one user terminal located nearby, select a user terminal that satisfies a predetermined requirement, and select a first user corresponding to the user terminal as the healthcare device. It may be determined that 200 is the first user in use. In this case, the requirements may vary, such as the distance between the user terminal and the healthcare device 200 and signal strength. Identification of the first user may be performed when the healthcare device 200 detects the user (eg, through a sensor) and/or when the healthcare device 200 performs various operations. there is.
  • the healthcare device 200 may perform Bluetooth communication with a user terminal equipped with at least one first user through the network unit 250 .
  • the healthcare device 200 detects a plurality of user terminals to which Bluetooth communication is connectable, the closest user terminal is detected by determining the distance based on the Bluetooth signal strength, and the first user corresponding to the corresponding user terminal is identified.
  • the healthcare device 200 may update integrated health state information for the first user identified as the closest.
  • the healthcare device 200 may receive a unique identification number of the electronic device of the first user identified as the closest one.
  • the unique identification number may be a Media Access Control (MAC) address or an International Mobile Equipment Identity (IMEI).
  • MAC Media Access Control
  • IMEI International Mobile Equipment Identity
  • the healthcare device 200 may include a processor 210 , a memory 230 , and a network unit 250 .
  • the processor 210 may control overall operations of the healthcare device 200 .
  • the processor 210 may overall control components within the healthcare device 200 by executing a program stored in the healthcare device 200 .
  • the processor 210 may be configured to process at least one instruction by performing basic arithmetic, logic, and input/output operations for the operation of the healthcare device 200 .
  • the instructions described above may be provided to processor 210 from memory 230 . That is, processor 210 may be configured to execute instructions according to program codes stored in a recording device such as memory 230 . Alternatively, the instruction may be received by the healthcare device 200 through the network unit 250 and provided to the processor 210 .
  • the processor 210 may include one or more cores, including a central processing unit (CPU), a general purpose graphics processing unit (GPGPU), and a tensor processing unit (TPU). ), etc., and a processor 210 for data analysis and deep learning.
  • the processor 210 may read the computer program stored in the memory 230 and perform data processing for machine learning according to an embodiment.
  • the processor 210 may perform an operation for learning the neural network.
  • the processor 210 is used for neural network learning, such as processing input data for learning in deep learning (DL), extracting features from input data, calculating errors, and updating neural network weights using backpropagation. calculations can be performed.
  • DL deep learning
  • At least one of the CPU, GPGPU, and TPU of the processor 210 may process learning of the network function.
  • the CPU and GPGPU can process learning of network functions and data classification using network functions.
  • the processors 210 of the plurality of healthcare devices 200 may be used together to process learning of the network function and data classification using the network function.
  • the computer program executed in the healthcare device 200 according to the embodiment may be a CPU, GPGPU or TPU executable program.
  • the memory 230 is a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory 230 (eg For example, SD or XD memory (230), etc.), RAM (Random Access Memory, RAM), SRAM (Static Random Access Memory), ROM (Read-Only Memory, ROM), EEPROM (Electrically Erasable Programmable Read-Only Memory), It may include at least one type of storage medium among a programmable read-only memory (PROM), a magnetic memory 230, a magnetic disk, and an optical disk.
  • PROM programmable read-only memory
  • the healthcare device 200 may operate in relation to a web storage performing a storage function of the memory 230 on the Internet.
  • the above description of the memory 230 is only an example, and the present embodiment is not limited thereto.
  • the network unit 250 according to the Public Switched Telephone Network (PSTN), x Digital Subscriber Line (xDSL), Rate Adaptive DSL (RADSL), Multi Rate DSL (MDSL), Very High Speed (VDSL) DSL), UADSL (Universal Asymmetric DSL), HDSL (High Bit Rate DSL), and various wired communication systems such as a local area network (LAN) may be used.
  • PSTN Public Switched Telephone Network
  • xDSL Digital Subscriber Line
  • RADSL Rate Adaptive DSL
  • MDSL Multi Rate DSL
  • VDSL Very High Speed
  • UADSL Universal Asymmetric DSL
  • HDSL High Bit Rate DSL
  • LAN local area network
  • the network unit 250 may include Code Division Multi Access (CDMA), Time Division Multi Access (TDMA), Frequency Division Multi Access (FDMA), Orthogonal Frequency Division Multi Access (OFDMA), and Single Carrier-FDMA (SC-FDMA).
  • CDMA Code Division Multi Access
  • TDMA Time Division Multi Access
  • FDMA Frequency Division Multi Access
  • OFDMA Orthogonal Frequency Division Multi Access
  • SC-FDMA Single Carrier-FDMA
  • the network unit 250 may be configured regardless of its communication type, such as wired and wireless, and is composed of various communication networks such as a personal area network (PAN) and a wide area network (WAN). It can be.
  • the network may be the known World Wide Web (WWW), or may use a wireless transmission technology used for short-range communication, such as Infrared Data Association (IrDA) or Bluetooth.
  • IrDA Infrared Data Association
  • the configuration of the healthcare device 200 shown in FIG. 2 is only a simplified example.
  • the healthcare device 200 may include other components for performing a computing environment of the healthcare device 200, and only some of the disclosed components may constitute the healthcare device 200.
  • the healthcare device 200' of FIG. 3 will be described similarly to the healthcare device 200 of FIGS. 1 and 2, and duplicate descriptions will be omitted below.
  • the healthcare device 200' may further include a measuring device 100.
  • the measuring device 100 may face and/or be positioned inside the toilet so as to be able to image the inside of the toilet. At this time, the measuring device 100 may be coupled to the other end of the mounting portion 290 so as to be integrated into the healthcare device 200'.
  • the holding portion 290 is made of a soft material and has a certain degree of elasticity, so that it can be more effectively and stably coupled to the toilet.
  • one end of the housing 270 and/or the holder 290 is in contact with the outer surface of the toilet, and the other end of the holder 290 and/or the measuring device 100 are in contact with the inner surface of the toilet.
  • the mounting portion 290 connecting both sides is extended by elasticity, it can be fitted into the toilet.
  • the mounting portion 290 may include polyketone (POK), polybutylene terephthalate (PBT), polypropylene (PP), polyethylene (PE), polyoxypropylene (POP), elastomer, and polyolefin elastomer (POE). ), copolymers, ethylene octene/butene polymers, and the like. However, it is not limited thereto.
  • the measuring device 100 mounted on the toilet seat may photograph the object to be analyzed and generate an image of the object to be analyzed.
  • the healthcare device 200 ′ may receive an analysis target image, analyze at least one of the shape and color of the analysis target image therefrom, and determine the type of the analysis target based on the analysis result of the analysis target image. Thereafter, the healthcare device 200 ′ may generate at least one of a visual notification and an audible notification based on the analysis result and/or the type of the analysis object.
  • the healthcare device 200 ′ may provide the generated visual notification and/or audible notification to the first user.
  • the visual notification may be provided in the downward direction of the toilet through a light provided in the housing 270 of the healthcare device 200'.
  • an audible notification may be provided through a speaker provided in the housing 270 of the healthcare device 200'.
  • the first user may indirectly grasp the state of the analysis object through visual notification or auditory notification without directly observing the analysis object.
  • FIG. 5 is a schematic diagram showing an artificial neural network according to an embodiment of the present invention.
  • one or more nodes connected through a link may form a relative relationship of an input node and an output node.
  • the concept of an input node and an output node is relative, and any node in an output node relationship with one node may have an input node relationship with another node, and vice versa.
  • an input node to output node relationship may be created around a link. More than one output node can be connected to one input node through a link, and vice versa.
  • one or more nodes are interconnected through one or more links to form an input node and output node relationship in the neural network.
  • Characteristics of the neural network may be determined according to the number of nodes and links in the neural network, an association between the nodes and links, and a weight value assigned to each link. For example, when there are two neural networks having the same number of nodes and links and different weight values of the links, the two neural networks may be recognized as different from each other.
  • a neural network may be composed of a set of one or more nodes.
  • a subset of nodes constituting a neural network may constitute a layer.
  • Some of the nodes constituting the neural network may form one layer based on distances from the first input node.
  • a set of nodes having a distance of n from the first input node may constitute n layers.
  • the distance from the first input node may be defined by the minimum number of links that must be passed through to reach the corresponding node from the first input node.
  • the definition of such a layer is arbitrary for explanation, and the order of a layer in a neural network may be defined in a method different from the above.
  • a layer of nodes may be defined by a distance from a final output node.
  • the neural network according to the embodiment may have the same number of nodes in the input layer as the number of nodes in the output layer, and may be a neural network in which the number of nodes decreases and then increases as the number of nodes progresses from the input layer to the hidden layer.
  • the neural network according to another embodiment of the present embodiment may be a neural network in which the number of nodes of the input layer may be less than the number of nodes of the output layer, and the number of nodes decreases as the number of nodes increases from the input layer to the hidden layer. .
  • the neural network according to another embodiment of the present embodiment may be a neural network in which the number of nodes of the input layer may be greater than the number of nodes of the output layer, and the number of nodes increases as the number of nodes increases from the input layer to the hidden layer.
  • a neural network according to another embodiment of the present embodiment may be a neural network in the form of a combination of the aforementioned neural networks.
  • a deep neural network may refer to a neural network including a plurality of hidden layers in addition to an input layer and an output layer.
  • Deep neural networks can reveal latent structures in data. In other words, it can identify the latent structure of a photo, text, video, sound, or music (e.g., what objects are in the photo, what the content and emotion of the text are, what the content and emotion of the audio are, etc.).
  • Deep neural networks include convolutional neural networks (CNNs), recurrent neural networks (RNNs), auto encoders, generative adversarial networks (GANs), and restricted boltzmann machines (RBMs).
  • Deep neural network a deep belief network (DBN), a Q network, a U network, a Siamese network, a Generative Adversarial Network (GAN), and the like.
  • DBN deep belief network
  • Q Q network
  • U U network
  • Siamese network Siamese network
  • GAN Generative Adversarial Network
  • the network function may include an autoencoder.
  • An autoencoder may be a type of artificial neural network for outputting output data similar to input data.
  • An auto-encoder may include at least one hidden layer, and an odd number of hidden layers may be disposed between input and output layers. The number of nodes of each layer may be reduced from the number of nodes of the input layer to an intermediate layer called the bottleneck layer (encoding), and then expanded symmetrically with the reduction from the bottleneck layer to the output layer (symmetrical to the input layer).
  • Autoencoders can perform non-linear dimensionality reduction. The number of input layers and output layers may correspond to dimensions after preprocessing of input data.
  • the number of hidden layer nodes included in the encoder may decrease as the distance from the input layer increases. If the number of nodes in the bottleneck layer (the layer with the fewest nodes located between the encoder and decoder) is too small, a sufficient amount of information may not be conveyed, so more than a certain number (e.g., more than half of the input layer, etc.) ) may be maintained.
  • the neural network may be trained using at least one of supervised learning, unsupervised learning, semi-supervised learning, and reinforcement learning. Learning of the neural network may be a process of applying knowledge for the neural network to perform a specific operation to the neural network.
  • learning data in the case of teacher learning about data classification may be data in which each learning data is labeled with a category.
  • Labeled training data is input to a neural network, and an error may be calculated by comparing an output (category) of the neural network and a label of the training data.
  • an error may be calculated by comparing input learning data with a neural network output. The calculated error is back-propagated in a reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back-propagation. The amount of change in the connection weight of each updated node may be determined according to a learning rate.
  • a lump separated like the first type of peanut may correspond to a chunk.
  • the first user may be severely constipated.
  • lumps may correspond to chunks. That is, in the case of the second type, although it is one chunk as a whole, a plurality of chunks may be included in one chunk.
  • the first user may be mildly constipated.
  • chunks can be distinguished by surface cracks. That is, although the degree of classification is lower than that of the second type, chunks may be included even in the third type.
  • the first user may be in a normal state.
  • the fourth type it may be determined as one chunk and it may be difficult to extract the chunk.
  • the first user may be in a normal state. Even in the case of the fifth type, each soft lump may correspond to a chunk. In the case of the fifth type, the first user may have a possibility of fiber deficiency.
  • the sixth type may be a case composed of a plurality of smaller chunks.
  • a sixth type may be a colitis condition.
  • the seventh type is difficult to extract chunks as a complete liquid, and can be judged as a whole shape.
  • the first user may have severe colitis, a bad health condition such as occurrence of cancer tissue in the large intestine/rectum, and an imbalance of effects.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium.
  • Computer readable media may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Physiology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

본 발명의 실시예에 따라 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법이 제공된다. 상기 방법은, 제 1 사용자의 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계; 상기 분석 대상 이미지에서 상기 분석 대상물의 형태 및 색상 중 적어도 하나를 분석하는 단계; 및 상기 분석 대상 이미지에 대한 분석 결과에 기초하여 생성되는 시각적 알림 및 청각적 알림 중 적어도 하나를 상기 제 1 사용자에게 제공하는 단계를 포함할 수 있다.

Description

헬스케어 시스템
본 발명은 헬스케어 시스템에 관한 것이다.
일반적으로 우리가 섭취하는 음식물 등은 식도, 위, 소장, 대장 등을 통과하는 소화 과정을 거쳐 남은 물질이 항문을 통하여 대변으로 배출된다. 이때, 대변의 형태, 색, 크기 및 양 등을 살펴봄으로써 개개인의 건강 상태를 알 수 있다. 예를 들어, 대변의 색이 적갈색 또는 빨간색일 경우, 위장 출혈 또는 치질, 장 질환 등을 의심해 볼 수 있으며, 대변이 녹색을 띄고 설사일 경우, 위 세균 감염 등을 의심해 볼 수 있다. 또한, 단단하고 작은 알갱이 형태의 대변은 소화 계통에서 노폐물을 씻어내는 섬유가 부족한 것을 의심해 볼 수 있다.
다만, 종래에는, 대변을 이용하여 개개인의 건강 상태를 진단하기 위해서, 각자가 자신(또는 환자)의 대변 샘플을 채취하고, 이를 의료기관에 제출하여 검사를 받아야 하기 때문에, 자신의 대변을 직접적으로 확인하고 싶지 않음에도 대변 샘플을 채취하는 과정에서 대변의 형태, 색상 등을 확인할 수밖에 없다는 문제점이 있다. 뿐만 아니라, 대변 샘플을 의료기관까지 운반하는 과정이나 검사 과정 중에 대변 샘플이 오염될 가능성이 있으며, 의료기관에서 이를 보관하는 중에 대변 샘플이 뒤바뀌는 경우가 생기는 등의 문제가 있다. 또한, 의료기관에 대변 샘플을 제출한 후에 검사 결과가 나오는 데에 일정 시간이 걸리기 때문에, 개개인의 건강 상태를 즉각적으로 진단받기 어렵다는 문제가 있다.
본 발명은 상기 문제점을 해결하기 위한 것으로서, 자신의 대변을 직접적으로 확인하지 않고도 간접적으로 대변의 상태를 파악할 수 있는 헬스케어 시스템을 제공하는 것을 그 목적으로 한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 실시예에 따라 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법이 제공된다. 상기 방법은, 제 1 사용자의 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계; 상기 분석 대상 이미지에서 상기 분석 대상물의 형태 및 색상 중 적어도 하나를 분석하는 단계; 및 상기 분석 대상 이미지에 대한 분석 결과에 기초하여 생성되는 시각적 알림 및 청각적 알림 중 적어도 하나를 상기 제 1 사용자에게 제공하는 단계를 포함할 수 있다.
또한, 상기 분석 대상 이미지는 변기에 장착된 카메라로부터 획득될 수 있다.
또한, 상기 시각적 알림 및 상기 청각적 알림 중 적어도 하나는, 상기 제 1 사용자가 간접적으로 상기 분석 대상물의 상태를 파악할 수 있도록, 상기 분석 대상 이미지에 대한 분석 결과에 기초하여 생성될 수 있다.
또한, 상기 시각적 알림은, 변기에 장착된 조명에 의해 상기 변기의 하측 방향으로 제공되고, 상기 제공하는 단계는, 상기 제 1 사용자가 변기에 위치하는 동안 제공될 수 있다.
또한, 상기 분석 대상 이미지에 대한 분석 결과 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하는 단계를 더 포함할 수 있다.
또한, 상기 시각적 알림 및 상기 청각적 알림 중 적어도 하나는, 상기 유형에 기초하여 생성될 수 있다.
또한, 상기 청각적 알림은, 상기 분석 대상 이미지에 대한 분석 결과에 관련한 의미 또는 감성을 전달할 수 있는 말소리 및 음악 중 적어도 하나를 포함할 수 있다.
또한, 상기 시각적 알림은, 상기 분석 대상 이미지에 대한 분석 결과로부터 추론된 상기 제 1 사용자의 건강 상태 또는 상기 분석 대상물에 관한 정보를 전달하도록 상기 분석 대상 이미지에 대한 분석 결과에 기초하여 상기 시각적 알림의 색상, 형상 및 깜빡임 중 적어도 하나가 결정될 수 있다.
또한, 상기 시각적 알림은, 상기 분석 대상물의 색상에 기초하여 색상이 결정되거나, 상기 분석 대상물의 형태에 기초하여 형상 또는 깜빡임이 결정될 수 있다.
또한, 상기 제 1 사용자로부터 사용자 정보 이용 동의를 획득하는 단계; 및 상기 분석 대상 이미지에 기초한 진단 기초 데이터 및 상기 분석 대상 이미지에 대한 분석 결과 중 적어도 하나를 제 2 사용자의 디바이스에 전송하는 단계를 더 포함할 수 있다.
또한, 상기 진단 기초 데이터는, 상기 분석 대상 이미지에 포함된 상기 분석 대상물을 상기 제 2 사용자가 식별하기 용이하도록 처리된 데이터와 제 1 사용자의 정보를 포함할 수 있다.
또한, 상기 분석 대상 이미지를 제외하고, 상기 유형에 관한 정보를 상기 제 1 사용자의 디바이스로 전송하는 단계를 더 포함할 수 있다.
또한, 상기 분석 대상 이미지에 상기 제 1 사용자의 정보를 매칭하는 단계; 및 제 1 사용자에 의해 사전결정된 조건에 기초하여 상기 분석 대상 이미지를 삭제하는 단계를 더 포함할 수 있다.
본 발명의 실시예에 따라, 헬스케어 장치가 제공된다. 상기 장치는, 컴퓨터 실행가능한 명령들을 저장하기 위한 메모리; 및 상기 메모리에 저장된 명령들을 실행하기 위한 프로세서를 포함하고, 상기 프로세서는, 제 1 사용자의 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하고, 상기 분석 대상 이미지에서 상기 분석 대상물의 형태 및 색상 중 적어도 하나를 분석하고, 상기 분석 대상 이미지에 대한 분석 결과에 기초하여 생성되는 시각적 알림 또는 청각적 알림 중 적어도 하나를 상기 제 1 사용자에게 제공할 수 있다.
본 발명의 다른 실시예에 따라, 헬스케어 장치가 제공된다. 상기 장치는, 컴퓨터 실행가능한 명령들을 저장하기 위한 메모리; 상기 메모리에 저장된 명령들을 실행하여, 제 1 사용자의 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하고, 상기 분석 대상 이미지에서 상기 분석 대상물의 형태 및 색상 중 적어도 하나를 분석하고, 상기 분석 대상 이미지에 대한 분석 결과에 기초하여 생성되는 시각적 알림 및 청각적 알림 중 적어도 하나를 상기 제 1 사용자에게 제공하는 프로세서; 상기 메모리 및 상기 프로세서를 내측에 수용하는 하우징; 및 상기 하우징을 변기에 거치시킬 수 있도록 하는 거치부를 포함할 수 있다.
또한, 상기 장치는, 제 1 사용자의 분석 대상물인 대변이 포함된 분석 대상 이미지를 촬영하는 측정 장치를 더 포함할 수 있다.
본 발명의 실시예에 따라 컴퓨터 프로그램이 제공된다. 상기 프로그램은 본 발명의 실시예에 따른 방법을 수행하기 위해 매체에 저장될 수 있다.
본 발명에 따르면, 대변을 포함하는 분석 대상물의 형태, 색상에 기초하여 생성되는 시각적 알림 또는 청각적 알림을 제 1 사용자에게 제공함으로써, 제 1 사용자가 자신의 대변을 직접적으로 확인하지 않고도 간접적으로 대변의 상태를 파악할 수 있다.
또한, 본 발명에 따르면, 제 2 사용자에게 분석 대상 이미지에 대한 분석 결과 등을 전송함으로써, 제 2 사용자를 통하여 제 1 사용자의 건강 상태를 용이하게 파악할 수 있다.
또한, 본 발명에 따르면, 분석 대상 이미지, 이에 대한 분석 결과 등의 제 1 사용자 데이터는 일정한 조건을 만족하는 경우에 삭제됨으로써, 제 1 사용자의 개인 정보를 보호하고 보안을 유지할 수 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 실시예에 따른 헬스케어 시스템의 블록도이다.
도 2는 본 발명의 실시예에 따른 헬스케어 시스템을 구성하는 헬스케어 장치의 블록도이다.
도 3은 본 발명의 실시예에 따른 헬스케어 장치의 구현예를 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 헬스케어 장치의 동작 상태를 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 인공 신경 네트워크를 나타낸 개략도이다.
도 6은 본 발명의 실시예에 따른 브리스톨 대변 차트를 설명하는 도면이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 실시예를 구성하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 이하에서 기재되는 편의상 상하좌우의 방향은 도면을 기준으로 한 것이며, 해당 방향으로 본 발명의 권리범위가 반드시 한정되는 것은 아니다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전체에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 간접적으로 연결되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
본 명세서에서 네트워크 함수와 인공 신경망 및 뉴럴 네트워크(neural network)는 상호 교환가능하게 사용될 수 있다.
도 1은 본 발명의 실시예에 따른 헬스케어 시스템의 블록도이다.
도 1을 참조하면, 헬스케어 시스템(1000)은 측정 장치(100), 헬스케어 장치(200) 및 제 1 사용자 단말(300)을 포함할 수 있다.
측정 장치(100)는 분석 대상물을 촬영하여 분석 대상 이미지를 생성할 수 있다. 헬스케어 장치(200)는 분석 대상 이미지를 수신하고, 이를 이용하여 시각적 알림 및 청각적 알림 중 적어도 하나를 생성한 후 제 1 사용자에게 제공할 수 있다. 제 1 사용자에게 제공하기 위해, 헬스케어 장치(200)는 시각적 알림 또는 청각적 알림을 제 1 사용자의 단말(300)에 제공하거나, 제 1 사용자가 확인할 수 있는 그 이외의 기기, 장치 등에 제공할 수 있다.
실시예에서, 제 1 사용자의 건강 상태에 대한 정보를 획득하기 위한 분석 대상물은 제 1 사용자의 신체로부터 유래된 분비물들을 포함할 수 있으며, 분비물들은 예를 들어 대변일 수 있다. 다만 이에 한정되는 것은 아니다.
실시예에서, 측정 장치(100)는 분석 대상물을 촬영하기에 적합한 위치에 구비될 수 있다. 예를 들어, 분석 대상물이 변기인 경우, 측정 장치(100)는 변기의 일부 또는 비데의 일부일 수 있으며, 분석 대상 이미지는 측정 장치(100) 내의 카메라로부터 촬영될 수 있다.
실시예에서, 헬스케어 장치(200)는 측정 장치(100)로부터 각종 데이터를 수집하기 위한 클라우드 서버를 포함할 수 있으나 이에 제한되지 않으며, 제 1 사용자 단의 컴퓨터 디바이스일 수도 있다. 또한, 헬스케어 장치(200)는 측정 장치(100)로부터 데이터를 수집할 수도 있으며, 제 1 사용자 단말(300)을 통해 측정 장치(100)로부터 데이터를 수집할 수도 있다.
도 1에서 도시되는 헬스케어 시스템(1000)은 예시적인 것으로서, 본 발명이 적용되는 실시예에 따라 다양한 구성이 적용될 수 있다.
도 2는 본 발명의 실시예에 따른 헬스케어 시스템을 구성하는 헬스케어 장치의 블록도이다.
헬스케어 장치(200)는 분석 대상 이미지를 획득하고, 이로부터 분석 대상물의 형태 및 색상 중 적어도 하나를 분석한 후, 이에 기초하여 생성되는 시각적 알림 및 청각적 알림 중 적어도 하나를 제 1 사용자에게 제공할 수 있다. 여기서 분석 대상물은 대변이고, 분석 대상 이미지는 변기에 장착된 카메라로부터 촬영된 것일 수 있다. 다만, 이에 한정되는 것은 아니다.
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지에서 분석 대상물의 형태, 색상을 분석하기 전에 분석 대상 이미지에 대해 소정의 영상 처리를 수행할 수 있다. 영상 처리는, 형태 분석에 적합하도록 분석 대상 이미지에 변경을 가하는 것으로서, 예를 들어, 색상 변환, 노이즈 제거, 화질 조정 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지에서 분석 대상물의 형태를 분석할 수 있다. 이때, 분석 대상물이 대변이고, 분석 대상 이미지가 수세식 변기에서 획득된 대변의 이미지일 수 있다. 구체적으로, 헬스케어 장치(200)는 분석 대상 이미지로부터 분석 대상물의 외형 정보를 획득함으로써 형태를 분석할 수 있다. 외형 정보는 예를 들어, 대변의 크기, 청크(chunk)의 수, 청크의 형상, 청크의 크기, 청크의 응집도 등을 포함할 수 있다. 다만 이에 한정되는 것은 아니고, 대변을 식별, 분류하기 위한 다양한 정보가 포함할 수 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상물의 형태 분석에 엣지 디텍션(edge detection)을 수반할 수 있다. 예를 들어, 분석 대상물인 대변은 수면 아래에 위치하므로, 분석 대상 이미지에는, 수면에 의한 빛 반사, 수면의 색 등이 분석 대상 이미지에 영향을 주게 된다. 특히 대변은 변기 내에서 위치 고정되는 것이 아니라, 이동하거나, 정렬이 달라질 수 있다. 또한, 예를 들어, 대변이 다수의 청크로 이루어지는 경우, 청크들은 한 군데로 군집되게 되어, 각 청크, 나아가 대변의 전체적인 형태 파악이 어려운 문제가 있다. 따라서 헬스케어 장치(200)는 하나 이상의 단계의 엣지 디텍션을 수행하여 분석 대상 이미지 내에 포함된 객체들의 경계를 보다 선명하고 명확하고 및/또는 분석에 불필요한 객체를 제거/최소화함으로써, 분석 신뢰도를 높일 수 있다. 예를 들어, 엣지 디텍션은, 케니 엣지(canny edge) 디텍션 알고리즘, LBP(Local Binary Pattern) 등에 기초하여 수행될 수 있다. 특히 LBP에 의하는 경우, 청크들 간의 경계와 질감을 보다 명확하게 파악할 수 있어 적합하다.
실시예에서, 헬스케어 장치(200)는 엣지 디텍션을 통해 분석 대상 이미지에서 분석 대상물을 추출할 수 있다. 즉, 분석 대상 이미지 중에서 분석 대상물이 포함되는 소정의 영역인 관심 영역(region of interest)을 추출할 수 있다. 이와 같은 엣지 디텍션에는 연산 용량이 상대적으로 적거나 대변과 대변 이외의 영역을 구분하기에 용이한 엣지 디텍션 알고리즘이 사용될 수 있다. 예를 들어, 케니 엣지 디텍션 알고리즘이 적용될 수 있다. 관심 영역이 추출되면, 이에 대해 보다 심층 분석이 이루어질 수 있다.
실시예에서, 헬스케어 장치(200)는 1차 엣지 디텍션 및 2차 엣지 디텍션을 수행할 수 있다. 1차 엣지 디텍션은 분석 대상 이미지에서 분석 대상물이 위치하는 관심 영역을 추출하기 위한 것이고, 2차 엣지 디텍션은 관심 영역에 대해 적용되어 분석 대상물의 형태를 결정하기 위한 것이다. 이러한 관심 영역의 추출을 통해 분석 대상 이미지에서 유효하게 분석하여야 할 부분을 추출함으로써, 분석 대상물의 분석을 위한 연산량을 감소시킬 수 있다. 또한, 2차 엣지 디텍션은 분석 대상물의 형태 파악에 보다 효과적인 알고리즘이 적용될 수 있다. 예를 들어 2차 엣지 디텍션은 분석 대상물의 질감(texture)을 판독하는데 이용될 수 있다. 예를 들어, 1차 엣지 디텍션은 케니 엣지 디텍션 알고리즘에 기초한 것이고, 2차 엣지 디텍션은 LBP에 기초한 것일 수 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상물을 청크 단위로 인식할 수 있도록 분석 대상물에 대한 청크의 경계를 분석할 수 있다. 청크는 분석 대상물(즉, 대변)의 일부로서, 적어도 하나의 청크가 군집하여 분석 대상물을 형성할 수 있다. 이때 각각의 청크는 사람의 건강 상태, 장내 유산균 상태, 수분 상태 등에 기초하여 일정한 형태를 가질 수 있다. 청크 인식을 위한 경계 분석은 예를 들어, LBP 등의 엣지 디텍션을 통해 이루어질 수 있다. 이때 엣지 디텍션은 2차 엣지 디텍션일 수 있으나, 이에 한정되는 것은 아니다.
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지에 대한 분석 결과에 기초하여 분석 대상물을 유형을 결정할 수 있다. 이와 같은 분류에는 소정의 대변 분류 차트에 기초할 수 있다. 대변 분류 차트는 대변의 형태와 이에 대한 식별 정보, 특징 등을 포함하는 것으로서, 예를 들어, 대변 분류 차트는 브리스톨 대변 차트일 수 있다. 브리스톨 대변 차트에 의할 경우, 헬스케어 장치(200)는 분석 대상물의 형태에 기초하여 분석 대상물이 브리스톨 대변 차트의 제 1 유형 내지 제 7 유형 중 어디에 속하는지 분류할 수 있다. 하기에서는 설명의 편의를 위해 브리스톨 대변 차트를 기준으로 본 발명의 실시예를 설명하나, 이에 한정되는 것은 아니다.
실시예에서, 헬스케어 장치(200)는, 분석 대상물의 유형을 최종 분류하기 전에 분석 대상물의 형태에 기초하여 분석 대상물을 분류 후보군에 할당할 수 있다. 예를 들어, 제 1 분류 후보군은 비교적 쉽게 분류할 수 있는 유형에 대한 분류를 포함하고, 제 2 분류 후보군은 쉽게 분류하기 어려운 유형에 대한 분류를 포함할 수 있다. 할당된 분류 후보군에 따라 상이한 방식으로 분석 대상물의 유형이 결정될 수 있다.
예를 들어, 브리스톨 대변 차트의 제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형에 속할 경우, 제 1 분류 후보군으로 분류할 수 있다. 또한, 제 1 분류 후보군에 속하지 않을 경우, 또는 제 2 유형 내지 제 4 유형에 속할 경우, 제 2 분류 후보군으로 분류할 수 있다.
제 1 분류 후보군(제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형)에 속할 경우, 청크들이 비교적 명확하게 구분 인식되어, 헬스케어 장치(200)는 용이하게 분류할 수 있다. 이와 달리, 제 2 분류 후보군(제 2 유형 내지 제 4 유형)에 속할 경우에는, 제 2 유형, 제 3 유형, 제 4 유형은 큰 덩어리의 텍스처에 따른 분류이므로 제 1 분류 후보군과 상이한 특징을 가지고, 덩어리 내의 질감에 대한 분석이 추가적으로 필요할 수 있다.
실시예에서, 헬스케어 장치(200)는 엣지 디텍션을 통해 분석 대상물의 형태를 파악하고, 분석 대상물이 전체적인 하나의 덩어리인지, 복수의 여러 덩어리로 구성되는지, 덩어리를 판독할 수 없는 경우인지 판단할 수 있다. 이에 기초하여 분석 대상물인 대변이 제 1 분류 후보군인지 제 2 분류 후보군에 속하는지 여부를 결정할 수 있다. 즉, 헬스케어 장치(200)는 큰 하나의 덩어리를 관심 영역으로 설정한 경우 분석 대상물이 제 2 분류 후보군에 속하는 것으로 추정할 수 있다. 또한 헬스케어 장치(200)는 제 1 분류 후보군의 일부 패턴을 탐색한 경우(예를 들어, 관심 영역이 이미지 대부분의 영역인 경우 등), 분석 대상물이 제 1 분류 후보군에 속하는 것으로 추정할 수 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상물이 제 1 분류 후보군에 속하는 경우, 분석 대상물의 적어도 일부가 제 1 유형, 제 5 유형, 제 6 유형 및 제 7 유형에 속하는지 여부를 판단하고, 각각의 유형에 속하는 경우 해당 유형으로 분석 대상물을 분류할 수 있다.
실시예에서, 헬스케어 장치(200)는 2차 엣지 디텍션을 통해 제 2 분류 후보군에 속하는 분석 대상물의 텍스처를 분석함으로써, 분석 대상물이 제 2 분류 후보군 중 어느 유형에 속하는지 여부를 분류할 수 있다. 즉, 헬스케어 장치(200)는 분석 대상물의 유형이 제 2 분류 후보군에 속하는 경우, 제 2 유형, 제 3 유형 또는 제 4 유형 중 하나로 분류하기 위하여 적어도 1회의 엣지 디텍션을 수행할 수 있으며, 각 유형에 해당할 확률에 대한 형태로 분석 결과를 출력할 수도 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상물을 분석하여 제 1 사용자의 건강 상태를 추론할 수 있다. 실시예에 따라, 이와 같은 추론에는 앞서 설명한 분석 대상물의 분류가 수반될 수 있다. 구체적으로, 헬스케어 장치(200)는 분석 대상물의 형태를 분석하고, 이에 기초하여 분석 대상물의 유형 분류한 후, 해당 유형의 특징, 제 1 사용자의 신체 상태 등에 기초하여 제 1 사용자의 건상 상태를 추론할 수 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상물의 형태 분석, 분석 대상물의 유형 분류 및/또는 건강 상태의 추론에 있어 분석 모델을 이용할 수 있다. 이때 분석 모델은 뉴럴 네트워크에 기초하여 딥러닝으로 학습되는 분석 모델에 기초할 수 있다. 다만 이에 한정되는 것은 아니다.
실시예에서, 분석 모델은 분석 대상 이미지를 입력으로 하여 대변 분류 차트(예를 들어, 브리스톨 대변 차트)의 유형을 출력으로 하도록 학습된 모델일 수 있다. 분석 모델은 예를 들어, 이미지 처리 가능한 인공 신경망 모델로 구성될 수 있다. 분석 모델은 분류 후보군에 따라 분석 방법을 상이하게 적용하도록 학습된 모델일 수 있다. 분석 모델은 분류 후보군에 기초하여 상이한 서브모델로 입력 데이터를 처리하도록 학습된 모델일 수 있다. 또한, 분석 모델은 분류 후보군에 관한 정보를 분석 데이터와 함께 입력하여 대변 분류 차트의 유형을 출력하도록 학습된 모델일 수 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지를 분석 모델로 처리함에 있어서 분류 후보군에 기초하여 상이하게 처리할 수 있다. 예를 들어, 헬스케어 장치(200)는 분석 대상 이미지와 분류 후보군을 함께 분석 모델에 입력할 수도 있으며, 헬스케어 장치(200)는 분류 후보군에 기초하여 분석 대상 이미지를 처리할 분석 모델의 서브 모델을 선택할 수도 있다.
보다 구체적으로, 분석 모델은 분류 후보군이, 예를 들어 브리스톨 대변 차트의 제 2 분류 후보군에 해당하는 경우, 분석 대상물의 영역 전체에 대한 분석을 수행하도록 학습될 수 있다. 즉, 분석 모델은 분류 후보군이 제 2 분류 후보군에 해당하는 경우 분석 대상물의 영역을 전체적으로 판독하여 최종 결론을 내도록 학습될 수 있다.
또한 분석 모델은 분류 후보군이, 예를 들어, 제 1 분류 후보군에 해당하는 경우, 분석 대상물의 영역 중 일부에 포함된 대변의 형상이 브리스톨 대변 차트의 유형 중 어느 유형으로 분류되는지 여부를 확인하도록 학습될 수 있다. 즉, 분석 모델은 분류 후보군이 제 1 분류 후보군에 해당되는 경우 분석 대상물의 영역 중 적어도 일부만이 브리스톨 대변 차트의 제 1 유형, 제 5 유형 내지 제 7 유형 중 하나의 클래스로 분류되는 경우 해당 결론을 최종 결론으로 하도록 학습될 수 있다.
실시예에서, 헬스케어 장치(200)는 엣지 디텍션 결과에 기초하여 분석 대상 이미지에 포함된 대변의 유형을 판단할 수도 있으며, 엣지 디텍션 결과 및 엣지 디텍션 결과에 기초한 분석 모델의 분류 결과에 기초하여 대변의 유형을 판단할 수도 있다. 헬스케어 장치(200)는 엣지 디텍션 결과에 기초하여 대변의 유형을 1차적으로 가분류하고, 그에 따라 분류 모델을 이용하여 대변의 유형을 2차적으로 재분류 함으로써 1차 분류의 분류 결과를 재검증하여 정확도를 높일 수도 있다.
실시예에서, 헬스케어 장치(200)는 대변 분류 차트 상의 유형에 관련한 정보와 대변의 색상에 관련한 정보 등에 기초하여 제 1 사용자의 건강 상태에 관련한 추론 정보를 생성할 수 있다. 헬스케어 장치(200)는 제 1 사용자의 대변에 관한 분석 정보에 기초하여 제 1 사용자의 영양 상태, 장 건강 상태 등에 관련한 정보를 생성할 수 있다.
실시예에서, 헬스케어 장치(200)는 헬스케어 장치(200)는 분석 대상 이미지에서 분석 대상물의 색상을 분석할 수 있다. 대변의 색상을 판별하기 위해서는 HSV(Hue Saturation Value) 모델을 이용할 수 있으나 본 실시예는 이에 제한되지 않는다. 헬스케어 장치(200)는 대변의 유형과 대변의 색상에 관련한 정보에 기초하여 제 1 사용자의 장건강 상태를 판단할 수 있다. 대변의 색상에 따라, 적색 계열의 혈변인 경우 제 1 사용자는 장염, 치질, 치열, 항문 열상, 선천성 이상 또는 장폐색 등의 상태일 수 있다. 대변의 색상이 회색 계열인 경우 제 1 사용자는 간, 담도 폐쇄 질환 등의 상태일 수 있다. 대변의 색상이 진한 황색 계열인 경우 제 1 사용자는 담즙 색소가 배출되는 상태일 수 있다. 대변의 색상이 황갈색 계열인 경우 제 1 사용자는 정상 상태일 수 있다. 대변의 색상이 녹색 계열인 경우 제 1 사용자는 소화불량, 녹색 채소의 과다 섭취 또는 체내 미흡수 철분 배설 등의 상태일 수 있다. 대변의 색상이 흑색 계열인 경우 식도/위/십이지장 출혈, 염증성 장질환 등의 상태일 수 있다.
실시예에서, 분석 대상물은 대변에 부가적으로/대안적으로 소변을 포함할 수 있다. 헬스케어 장치(200)는 소변의 형태 및/또는 색상을 분석할 수 있다. 예를 들어, 헬스케어 장치(200)는 적어도 1회의 엣지 디텍션을 통해 소변에 거품이 발생하였는지 여부, 거품의 분포도, 거품의 양 등을 파악할 수 있다. 또한, 예를 들어, 헬스케어 장치(200)는 소변의 색상을 판별하기 위하여 HSV(Hue Saturation Value) 모델을 이용할 수 있다. 이때, 소변이 포함된 분석 대상 이미지에 노이즈가 형성되거나, 기존의 변기 내의 내용물이 투명하지 않고 색상을 갖고 있었던 경우, 헬스케어 장치(200)는 색상을 판별하기 이전에 컬러 영상 처리(Color Image Processing)를 이용하여 색상 변환, 노이즈 제거 등을 수행할 수 있다.
실시예에서, 헬스케어 장치(200)는 소변의 분석 결과(예를 들어, 소변의 거품, 색상 등)에 기초하여 제 1 사용자의 건강 상태를 판단할 있다. 예를 들어, 소변에 거품이 다량 생기는 경우, 당뇨, 단백뇨 등의 상태일 수 있다. 또한, 소변의 색상에 따라, 짙은 노란색 계열인 경우 제 1 사용자는 간 기능에 문제가 생긴 상태일 수 있다. 소변의 색상이 짙은 갈색 계열인 경우 사구체신염, 횡문근융해증 등의 상태일 수 있다. 소변의 색상이 적색 계열의 혈뇨인 경우 신장, 신우, 요관, 방광, 요도, 전립선 등의 요로계통에 문제가 생긴 상태일 수 있다. 소변의 색상이 투명한 무색일 경우 신장 기능에 문제가 생긴 상태일 수 있다. 소변의 색상이 연한 노란색 계열인 경우 제 1 사용자는 정상 상태일 수 있다.
실시예에서, 헬스케어 장치(200)는 측정 장치(100)로부터 제 1 사용자 생체 정보를 수신하여 제 1 사용자 생체 정보에 기초한 제 1 사용자 건강 상태 정보를 추가적으로 생성할 수 있다. 예를 들어, 변기는 변좌에 접촉한 제 1 사용자의 피부로부터 제 1 사용자의 다양한 생체 정보를 수집할 수 있다. 예를 들어, 변기는 생체 전류 수집 모듈을 변좌에 포함할 수 있으며, 변기는 이를 통해 제 1 사용자의 생체 전류를 수집하여 제 1 사용자에게 건강 위험 등이 있는지 여부를 헬스케어 장치(200)가 판단하도록 할 수 있다. 또한, 예를 들어, 변기의 커버 상부에는 EEG(Electroencephalogram) 센서, PPG(Photoplethysmogram) 센서 등이 구비되어, 변기에 위치한 제 1 사용자의 피부로부터 심전도, 심박수 등을 측정할 수 있다. 헬스케어 장치(200)는 변기로부터 수집된 제 1 사용자의 생체 정보에 기초하여 제 1 사용자의 체성분, 심박 관련 정보 등을 포함하는 통합 건강 상태 정보를 생성할 수 있다.
실시예에서, 헬스케어 장치(200)는 시각적 알림 및 청각적 알림 중 적어도 하나를 제 1 사용자에게 제공할 수 있다. 이때, 시각적 알림 또는 청각적 알림은 제 1 사용자가 분석 대상물에 대한 직접적인 관찰 없이도 간접적으로 분석 대상물의 상태를 파악할 수 있도록, 분석 대상 이미지에 대한 분석 결과 및/또는 분석 대상물의 유형에 기초하여 생성될 수 있다.
실시예에서, 헬스케어 장치(200)는 제 1 사용자가 변기에 위치하는 동안 제 1 사용자에게 시각적 알림 또는 청각적 알림을 제공할 수 있다. 이를 위해, 변기의 커버 상부에는 제 1 사용자가 변기에 위치 시, 이를 감지하는 감지부가 구비될 수 있다. 예를 들어, 감지부는 압력 센서를 이용하여, 제 1 사용자가 변기에 위치할 때 가해지는 압력을 감지할 수 있다.
실시예에서, 감지부는 제 1 사용자의 배변이 시작되는 시점과 종료되는 시점 등의 정보를 측정할 수 있다. 예를 들어, 헬스케어 장치(200)는 변기의 감지부를 통하여 측정된 제 1 사용자의 배변이 시작되는 시점과 종료되는 시점 등의 정보를 수신하여 제 1 사용자의 평균 배변 시간, 주기 등의 배변 습관을 분석할 수 있다. 이를 통해 헬스케어 장치(200)는 배변 습관 정보에 기초하여 제 1 사용자의 건강 상태 정보를 추가적으로 생성할 수 있다.
실시예에서, 청각적 알림은 분석 대상 이미지에 대한 분석 결과 및/또는 분석 대상물의 유형에 기초하여, 긍정적인 청각적 알림 또는 부정적인 청각적 알림이 제공될 수 있다. 또한, 청각적 알림은 분석 대상 이미지에 대한 분석 결과와 관련한 의미 또는 감성을 전달할 수 있는 말소리 및 음악 중 적어도 하나를 포함할 수 있다. 예를 들어, 분석 대상 이미지에 대한 분석 결과가 긍정적이거나, 분석 대상물이 제 4 유형, 제 5 유형에 해당하는 경우, 청각적 알림은 제 1 사용자에게 “축하드립니다”와 같은 긍정적인 의미를 전달할 수 있는 말소리로 생성될 수 있다. 또한, 예를 들어, 분석 대상 이미지에 대한 분석 결과가 부정적이거나, 분석 대상물이 제 6 유형, 제 7 유형에 해당하는 경우, 청각적 알림은 제 1 사용자에게 경각심을 일으키는 경고음으로 생성될 수 있다.
실시예에서, 청각적 알림은 변기에 장착된 스피커를 통하여 제공될 수 있다. 이를 통해, 제 1 사용자는 분석 대상물에 대한 직접적인 관찰 없이 간접적으로 분석 대상물의 상태를 파악할 수 있다.
실시예에서, 시각적 알림은 분석 대상 이미지에 대한 분석 결과 및/또는 분석 대상물의 유형에 기초하여 색상, 형상 및 깜빡임 중 적어도 하나가 결정될 수 있다. 이를 통해, 제 1 사용자는 분석 대상물 이미지에 대한 분석 결과로부터 추론된 제 1 사용자의 건강 상태 또는 상기 분석 대상물에 관한 정보를 제공 받을 수 있다. 또한, 시각적 알림은 분석 대상물의 색상에 기초하여 색상이 결정되거나, 분석 대상물의 형태에 기초하여 형상 또는 깜빡임이 결정될 수 있다. 예를 들어, 시각적 알림은 분석 대상물의 색상을 나타낼 수 있는 색상으로 발광하여 제 1 사용자에게 분석 대상물의 색상을 제공할 수 있다. 예를 들어, 분석 대상물에 포함되는 대변의 색상이 황색 계열인 경우, 황색의 시각적 알림이 발광하고, 대변의 색상이 적색 계열인 경우, 적색의 시각적 알림이 발광할 수 있다. 또한, 예를 들어, 분석 대상물이 큰 청크 한 개와 작은 청크 여러 개로 구성되는 경우, 일부분에서 긴 일직선 형상의 시각적 알림이 발광하고, 다른 일부분에서는 여러 개의 점 형상의 시각적 알림이 발광하여, 제 1 사용자에게 대변의 상태가 큰 청크 한 개와 작은 청크 여러 개로 구성되었음을 제공할 수 있다. 또한, 예를 들어, 분석 대상물이 작은 청크 여러 개로만 구성되거나, 분석 대상물이 제 1 유형에 해당하는 경우, 시각적 알림은 빠르게 깜빡이며 이를 표현할 수 있다. 예를 들어, 분석 대상물이 큰 청크 한 개로만 구성되거나, 분석 대상물이 제 4 유형에 해당하는 경우, 시각적 알림은 길게 깜빡이며 이를 표현할 수 있다.
실시예에서, 시각적 알림은 변기에 장착된 조명에 의하여 변기의 하측 방향으로 제공될 수 있다. 이를 통해, 제 1 사용자는 분석 대상물에 대한 직접적인 관찰 없이 간접적으로 분석 대상물의 상태를 파악할 수 있다.
실시예에서, 헬스케어 장치(200)는 제 1 사용자의 건강 이상이 추측되는 경우에 제 1 사용자에게 알림을 전달할 수 있다. 또한, 헬스케어 장치(200)는 헬스케어 장치(200)에 저장된 제 1 사용자의 기초 생체 정보에 기초하여 제 1 사용자의 건강 이상을 판단할 수도 있다. 예를 들어, 헬스케어 장치(200)는 제 1 사용자의 기초 생체 정보(예를 들어, 건강 검진 데이터)와 대변에 대한 분류 결과에 기초하여 제 1 사용자의 병을 진단하고 이를 제 1 사용자에게 알릴 수 있다. 즉, 녹색 계열의 대변이 제 2 유형으로 분류된 경우, 헬스케어 장치(200)는 이러한 정보와 제 1 사용자의 건강 검진 데이터를 조합하여 제 1 사용자의 상태가 단순 녹색 채소 과다 섭취 상태가 아닌 체내 미흡수 철분 배설 상태임으로 판단할 수도 있다. 전술한 기재는 예시일 뿐이며 본 실시예는 이에 제한되지 않는다.
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지에 대한 분석 결과 및/또는 분석 대상물의 유형에 관한 정보를 제 1 사용자의 디바이스에 전송할 수 있다. 이때, 분석 대상 이미지에 대한 분석 결과, 분석 대상물의 유형에 관한 정보에는 분석 대상 이미지를 포함하지 않도록 함으로써, 제 1 사용자는 분석 대상물에 대한 직접적인 관찰 없이 간접적으로 분석 대상물의 상태를 파악할 수 있다. 예를 들어, 분석 대상 이미지에 대한 분석 결과, 분석 대상물의 유형에 관한 정보에 분석 대상 이미지가 포함되어 있는 경우, 헬스케어 장치(200)는 분석 대상 이미지를 제거한 후 제 1 사용자에게 전송할 수 있다.
실시예에서, 헬스케어 장치(200)는 분석 대상 이미지에 기초한 진단 기초 데이터 및 분석 대상 이미지에 대한 분석 결과 중 적어도 하나를 제 2 사용자의 디바이스에 전송할 수 있다. 이때, 제 2 사용자는 의료 관련 종사자, 제 1 사용자의 건강 상태에 대하여 전문적인 조언을 할 수 있는 자, 진단을 내릴 수 있는 자 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 전문가 진단 기초 데이터는 분석 대상 이미지에 포함된 분석 대상물을 제 2 사용자가 식별하기 용이하도록 처리된 데이터와 제 1 사용자의 정보를 포함할 수 있다. 또한, 진단 기초 데이터는 분석 대상 이미지와 제 1 사용자의 성별, 나이, 병력 등의 정보를 매칭하여 구성됨으로써 제 2 사용자가 분석 대상 이미지를 통해 제 1 사용자의 건강 상태를 용이하게 파악할 수 있다.
실시예에서, 헬스케어 장치(200)는 진단 기초 데이터 또는 분석 대상 이미지에 대한 분석 결과를 제 2 사용자의 디바이스에 전송하고자 하는 경우에, 제 1 사용자로부터 사용자 정보 이용 동의를 획득할 수 있다.
실시예에서, 헬스케어 장치(200)는 제 1 사용자의 디바이스, 제 2 사용자의 디바이스 등에 전송된 분석 대상 이미지에 대한 분석 결과, 분석 대상물의 유형에 관한 정보, 제 1 사용자의 정보 등은 사전 결정된 조건을 만족하는 경우에 삭제될 수 있다. 또한, 헬스케어 장치(200)에 저장된 분석 대상 이미지, 제 1 사용자 정보 등 역시 사전 결정된 조건을 만족하는 경우에 삭제될 수 있다. 이를 통해, 제 1 사용자의 개인 정보를 보호하고, 보안을 유지할 수 있다. 이때, 사전 결정된 조건은 분석 대상 이미지의 저장 시간, 데이터에 대한 사용이 종료되었는지 여부, 제 1 사용자의 동의 여부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
실시예에서, 헬스케어 장치(200)는 적어도 하나의 제 1 사용자에 의해 사용될 수 있고, 이를 위해 헬스케어 장치(200)는 각각의 제 1 사용자를 식별할 수 있다. 제 1 사용자를 식별하기 위하여, 지문, 홍채, 안면 인식, 음성 인식 등과 같은 다양한 사용자 인식 기술이 이용될 수 있으며, 이에 한정되는 것은 아니다. 또한, 헬스케어 장치(200)에 위치한 제 1 사용자의 식별은, 헬스케어 장치(200)가 (예를 들어, 감지부 등을 통해) 사용자를 감지하고 및/또는 헬스케어 장치(200)가 각종 동작이 수행될 때 이루어질 수 있다.
실시예에서, 헬스케어 장치(200)는 적어도 하나의 제 1 사용자 중에서 헬스케어 장치(200)를 사용 중인 제 1 사용자를 식별하기 위해 네트워크부(250)를 이용하여 각각의 제 1 사용자가 구비한 사용자 단말(예를 들어, 휴대폰, 스마트 워치 등)과 유, 무선 통신할 수 있다. 예를 들어, 헬스 케어 장치(200)는 인접 위치하는 적어도 하나의 사용자 단말과 통신할 수 있으며, 소정의 요건을 만족하는 사용자 단말을 선택하고, 해당 사용자 단말에 대응하는 제 1 사용자를 헬스케어 장치(200)를 사용 중인 제 1 사용자로 판단할 수 있다. 이때 상기 요건은 사용자 단말과 헬스케어 장치(200) 사이의 거리, 신호 강도 등 다양할 수 있다. 이와 같은 제 1 사용자의 식별은, 헬스케어 장치(200)가 (예를 들어, 감지부 등을 통해) 사용자를 감지하고, 및/또는 헬스케어 장치(200)가 각종 동작이 수행될 때 이루어질 수 있다.
예를 들어, 헬스케어 장치(200)는 네트워크부(250)를 통해 적어도 하나의 제 1 사용자가 구비된 사용자 단말과 블루투스 통신할 수 있다. 이때 헬스케어 장치(200)가 블루투스 통신이 연결 가능한 복수의 사용자 단말을 검출할 경우, 블루투스 신호 세기로 거리를 판단하여 가장 근접한 사용자 단말을 검출하고, 해당 사용자 단말에 대응하는 제 1 사용자를 식별할 수 있다. 헬스케어 장치(200)는 가장 근접한 것으로 식별된 제 1 사용자에 대하여 통합 건강 상태 정보를 업데이트할 수 있다. 또한, 헬스케어 장치(200)는 가장 근접한 것으로 식별된 제 1 사용자의 전자 기기의 고유 식별 번호를 수신할 수 있다. 예를 들어, 고유 식별 번호는 MAC(Media Access Control) 주소 또는 IMEI (International Mobile Equipment Identity)일 수 있다. 헬스케어 장치(200)는 수신한 고유 식별 번호에 해당하는 제 1 사용자의 전자 기기로 분석 대상 이미지에 대한 분석 결과, 분석 대상물의 유형에 관한 정보 등을 전송할 수 있다. 이와 같은 제 1 사용자의 식별은, 헬스케어 장치(200)가 (예를 들어, 감지부 등을 통해) 사용자를 감지하고 및/또는 헬스케어 장치(200)의 각종 동작이 수행될 때 이루어질 수 있다.
도 2에서 도시되는 바와 같이, 헬스케어 장치(200)는 프로세서(210), 메모리(230), 네트워크부(250)를 포함할 수 있다.
프로세서(210)는 헬스케어 장치(200)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(210)는 헬스케어 장치(200)에 저장된 프로그램을 실행함으로써, 헬스케어 장치(200) 내의 구성요소들을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(210)는 헬스케어 장치(200)의 동작을 위한 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 적어도 하나의 인스트럭션(instruction)을 처리하도록 구성될 수 있다. 상술된 인스트럭션은 메모리(230)로부터 프로세서(210)에 제공될 수 있다. 즉, 프로세서(210)는 메모리(230)와 같은 기록 장치에 저장된 프로그램 코드에 따라 인스트럭션을 실행하도록 구성될 수 있다. 혹은 인스트럭션은 네트워크부(250)를 통해 헬스케어 장치(200)로 수신되어 프로세서(210)로 제공될 수도 있다. 또한, 프로세서(210)는 하나 이상의 코어로 구성될 수 있으며, 중앙 처리 장치(CPU, central processing unit), 범용 그래픽 처리 장치 (GPGPU, general purpose graphics processing unit), 텐서 처리 장치(TPU, tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서(210)를 포함할 수 있다. 프로세서(210)는 메모리(230)에 저장된 컴퓨터 프로그램을 판독하여 실시예에 따른 기계 학습을 위한 데이터 처리를 수행할 수 있다. 실시예에 따라 프로세서(210)는 신경망의 학습을 위한 연산을 수행할 수 있다. 프로세서(210)는 딥러닝(DL, deep learning)에서 학습을 위한 입력 데이터의 처리, 입력 데이터에서의 피처 추출, 오차 계산, 역전파(backpropagation)를 이용한 신경망의 가중치 업데이트 등의 신경망의 학습을 위한 계산을 수행할 수 있다. 프로세서(210)의 CPU, GPGPU, 및 TPU 중 적어도 하나가 네트워크 함수의 학습을 처리할 수 있다. 예를 들어, CPU 와 GPGPU가 함께 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에서 복수의 헬스케어 장치(200)의 프로세서(210)를 함께 사용하여 네트워크 함수의 학습, 네트워크 함수를 이용한 데이터 분류를 처리할 수 있다. 또한, 실시예에 따른 헬스케어 장치(200)에서 수행되는 컴퓨터 프로그램은 CPU, GPGPU 또는 TPU 실행가능 프로그램일 수 있다.
실시예에서, 메모리(230)는 프로세서(210)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크부(250)가 수신한 임의의 형태의 정보를 저장할 수 있다.
실시예에서, 메모리(230)는 플래시 메모리(230) 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(230)(예를 들어 SD 또는 XD 메모리(230) 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리(230), 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 헬스케어 장치(200)는 인터넷(internet) 상에서 상기 메모리(230)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리(230)에 대한 기재는 예시일 뿐, 본 실시예는 이에 제한되지 않는다.
실시예에서, 따른 네트워크부(250)는 공중전화 교환망(PSTN, Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.
실시예에서, 네트워크부(250)는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.
실시예에서, 네트워크부(250)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN, Personal Area Network), 근거리 통신망(WAN, Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW, World Wide Web)일 수 있으며, 적외선(IrDA, Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다.
도 2에 도시된 헬스케어 장치(200)의 구성은 간략화 하여 나타낸 예시일 뿐이다. 실시예에서 헬스케어 장치(200)는 헬스케어 장치(200)의 컴퓨팅 환경을 수행하기 위한 다른 구성들이 포함될 수 있고, 개시된 구성들 중 일부만이 헬스케어 장치(200)를 구성할 수도 있다.
도 3은 본 발명의 실시예에 따른 헬스케어 장치의 구현예를 설명하기 위한 도면이다.
구체적으로, 도 3의 (a)는 본 발명의 실시예에 따른 헬스케어 장치의 사시도이며, 도 3의 (b)는 본 발명의 실시예에 따른 헬스케어 장치가 변기에 장착된 상태의 사시도이다.
도 3의 헬스케어 장치(200')는 도 1 및 도 2의 헬스케어 장치(200)와 마찬가지로 설명되며, 이하 중복되는 설명은 생략한다.
도 3을 참조하면, 헬스케어 장치(200')는 하우징(270) 및 거치부(290)를 더 포함할 수 있다. 하우징(270)은 헬스케어 장치(200')의 외형을 형성하고, 프로세서(210), 메모리(230) 및 네트워크부(250) 중 적어도 하나를 내부에 수용할 수 있다. 또한, 거치부(290)는 하우징(270)이 변기 등에 결합하도록 할 수 있다. 이를 위해 거치부(290)는 일 단부가 하우징(270)에 결합하고, 타 단부가 절곡되어, 변기에 끼움 결합할 수 있다. 다만 이에 한정되는 것은 아니다.
실시예에 따라, 헬스케어 장치(200')는 측정 장치(100)를 더 포함할 수 있다. 측정 장치(100)는 변기 내측을 촬영할 수 있도록 변기 내측을 향하고 및/또는 변기 내측에 위치할 수 있다. 이때 거치부(290)의 타 단부에 측정 장치(100)가 결합되어, 헬스케어 장치(200') 내에 일체화되도록 할 수 있다.
실시예에서, 거치부(290)의 적어도 일부는, 연질의 재질로 이루어지며, 어느 정도의 신축성을 가짐으로써, 보다 효과적이고 안정적으로, 변기에 결합할 수 있다. 예를 들어, 변기의 외면에 하우징(270) 및/또는 거치부(290)의 일 단부가 접하고, 변기의 내면에 거치부(290)의 타 단부 및/또는 측정 장치(100)가 접하도록 하되, 양 측을 연결하는 거치부(290)가 탄성에 의해 연장되면서, 변기에 끼움 결합될 수 있다. 예를 들어, 거치부(290)는, 포리케톤(POK), 폴리부티렌테레프탈레이트(PBT), 폴리프로필렌(PP), 폴리에틸렌(PE), 폴리옥시프로필렌(POP), 엘라스토머, 폴리올레핀 엘라스토머(POE), 공중합체, 에틸렌 옥텐/부텐 중합체(Ethylene Octene/Butene Copolymers) 등을 포함할 수 있다. 다만, 이에 한정되는 것은 아니다.
도 4는 본 발명의 실시예에 따른 헬스케어 장치의 동작 상태를 설명하기 위한 도면이다.
도 4를 참조하면, 변기 시트에 장착된 측정 장치(100)는 분석 대상물을 촬영하여 분석 대상 이미지를 생성할 수 있다. 헬스케어 장치(200')는 분석 대상 이미지를 수신하고, 이로부터 분석 대상물의 형태 및 색상 중 적어도 하나를 분석하며, 분석 대상 이미지에 대한 분석 결과를 기초로 분석 대상물의 유형을 결정할 수 있다. 이후, 헬스케어 장치(200')는 분석 결과 및/또는 분석 대상물의 유형에 기초하여 시각적 알림 및 청각적 알림 중 적어도 하나를 생성할 수 있다.
이어서, 헬스케어 장치(200')는 생성된 시각적 알림 및/또는 청각적 알림을 제 1 사용자에게 제공할 수 있다. 예를 들어, 시각적 알림은 헬스케어 장치(200')의 하우징(270)에 구비된 조명을 통하여 변기의 하측 방향으로 제공될 수 있다. 또한, 예를 들어, 청각적 알림은 헬스케어 장치(200')의 하우징(270)에 구비된 스피커를 통하여 제공될 수 있다.
이러한 과정을 통해, 제 1 사용자는 분석 대상물에 대한 직접적인 관찰 없이도, 시각적 알림 또는 청각적 알림을 통하여 간접적으로 분석 대상물의 상태를 파악할 수 있다.
도 5는 본 발명의 실시예에 따른 인공 신경 네트워크를 나타낸 개략도이다.
연산 모델, 신경망, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 신경망은 일반적으로 노드라 지칭될 수 있는 상호 연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 노드들은 뉴런(neuron)들로 지칭될 수도 있다. 신경망은 적어도 하나 이상의 노드들을 포함하여 구성된다. 신경망들을 구성하는 노드(또는 뉴런)들은 하나 이상의 링크에 의해 상호 연결될 수 있다.
신경망 내에서, 링크를 통해 연결된 하나 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 상술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다.
하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드의 데이터는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호 연결하는 링크는 가중치(weight)를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망이 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변 될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.
상술한 바와 같이, 신경망은 하나 이상의 노드들이 하나 이상의 링크를 통해 상호 연결되어 신경망 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들의 가중치 값이 상이한 두 신경망이 존재하는 경우, 두 개의 신경망들은 서로 상이한 것으로 인식될 수 있다.
신경망은 하나 이상의 노드들의 집합으로 구성될 수 있다. 신경망을 구성하는 노드들의 부분 집합은 레이어(layer)를 구성할 수 있다. 신경망을 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다. 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 내에서 레이어의 차수는 상술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.
최초 입력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들을 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망을 구성하는 노드들을 의미할 수 있다.
실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수와 동일할 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하다가 다시 증가하는 형태의 신경망일 수 있다. 또한, 본 실시예의 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수 보다 적을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 감소하는 형태의 신경망일 수 있다. 또한, 본 실시예의 또 다른 실시예에 따른 신경망은 입력 레이어의 노드의 개수가 출력 레이어의 노드의 개수보다 많을 수 있으며, 입력 레이어에서 히든 레이어로 진행됨에 따라 노드의 수가 증가하는 형태의 신경망일 수 있다. 본 실시예의 또 다른 실시예에 따른 신경망은 상술한 신경망들의 조합된 형태의 신경망일 수 있다.
딥 뉴럴 네트워크(DNN, deep neural network, 심층신경망)는 입력 레이어와 출력 레이어 외에 복수의 히든 레이어를 포함하는 신경망을 의미할 수 있다. 딥 뉴럴 네트워크를 이용하면 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 사진, 글, 비디오, 음성, 음악의 잠재적인 구조(예를 들어, 어떤 물체가 사진에 있는지, 글의 내용과 감정이 무엇인지, 음성의 내용과 감정이 무엇인지 등)를 파악할 수 있다. 딥 뉴럴 네트워크는 컨볼루션 뉴럴 네트워크(CNN, convolutional neural network), 리커런트 뉴럴 네트워크(RNN, recurrent neural network), 오토 인코더(auto encoder), GAN(Generative Adversarial Networks), 제한 볼츠만 머신(RBM, restricted boltzmann machine), 심층 신뢰 네트워크(DBN, deep belief network), Q 네트워크, U 네트워크, 샴 네트워크, 적대적 생성 네트워크(GAN, Generative Adversarial Network) 등을 포함할 수 있다. 전술한 딥 뉴럴 네트워크의 기재는 예시일 뿐이며 본 실시예는 이에 제한되지 않는다.
실시예에서, 네트워크 함수는 오토 인코더(autoencoder)를 포함할 수도 있다. 오토 인코더는 입력 데이터와 유사한 출력 데이터를 출력하기 위한 인공 신경망의 일종일 수 있다. 오토 인코더는 적어도 하나의 히든 레이어를 포함할 수 있으며, 홀수 개의 히든 레이어가 입출력 레이어 사이에 배치될 수 있다. 각각의 레이어의 노드의 수는 입력 레이어의 노드의 수에서 병목 레이어(인코딩)라는 중간 레이어로 축소되었다가, 병목 레이어에서 출력 레이어(입력 레이어와 대칭)로 축소와 대칭되어 확장될 수도 있다. 오토 인코더는 비선형 차원 감소를 수행할 수 있다. 입력 레이어 및 출력 레이어의 수는 입력 데이터의 전처리 이후에 차원과 대응될 수 있다. 오토 인코더 구조에서 인코더에 포함된 히든 레이어의 노드의 수는 입력 레이어에서 멀어질수록 감소하는 구조를 가질 수 있다. 병목 레이어(인코더와 디코더 사이에 위치하는 가장 적은 노드를 가진 레이어)의 노드의 수는 너무 작은 경우 충분한 양의 정보가 전달되지 않을 수 있으므로, 특정 수 이상(예를 들어, 입력 레이어의 절반 이상 등)으로 유지될 수도 있다.
뉴럴 네트워크는 교사 학습(supervised learning), 비교사 학습(unsupervised learning), 반교사학습(semi supervised learning), 또는 강화학습(reinforcement learning) 중 적어도 하나의 방식으로 학습될 수 있다. 뉴럴 네트워크의 학습은 뉴럴 네트워크가 특정한 동작을 수행하기 위한 지식을 뉴럴 네트워크에 적용하는 과정일 수 있다.
뉴럴 네트워크는 출력의 오류를 최소화하는 방향으로 학습될 수 있다. 뉴럴 네트워크의 학습에서 반복적으로 학습 데이터를 뉴럴 네트워크에 입력시키고 학습 데이터에 대한 뉴럴 네트워크의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 뉴럴 네트워크의 에러를 뉴럴 네트워크의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation)하여 뉴럴 네트워크의 각 노드의 가중치를 업데이트 하는 과정이다. 교사 학습의 경우 각각의 학습 데이터에 정답이 라벨링 되어있는 학습 데이터를 사용하며(즉, 라벨링된 학습 데이터), 비교사 학습의 경우는 각각의 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 교사 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 뉴럴 네트워크에 입력되고, 뉴럴 네트워크의 출력(카테고리)과 학습 데이터의 라벨을 비교함으로써 오류(error)가 계산될 수 있다. 다른 예로, 데이터 분류에 관한 비교사 학습의 경우 입력인 학습 데이터가 뉴럴 네트워크 출력과 비교됨으로써 오류가 계산될 수 있다. 계산된 오류는 뉴럴 네트워크에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 뉴럴 네트워크의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 뉴럴 네트워크의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 뉴럴 네트워크의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 뉴럴 네트워크의 학습 초기에는 높은 학습률을 사용하여 뉴럴 네트워크가 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다.
뉴럴 네트워크의 학습에서 일반적으로 학습 데이터는 실제 데이터(즉, 학습된 뉴럴 네트워크를 이용하여 처리하고자 하는 데이터)의 부분집합일 수 있으며, 따라서, 학습 데이터에 대한 오류는 감소하나 실제 데이터에 대해서는 오류가 증가하는 학습 사이클이 존재할 수 있다. 과적합(overfitting)은 이와 같이 학습 데이터에 과하게 학습하여 실제 데이터에 대한 오류가 증가하는 현상이다. 예를 들어, 노란색 고양이를 보여 고양이를 학습한 뉴럴 네트워크가 노란색 이외의 고양이를 보고는 고양이임을 인식하지 못하는 현상이 과적합의 일종일 수 있다. 과적합은 머신러닝 알고리즘의 오류를 증가시키는 원인으로 작용할 수 있다. 이러한 과적합을 막기 위하여 다양한 최적화 방법이 사용될 수 있다. 과적합을 막기 위해서는 학습 데이터를 증가시키거나, 레귤라이제이션(regularization), 학습의 과정에서 네트워크의 노드 일부를 비활성화하는 드롭아웃(dropout), 배치 정규화 레이어(batch normalization layer)의 활용 등의 방법이 적용될 수 있다.
도 6은 본 발명의 실시예에 따른 브리스톨 대변 차트를 설명하는 도면이다.
도 6을 참조하여 브리스톨 대변 차트(Bristol Stool Chart)에 기초하여 설명하자면, 제 1 유형의 땅콩처럼 분리된 덩어리는 청크에 해당할 수 있다. 제 1 유형의 경우 제 1 사용자는 심한 변비 상태일 수 있다. 또한 제 2 유형의 소시지 모양에서 울퉁불퉁한 덩어리는 청크에 해당할 수 있다. 즉, 제 2 유형의 경우에는 전체적으로 하나의 덩어리지만 하나의 덩어리 안에 복수의 청크를 포함할 수 있다. 제 2 유형인 경우 제 1 사용자는 가벼운 변비 상태일 수 있다. 제 3 유형의 경우에도 표면의 균열에 의하여 청크들이 구분될 수 있다. 즉, 제 2 유형의 경우보다 구분의 정도는 낮으나 제 3 유형의 경우에도 청크를 포함할 수 있다. 제 3 유형인 경우 제 1 사용자는 정상 상태 일 수 있다. 제 4 유형의 경우에는 하나의 덩어리로 판단될 수 있으며 청크를 추출하기 어려울 수 있다. 제 4 유형인 경우 제 1 사용자는 정상 상태일 수 있다. 제 5 유형의 경우에도 부드러운 각각의 덩어리가 청크에 해당할 수 있다. 제 5 유형인 경우 제 1 사용자는 섬유질 부족 가능성이 있을 수 있다. 제 6 유형의 경우는 보다 작은 다수의 청크들로 구성되는 경우일 수 있다. 제 6 유형은 대장염 상태일 수 있다. 제 7 유형은 완전한 액체로서 청크들을 추출하기 어려우며, 전체 형상으로 판단될 수 있다. 제 7 유형인 경우 제 1 사용자는 심한 대장염이거나, 대장/직장에 대한 암 조직 발생, 영향 불균형 등 좋지 못한 건강 상태 일 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 또한 각각의 실시예는 필요에 따라 서로 조합되어 운용할 수 있다. 예컨대, 실시예와 다른 실시예의 일부분들이 서로 조합되어 장치의 동작이 운용될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (17)

  1. 헬스케어 장치의 하나 이상의 프로세서에서 수행되는 방법으로서,
    제 1 사용자의 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하는 단계;
    상기 분석 대상 이미지에서 상기 분석 대상물의 형태 및 색상 중 적어도 하나를 분석하는 단계; 및
    상기 분석 대상 이미지에 대한 분석 결과에 기초하여 생성되는 시각적 알림 및 청각적 알림 중 적어도 하나를 상기 제 1 사용자에게 제공하는 단계를 포함하는, 방법.
  2. 제 1 항에 있어서,
    상기 분석 대상 이미지는 변기에 장착된 카메라로부터 획득되는, 방법.
  3. 제 1 항에 있어서,
    상기 시각적 알림 및 상기 청각적 알림 중 적어도 하나는, 상기 제 1 사용자가 간접적으로 상기 분석 대상물의 상태를 파악할 수 있도록, 상기 분석 대상 이미지에 대한 분석 결과에 기초하여 생성되는, 방법.
  4. 제 1 항에 있어서,
    상기 시각적 알림은, 변기에 장착된 조명에 의해 상기 변기의 하측 방향으로 제공되고,
    상기 제공하는 단계는, 상기 제 1 사용자가 변기에 위치하는 동안 제공되는, 방법.
  5. 제 1 항에 있어서,
    상기 분석 대상 이미지에 대한 분석 결과 및 대변 분류 차트에 기초하여 상기 분석 대상물의 유형을 결정하는 단계를 더 포함하는, 방법.
  6. 제 5 항에 있어서,
    상기 시각적 알림 및 상기 청각적 알림 중 적어도 하나는, 상기 유형에 기초하여 생성되는, 방법.
  7. 제 6 항에 있어서,
    상기 청각적 알림은, 상기 분석 대상 이미지에 대한 분석 결과에 관련한 의미 또는 감성을 전달할 수 있는 말소리 및 음악 중 적어도 하나를 포함하는, 방법.
  8. 제 1 항에 있어서,
    상기 시각적 알림은, 상기 분석 대상 이미지에 대한 분석 결과로부터 추론된 상기 제 1 사용자의 건강 상태 또는 상기 분석 대상물에 관한 정보를 전달하도록 상기 분석 대상 이미지에 대한 분석 결과에 기초하여 상기 시각적 알림의 색상, 형상 및 깜빡임 중 적어도 하나가 결정되는, 방법.
  9. 제 8 항에 있어서,
    상기 시각적 알림은, 상기 분석 대상물의 색상에 기초하여 색상이 결정되거나, 상기 분석 대상물의 형태에 기초하여 형상 또는 깜빡임이 결정되는, 방법.
  10. 제 1 항에 있어서,
    상기 제 1 사용자로부터 사용자 정보 이용 동의를 획득하는 단계; 및
    상기 분석 대상 이미지에 기초한 진단 기초 데이터 및 상기 분석 대상 이미지에 대한 분석 결과 중 적어도 하나를 제 2 사용자의 디바이스에 전송하는 단계를 더 포함하는, 방법.
  11. 제 10 항에 있어서,
    상기 진단 기초 데이터는, 상기 분석 대상 이미지에 포함된 상기 분석 대상물을 상기 제 2 사용자가 식별하기 용이하도록 처리된 데이터와 제 1 사용자의 정보를 포함하는, 방법.
  12. 제 5 항에 있어서,
    상기 분석 대상 이미지를 제외하고, 상기 유형에 관한 정보를 상기 제 1 사용자의 디바이스로 전송하는 단계를 더 포함하는, 방법.
  13. 제 1 항에 있어서,
    상기 분석 대상 이미지에 상기 제 1 사용자의 정보를 매칭하는 단계; 및
    제 1 사용자에 의해 사전 결정된 조건에 기초하여 상기 분석 대상 이미지를 삭제하는 단계를 더 포함하는, 방법.
  14. 헬스케어 장치로서,
    컴퓨터 실행가능한 명령들을 저장하기 위한 메모리; 및
    상기 메모리에 저장된 명령들을 실행하기 위한 프로세서를 포함하고,
    상기 프로세서는, 제 1 사용자의 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하고, 상기 분석 대상 이미지에서 상기 분석 대상물의 형태 및 색상 중 적어도 하나를 분석하고, 상기 분석 대상 이미지에 대한 분석 결과에 기초하여 생성되는 시각적 알림 및 청각적 알림 중 적어도 하나를 상기 제 1 사용자에게 제공하는, 장치.
  15. 헬스 케어 장치로서,
    컴퓨터 실행가능한 명령들을 저장하기 위한 메모리;
    상기 메모리에 저장된 명령들을 실행하여, 제 1 사용자의 분석 대상물인 대변이 포함된 분석 대상 이미지를 획득하고, 상기 분석 대상 이미지에서 상기 분석 대상물의 형태 및 색상 중 적어도 하나를 분석하고, 상기 분석 대상 이미지에 대한 분석 결과에 기초하여 생성되는 시각적 알림 및 청각적 알림 중 적어도 하나를 상기 제 1 사용자에게 제공하는 프로세서;
    상기 메모리 및 상기 프로세서를 내측에 수용하는 하우징; 및
    상기 하우징을 변기에 거치시킬 수 있도록 하는 거치부를 포함하는, 장치.
  16. 제 15 항에 있어서,
    제 1 사용자의 분석 대상물인 대변이 포함된 분석 대상 이미지를 촬영하는 측정 장치를 더 포함하는, 장치.
  17. 제 1 항 내지 제 13 항 중 어느 한 항에 따른 방법을 수행하기 위해 매체에 저장되는 컴퓨터 프로그램.
PCT/KR2022/000029 2021-12-31 2022-01-03 헬스케어 시스템 WO2023128040A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0193781 2021-12-31
KR1020210193781A KR20230103145A (ko) 2021-12-31 2021-12-31 헬스케어 시스템

Publications (1)

Publication Number Publication Date
WO2023128040A1 true WO2023128040A1 (ko) 2023-07-06

Family

ID=86999354

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/000029 WO2023128040A1 (ko) 2021-12-31 2022-01-03 헬스케어 시스템

Country Status (2)

Country Link
KR (1) KR20230103145A (ko)
WO (1) WO2023128040A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101368144B1 (ko) * 2012-09-24 2014-02-28 한국 한의학 연구원 대변을 이용한 건강 모니터링 시스템 및 그의 건강 모니터링 방법
JP2016138438A (ja) * 2015-01-27 2016-08-04 勤 吉沼 健康のチェックができる便座とitシステム
US20170303901A1 (en) * 2014-06-18 2017-10-26 Setech Co., Ltd. Feces color detection device
KR20200085833A (ko) * 2018-09-18 2020-07-15 김홍민 대변 모니터링 및 건강 지도 장치
WO2021205345A1 (en) * 2020-04-07 2021-10-14 Outsense Diagnostics Ltd. Analysis of bodily emissions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101368144B1 (ko) * 2012-09-24 2014-02-28 한국 한의학 연구원 대변을 이용한 건강 모니터링 시스템 및 그의 건강 모니터링 방법
US20170303901A1 (en) * 2014-06-18 2017-10-26 Setech Co., Ltd. Feces color detection device
JP2016138438A (ja) * 2015-01-27 2016-08-04 勤 吉沼 健康のチェックができる便座とitシステム
KR20200085833A (ko) * 2018-09-18 2020-07-15 김홍민 대변 모니터링 및 건강 지도 장치
WO2021205345A1 (en) * 2020-04-07 2021-10-14 Outsense Diagnostics Ltd. Analysis of bodily emissions

Also Published As

Publication number Publication date
KR20230103145A (ko) 2023-07-07

Similar Documents

Publication Publication Date Title
CN110020610B (zh) 基于深度学习的肠镜质量检查控制系统
WO2020207377A1 (zh) 一种图像识别模型训练及图像识别方法、装置及系统
WO2017095014A1 (ko) Dnn 학습을 이용한 세포이상 여부 진단시스템 및 그 진단관리 방법
WO2019164064A1 (ko) 정제된 인공지능 강화학습 데이터 생성을 통한 의료영상 판독 시스템 및 그 방법
CN110895968B (zh) 人工智能医学图像自动诊断系统和方法
US9750450B2 (en) Method, electronic apparatus, and computer readable medium of constructing classifier for skin-infection detection
Karthikeyan et al. Feature selection and parameters optimization of support vector machines based on hybrid glowworm swarm optimization for classification of diabetic retinopathy
WO2021071288A1 (ko) 골절 진단모델의 학습 방법 및 장치
CN113924579A (zh) 用于确定协议配置的集成神经网络
CN111329445A (zh) 基于组卷积残差网络和长短期记忆网络的房颤识别方法
Sadasivan et al. High accuracy patch-level classification of wireless capsule endoscopy images using a convolutional neural network
CN114782760A (zh) 一种基于多任务学习的胃部疾病图片分类系统
CN114343585B (zh) 认知和行为障碍的预警方法、装置、设备及存储介质
WO2023128040A1 (ko) 헬스케어 시스템
WO2024005542A1 (ko) 주름 검출을 통해 질환을 예측하는 방법 및 장치
CN112263220A (zh) 一种内分泌疾病智能诊断系统
CN115938593B (zh) 病历信息的处理方法、装置、设备及计算机可读存储介质
KR102526901B1 (ko) 헬스케어 시스템
WO2021137395A1 (ko) 심층신경망 알고리즘 기반의 문제 행동 분류 시스템 및 방법
Sundarambal et al. Comparison of machine learning and deep learning models for cervical cancer prediction
KR20220117403A (ko) 헬스케어 시스템
KR102511511B1 (ko) 뇌졸중 환자의 임상 데이터를 이용한 운동 기능 회복 예후 예측 장치 및 그 방법
Ahirwar et al. COVID-19 detection based on transfer learning & LSTM network using x-ray images
Rai et al. Parkinson’s disease detection using a novel weighted ensemble of CNN models
WO2019151573A1 (ko) 멀티 암 판별을 위한 컴퓨팅 방법 및 이를 이용한 컴퓨팅 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22916202

Country of ref document: EP

Kind code of ref document: A1