WO2021261096A1 - 出力装置、方法、プログラム、及び表示装置 - Google Patents

出力装置、方法、プログラム、及び表示装置 Download PDF

Info

Publication number
WO2021261096A1
WO2021261096A1 PCT/JP2021/017724 JP2021017724W WO2021261096A1 WO 2021261096 A1 WO2021261096 A1 WO 2021261096A1 JP 2021017724 W JP2021017724 W JP 2021017724W WO 2021261096 A1 WO2021261096 A1 WO 2021261096A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
excrement
representative value
area
output device
Prior art date
Application number
PCT/JP2021/017724
Other languages
English (en)
French (fr)
Inventor
博文 金井
由佳 山田
俊英 森
英幸 前原
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to CN202180044728.2A priority Critical patent/CN115702336A/zh
Priority to JP2022532383A priority patent/JPWO2021261096A1/ja
Publication of WO2021261096A1 publication Critical patent/WO2021261096A1/ja
Priority to US18/085,007 priority patent/US20230122501A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • EFIXED CONSTRUCTIONS
    • E03WATER SUPPLY; SEWERAGE
    • E03DWATER-CLOSETS OR URINALS WITH FLUSHING DEVICES; FLUSHING VALVES THEREFOR
    • E03D11/00Other component parts of water-closets, e.g. noise-reducing means in the flushing system, flushing pipes mounted in the bowl, seals for the bowl outlet, devices preventing overflow of the bowl contents; devices forming a water seal in the bowl after flushing, devices eliminating obstructions in the bowl outlet or preventing backflow of water and excrements from the waterpipe
    • EFIXED CONSTRUCTIONS
    • E03WATER SUPPLY; SEWERAGE
    • E03DWATER-CLOSETS OR URINALS WITH FLUSHING DEVICES; FLUSHING VALVES THEREFOR
    • E03D9/00Sanitary or other accessories for lavatories ; Devices for cleaning or disinfecting the toilet room or the toilet bowl; Devices for eliminating smells
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • EFIXED CONSTRUCTIONS
    • E03WATER SUPPLY; SEWERAGE
    • E03DWATER-CLOSETS OR URINALS WITH FLUSHING DEVICES; FLUSHING VALVES THEREFOR
    • E03D2201/00Details and methods of use for water closets and urinals not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Definitions

  • This disclosure relates to a technology for outputting information on excrement.
  • Patent Document 1 the shape and color of stool are measured, the measured shape is classified into a plurality of forms and used as the first element of stool, and the measured color is classified into a plurality of color tones and used as the second element of stool.
  • a technique for identifying a disease and health condition associated with a stool condition by a combination of the first element and the second element is disclosed.
  • Patent Document 1 the disease and the health condition are specified targets, and the information indicating the condition of the stool itself is not specified, so further improvement is necessary.
  • This disclosure is made to solve the above-mentioned problems, and the state of the excrement itself is specified while protecting the privacy of the excrement and suppressing the psychological stress of the administrator who manages the excrement.
  • the purpose is to provide a technology to output possible information.
  • the output device is an output device that outputs information on excrement, and includes an acquisition unit that acquires a first image including the excrement taken by a camera that takes a picture of the inside of the bowl of the toilet bowl.
  • the first image contains one or a plurality of color components, and is an area representative including a divided portion for dividing the acquired first image into a plurality of divided areas and a representative value for each color component of each divided area. It includes a calculation unit for calculating a value and an output unit for outputting the calculated area representative value.
  • the color, amount and shape of the excrement, the content of the excrement such as diarrhea stool, and the excrement itself such as the amount and distribution of blood adhering to the excrement itself.
  • the administrator needs to know the information that can identify the state. However, in order to make the administrator understand such information, it is not always necessary to present the administrator with an image showing the excrement concretely, and it is sufficient to present the administrator with an image roughly showing the excrement. It was found that.
  • Patent Document 1 since the image of the excrement is not presented, the administrator can check the color, amount and shape of the excrement, the content of the excrement such as diarrhea stool, and the amount of blood adhering to the excrement. And information such as distribution cannot be grasped, and it is insufficient for the manager to accurately grasp the health condition of the excreta.
  • This disclosure is made to solve these problems, and the condition of the excrement itself is maintained while protecting the privacy of the excrement and suppressing the psychological stress of the administrator who manages the excrement.
  • the purpose is to provide a technique for outputting identifiable information.
  • the output device is an output device that outputs information on excrement, and includes an acquisition unit that acquires a first image including the excrement taken by a camera that takes a picture of the inside of the bowl of the toilet bowl.
  • the first image contains one or a plurality of color components, and is an area representative including a divided portion for dividing the acquired first image into a plurality of divided areas and a representative value for each color component of each divided area. It includes a calculation unit for calculating a value and an output unit for outputting the calculated area representative value.
  • a first image including excrement is acquired, the first image is divided into a plurality of divided areas, an area representative value including a representative value for each color component of each divided area is calculated, and an area representative value is calculated. Is output.
  • the area representative value including the representative value for each color component of each divided area is output instead of the image showing the excrement itself. This makes it possible to present an image that roughly shows the excrement, and shows the state of the excrement itself while protecting the privacy of the excrement and suppressing the psychological stress of the excrement manager. Information that can be specified can be output.
  • the acquisition unit further acquires a second image of the excrement-free image taken by the camera, and a pixel including a pixel indicating a drainage port of the toilet bowl from the acquired second image.
  • a extraction unit for extracting a group may be further provided, and the division unit may remove the pixel group from the first image and divide the removed first image into a plurality of division areas.
  • the pixel group including the pixel indicating the drainage port of the toilet bowl is removed from the first image, and the first image from which the pixel group is removed is divided into a plurality of divided areas.
  • the area representative value can be calculated after omitting the information. Therefore, it is possible to calculate an area representative value that more accurately indicates the state of excrement.
  • the pixel group may include pixels indicating stains adhering to the toilet bowl.
  • the area representative value is calculated after omitting information on the stains adhering to the toilet bowl. Can be done. Therefore, it is possible to calculate an area representative value that more accurately indicates the state of excrement.
  • the extraction unit calculates a toilet bowl representative value including a representative value of each color component in a region corresponding to a predetermined portion of the bowl excluding the drain port in the second image, and the toilet bowl representative value.
  • a pixel having a pixel value outside the predetermined range may be extracted as a pixel of the pixel group.
  • pixels having pixel values outside the predetermined range with respect to the representative value of the toilet bowl are extracted as pixels of the pixel group to be removed, and thus adhere to the toilet bowl.
  • the pixels indicating the stains to be removed and the pixels indicating the drain port of the toilet bowl can be extracted as a pixel group to be removed from the first image.
  • the extraction unit may execute a process of extracting the pixel group at the time of installation of the output device or periodically.
  • the pixel group since the pixel group is extracted when the output device is installed, the pixel group that accurately indicates the drainage port and dirt of each toilet bowl should be calculated in consideration of the installation environment of the toilet bowl. Can be done. Further, by periodically extracting the pixel group, it is possible to extract the pixel group indicating the stain adhering to the toilet bowl, which fluctuates from time to time.
  • the output device further includes a state detection unit that detects the state of the excrement from the first image, and the division unit determines the number of divisions of the plurality of division areas based on the detected state. May be good.
  • the number of divisions of the divided area is determined according to the state of excrement. Therefore, for example, for excrement having a high possibility of illness, it is possible to increase the number of divisions of the divided area, thereby managing the excrement.
  • the person can observe the excrement in more detail and can detect the excrement's disease at an early stage.
  • the divided portion may increase the number of divided portions when the state of the excrement is at least one of a state containing blood and a state containing indigestible stool.
  • the state of excrement is at least one of a state containing blood and a state containing indigestible stool, the number of divisions is increased, and in such a case, the administrator is more likely to collect the excrement. It can be observed in detail, and the disease of the excreta can be detected at an early stage.
  • the calculation unit when the calculation unit detects a divided area including the outline of the excrement among the plurality of divided areas, the detected divided area is described by using only the pixel indicating the excrement.
  • the area representative value may be calculated.
  • the divided area including the outline of the excrement includes a pixel indicating the excrement and a pixel indicating the toilet bowl.
  • the area representative value is calculated using all the pixels for such a divided area, the area representative value includes the information of the toilet bowl, and the information of the excrement cannot be accurately represented.
  • the area representative value is calculated using only the pixels indicating the excrement, so that the area representative value can accurately indicate the information of the excrement. ..
  • the division unit may divide a specific area in the predetermined first image including the drain port of the toilet bowl into the plurality of division areas.
  • the area representative value can be calculated by narrowing down to the area where excrement is likely to exist. , Processing efficiency can be improved.
  • the output unit may output the area representative value to a server connected via a network.
  • the area representative value can be managed by the server. Further, since the area representative value has a significantly smaller amount of data than the first image, the area representative value can be quickly transmitted to the server and the consumption of the memory resource of the server can be reduced.
  • the one or more color components may include red, green, and blue color components.
  • the area representative value may be the average value of the pixel values for each color component of each divided area.
  • the area representative value is the average value of the pixel values for each color component, and it is possible to calculate the area representative value that sufficiently indicates the characteristics of each color component.
  • a method in another aspect of the present disclosure is a method in an output device that outputs information about excrement, comprising said excrement photographed by a camera in which the processor of the output device photographs the inside of a bowl of a toilet bowl.
  • a first image is acquired, the first image contains one or a plurality of color components, the acquired first image is divided into a plurality of divided areas, and a representative value for each color component of each divided area.
  • the area representative value including is calculated, and the calculated area representative value is output.
  • the program in yet another aspect of the present disclosure is a program that causes a computer to function as an output device that outputs information on excrement, and is photographed by a processor of the output device by a camera that photographs the inside of a bowl of a toilet bowl.
  • a first image containing the excrement is acquired, the first image contains one or more color components, the acquired first image is divided into a plurality of divided areas, and the color of each divided area is divided.
  • the area representative value including the representative value for each component is calculated, and the calculated area representative value is output, and the process is executed.
  • the display device in still another aspect of the present disclosure is a display device that displays information on excrement, and is a plurality of divided areas obtained by dividing an image containing one or more color components including the excrement.
  • An acquisition unit that acquires an area representative value including a representative value for each color component of the above, and a generation unit that generates a display image that displays each divided area with the area representative value corresponding to each divided area. It is provided with an output unit for displaying the displayed image on the display.
  • the display image in which each divided area is displayed with the area representative value corresponding to each divided area is displayed on the display, so that the privacy of the excreta is protected and the psychology of the excrement manager is psychological. It is possible to display a display image that displays information that can identify the state of the excrement itself while suppressing stress.
  • a method in yet another aspect of the present disclosure is a method in a display device for displaying information on excrement, wherein the processor of the display device divides an image containing one or more color components including the excrement. An area representative value including a representative value for each color component of the plurality of divided areas obtained by the above is acquired, and a display image for displaying each divided area with the area representative value corresponding to each divided area is generated. The generated display image is displayed on the display.
  • the program in yet another aspect of the present disclosure is a program that causes a computer to function as a display device for displaying information on excrement, and the processor of the display device includes one or more color components including the excrement.
  • a display image in which an area representative value including a representative value for each color component of a plurality of divided areas obtained by dividing an image is acquired, and each divided area is displayed with the area representative value corresponding to each divided area. Is generated, and the generated display image is displayed on the display, and the process is executed.
  • the present disclosure allows such a program to be distributed via a computer-readable non-temporary recording medium such as a CD-ROM or a communication network such as the Internet.
  • FIG. 1 is a block diagram showing an example of the overall configuration of the excrement management system 1 according to the first embodiment of the present disclosure.
  • the excrement management system 1 is a system introduced in facilities such as geriatric facilities and hospitals, and manages the state of excrement of users who use the facilities.
  • the user is, for example, a care recipient receiving care at a geriatric facility and a patient receiving treatment at a hospital.
  • the excrement management system 1 includes an output device 2, a server 3, a display device 4, and a sensor unit 5.
  • the output device 2, the server 3, and the display device 4 are connected to each other so as to be able to communicate with each other via the network NT.
  • the network NT is a wide area communication network including, for example, an Internet communication network and a mobile phone communication network.
  • the output device 2 and the sensor unit 5 are installed in the toilet bowl and are communicably connected via the communication path 6.
  • the communication path 6 is a communication path for short-range wireless communication such as Bluetooth (registered trademark), infrared communication, and NFC.
  • the communication path 6 may be a wired communication path.
  • the output device 2 acquires the sensing data acquired by the sensor unit 5 via the communication path 6.
  • the output device 2 analyzes the sensing data, calculates the area representative value described later, and transmits the communication data including the calculated area representative value to the server 3.
  • the server 3 generates excretion history information including the area representative value included in the communication data, and stores it in the excretion history database described later.
  • the display device 4 acquires excretion history information from the server 3 via the network NT as necessary, generates a display image to be described later from the area representative value included in the excretion history information, and displays the generated display image on the display. do.
  • the sensing data includes images and sitting data described later.
  • the server 3 is, for example, a cloud server including one or more computers.
  • the display device 4 is, for example, a computer owned by an administrator.
  • the display device 4 may be, for example, a stationary computer, a smartphone, or a tablet computer.
  • the manager is, for example, a caregiver of the care recipient, a care manager, or a doctor in charge of treating the patient.
  • FIG. 2 is a diagram for explaining the arrangement positions of the sensor unit 5 and the output device 2 in the first embodiment of the present disclosure.
  • the toilet bowl 101 includes a bowl portion 101a and an edge portion 101b.
  • the edge portion 101b is a member arranged at the upper end of the toilet bowl 101 and defining the opening of the toilet bowl 101.
  • the bowl portion 101a is a member that is arranged below the edge portion 101b and receives defecation and urination.
  • the sensor unit 5 is hung on the edge portion 101b.
  • a drainage port (not shown) is provided at the bottom of the bowl portion 101a.
  • the excrement excreted in the bowl portion 101a is discharged to the sewer pipe through the drain port. That is, the toilet bowl 101 is a flush toilet.
  • a toilet seat 102 for a user to sit on is provided on the upper part of the toilet bowl 101.
  • the toilet seat 102 rotates up and down. The user sits with the toilet seat 102 lowered on the toilet bowl 101.
  • a water storage tank 103 for storing wash water for flowing excrement into the sewer is provided.
  • FIG. 3 is a block diagram showing an example of the configuration of the output device 2 and the sensor unit 5 shown in FIG.
  • the sensor unit 5 includes a camera 51 and a seating sensor 52.
  • the camera 51 is installed in the toilet bowl 101 so that the bowl portion 101a can take a picture.
  • the camera 51 is, for example, a high-sensitivity, wide-angle camera capable of capturing a color image having three color components of R (red) component, G (green) component, and B (blue). ..
  • the camera 51 may be a monochrome camera.
  • a camera that illuminates an object with an infrared light emitting diode and a white light emitting diode and photographs the object is widely used.
  • the camera 51 is composed of a high-sensitivity camera having a 1/4 inch CMOS. Further, the camera 51 is composed of a wide-angle camera having a horizontal angle of view of 120 degrees and a vertical angle of view of 100 degrees. Note that these numerical values for the number of inches and the number of angles of view are merely examples, and other values may be adopted.
  • the camera 51 takes an image of the inside of the bowl portion 101a at a predetermined frame rate, and transmits the obtained image to the output device 2.
  • the seating sensor 52 detects whether or not the user is sitting on the toilet seat 102.
  • the seating sensor 52 includes, for example, an illuminance sensor that detects the illuminance around the bowl portion 101a and a distance measuring sensor that detects the distance of an object around the bowl portion 101a.
  • an illuminance sensor that detects the illuminance around the bowl portion 101a
  • a distance measuring sensor that detects the distance of an object around the bowl portion 101a.
  • the seating sensor 52 may be configured by a pressure sensor that detects the pressure of the user sitting on the toilet seat 102 instead of the illuminance sensor and the distance measuring sensor.
  • the seating sensor 52 is composed of a pressure sensor, the seating sensor 52 is provided on the toilet seat 102. Further, the seating sensor 52 may be configured as either an illuminance sensor or a distance measuring sensor. The seating sensor 52 detects whether or not the user is seated at a predetermined sampling rate, and constantly outputs the seating data indicating the detection result to the output device 2.
  • the output device 2 includes a communication circuit 21, a processor 22, and a memory 23.
  • the communication circuit 21 is a communication circuit that connects the output device 2 to the network NT and the communication path 6.
  • the communication circuit 21 receives an image transmitted from the camera 51 at a predetermined frame rate.
  • the predetermined frame rate has an arbitrary value in the range of, for example, 1 to 120 fps.
  • the communication circuit 21 receives the seating data transmitted from the seating sensor 52 at a predetermined sampling rate. Further, the communication circuit 21 transmits the communication data to the server 3.
  • the processor 22 is composed of, for example, a central processing unit, and includes an acquisition unit 221, an extraction unit 222, a division unit 223, a calculation unit 224, and an output unit 225.
  • the acquisition unit 221 to the output unit 225 may be realized by the processor 22 executing a predetermined program, or may be configured by a dedicated hardware circuit.
  • the acquisition unit 221 acquires a first image, which is an image including excrement taken by the camera 51, by using the communication circuit 21. Further, the acquisition unit 221 acquires a second image, which is an image taken by the camera 51 and does not include excrement, by using the communication circuit 21. Further, the acquisition unit 221 acquires the seating data by using the communication circuit 21.
  • the extraction unit 222 extracts a pixel group including a pixel indicating a drainage port of the toilet bowl 101 and a pixel indicating dirt attached to the toilet bowl from the second image, and stores the pixel group in the memory 23.
  • the pixel group stored in the memory 23 is referred to as a pixel group 231.
  • the pixel group 231 is calculated in advance by the calibration shown below.
  • the extraction unit 222 calculates the representative value of the toilet bowl including the representative value of each color component in the reference region corresponding to the predetermined portion of the bowl portion 101a excluding the drainage port in the second image.
  • the extraction unit 222 extracts a specific area described later from the second image.
  • the extraction unit 222 extracts a pixel group including pixels having a pixel value outside a predetermined range with respect to the representative value of the toilet bowl in the extracted specific area.
  • the toilet bowl representative value is a representative value of the color of the toilet bowl 101, and includes representative values of three color components of R, G, and B.
  • the representative value is, for example, the average value or the median value of each pixel of R, G, and B.
  • the coordinates of the reference region are the coordinates calculated in advance from the mounting position and the angle of view of the camera 51 with respect to the toilet bowl 101.
  • the predetermined range with respect to the representative value of the toilet bowl refers to, for example, a range of pixel values indicating a color that can be regarded as substantially the same as the color indicated by the representative value of the toilet bowl. Since the toilet bowl representative value is composed of three representative values of R, G, and B, at least one of the pixel values of R, G, and B of the target pixel is out of the predetermined range with respect to the representative value of the corresponding color. If so, the target pixel is extracted as a pixel constituting the pixel group.
  • the division unit 223 extracts a specific area, which is a predetermined area including the drainage port of the toilet bowl 101, from the first image.
  • a specific area which is a predetermined area including the drainage port of the toilet bowl 101
  • the division unit 223 removes the pixel group 231 from the specific area, and divides the specific area from which the pixel group 231 is removed into a plurality of division areas.
  • the calculation unit 224 calculates an area representative value including a representative value for each color component of each divided area.
  • the calculation unit 224 detects a divided area including the outline of excrement among the plurality of divided areas, the calculation unit 224 calculates the area representative value for the detected divided area using only the pixels indicating the excrement. This makes it possible to calculate the area representative value using only the excrement information.
  • the area representative value is composed of the representative values of the respective pixel values of R, G, and B constituting each divided area.
  • the representative value is, for example, an average value or a median value.
  • the output unit 225 outputs the area representative value of each divided area.
  • the output unit 225 generates communication data including an area representative value, a user ID which is an identifier of the excretor, and a time stamp indicating the date and time of excretion, and the communication data is used by the server 3 using the communication circuit 21. Send to.
  • the memory 23 is composed of a rewritable non-volatile storage device such as a flash memory.
  • the memory 23 stores the pixel group 231 and the toilet bowl representative value 232.
  • the pixel group 231 is calculated in advance by the above calibration.
  • the toilet bowl representative value 232 is calculated in advance by the above calibration.
  • FIG. 4 is a block diagram showing an example of the configuration of the server 3.
  • the server 3 includes a communication circuit 31, a processor 32, and a memory 33.
  • the communication circuit 31 connects the server 3 to the network NT.
  • the processor 32 is composed of, for example, a CPU, and controls the entire server 3.
  • the processor 32 acquires the communication data transmitted from the output device 2 by using the communication circuit 31, and generates the excretion history information in association with the area representative value, the user ID, and the time stamp included in the communication data. ,
  • the generated excretion history information is stored in the excretion history database 331.
  • the memory 33 is composed of a non-volatile storage device such as a solid state drive or a hard disk drive, and stores the excretion history database 331.
  • the excretion history database 331 is a database that stores one excretion history information in one record.
  • FIG. 5 is a block diagram showing an example of the configuration of the display device 4.
  • the display device 4 includes a communication circuit 41, a processor 42, a memory 43, a display 44, and an operation unit 46.
  • the communication circuit 41 connects the display device 4 to the network NT.
  • the communication circuit 41 receives the excretion history information from the server 3.
  • the processor 42 is composed of, for example, a CPU, and includes an acquisition unit 421, a generation unit 422, and an output unit 423. Each component of the acquisition unit 421 to the output unit 423 is realized by the CPU executing a predetermined program. However, this is an example, and the acquisition unit 421 to the output unit 423 may be configured by a dedicated hardware circuit.
  • the acquisition unit 421 acquires the excretion history information transmitted from the server 3 by using the communication circuit 41. As a result, the acquisition unit 421 can acquire an area representative value including a representative value for each color component of the plurality of divided areas obtained by dividing the first image.
  • the generation unit 422 generates a display image in which each divided area is displayed with an area representative value corresponding to each divided area. For example, assuming that a certain division area is the target division area, the generation unit 422 includes the pixel values of R, G, B of each pixel of the target division area in the area representative values corresponding to the target division area. Set to the representative value of B. The generation unit 422 generates a display image by performing such processing on all the divided areas. As a result, the display image G3 as shown in FIG. 11 is obtained.
  • the output unit 423 outputs the display image generated by the generation unit 422 to the display 44.
  • the memory 43 is composed of a non-volatile rewritable storage device such as a flash memory.
  • the display 44 is composed of a display device such as a liquid crystal display panel and an organic EL panel.
  • the operation unit 46 is composed of a keyboard, a mouse, a touch panel, and the like, and receives instructions from the user.
  • FIG. 6 is a flowchart showing an example of processing of the output device 2 according to the first embodiment of the present disclosure.
  • step S1 the acquisition unit 221 determines whether or not the user has been seated on the toilet bowl 101 based on the seating data.
  • the seating data includes "ON” data indicating seating when the user is seated.
  • the seating data includes "OFF” data indicating that the user is not seated when the user is not seated. Therefore, the acquisition unit 221 may determine that the user is seated if the seating data includes "ON” data, and may determine that the user is not seated if the seating data includes "OFF" data.
  • step S1 When it is determined that the user is seated on the toilet bowl 101 (YES in step S1), the acquisition unit 221 acquires an image from the camera 51. On the other hand, when it is determined that the user is not seated on the toilet bowl 101 (NO in step S1), the process waits in step S1.
  • the dividing portion 223 detects whether or not there is excrement in the bowl portion 101a. Specifically, the division unit 223 extracts a specific area from the image and removes the pixel group 231 from the extracted specific area. Then, if there are a predetermined number or more of pixels having pixel values outside the predetermined range with respect to the toilet bowl representative value 232 in the specific area from which the pixel group 231 is removed, the division unit 223 excretes the pixel group consisting of the pixels. It may be determined that there is excrement in the bowl portion 101a by regarding it as an image showing an object.
  • the pixel group 231 in the specific area from which the pixel group 231 is removed, there is no pixel having a pixel value outside the predetermined range with respect to the toilet bowl representative value 232, or the pixel group 223 is out of the predetermined range with respect to the toilet bowl representative value 232. If there are pixels having the pixel value of, but the number of pixels is less than a predetermined number, it may be determined that there is no excrement in the bowl portion 101a.
  • the image in which excrement is detected is referred to as a first image as described above.
  • the excrement detected here includes stool and urine.
  • step S3 If excrement is detected (YES in step S3), the process proceeds to step S4, and if no excrement is detected (NO in step S3), the process returns to step S2 and the next image is acquired. ..
  • step S4 the division unit 223 extracts a specific area from the first image.
  • the specific area 80 is a rectangular area including all or a part of the drainage port 104 in the first image.
  • step S5 the division unit 223 removes the pixel group 231 from the specific area 80.
  • the pixel group 231 includes pixels indicating dirt and the like adhering to the drain port 104 and the toilet bowl 101 in the specific area 80.
  • each of the divided areas 8 is given an index of 1 to 64.
  • the division area 8 having an index of 1 is 8 (1)
  • the division area 8 having an index of 8 is 8 (8)
  • so on in FIG. 9, for convenience of explanation, an image without excrement is shown, but in reality, an image with excrement, that is, a specific area 80 of the first image is divided into division areas 8.
  • step S7 the calculation unit 224 calculates the area representative value of each divided area 8.
  • the calculation unit 224 may calculate the area representative value for the divided area using only the pixels indicating the excrement. For example, the calculation unit 224 may detect the contour from the image showing the excrement extracted in step S3, and detect the divided area 8 including the detected contour as the divided area 8 including the contour of the excrement.
  • step S8 the acquisition unit 221 detects from the seating data whether or not the user has left the toilet bowl 101 and is not seated. If non-seating is detected (YES in step S8), the process proceeds to step S9. On the other hand, if non-seating is not detected (NO in step S8), that is, if the user continues to sit on the toilet bowl 101, the process returns to step S2. As a result, the processes of steps S2 to S7 are performed on the next image.
  • step S9 the output unit 225 transmits the communication data including the area representative value to the server 3 using the communication circuit 21. Specifically, the output unit 225 transmits the communication data including the user ID of the excreted user, the time stamp, and the area representative value to the server 3. Each area representative value is associated with an index indicating the position of its own division area.
  • the area representative value is calculated for each image taken by the camera 51 at a predetermined frame rate. Therefore, when the processing of steps S2 to S7 is applied to a plurality of images, the area representative value included in the communication data includes the area representative value corresponding to the plurality of images. For example, when the processing of steps S2 to S7 is applied to n images, n sets of area representative values are included.
  • One set of area representative values is composed of 64 area representative values.
  • the communication data includes n sets of area representative values instead of the first image.
  • one set of area representative values includes 64 area representative values, and each area representative value is composed of R, G, and B representative values.
  • the representative value of one color component is represented by 8 bits
  • the amount of data of the area representative value of one set is at most 24 ⁇ 64 bits. Therefore, even if the communication data includes n sets of area representative values, the amount of communication data is significantly suppressed as compared with the case where the first image or the specific area 80 is included in the communication data. , Communication load is greatly reduced. Further, the server 3 does not have to store the image data or the specific area 80 in the excretion history database 331, and the consumption of the memory resource of the server 3 is significantly suppressed.
  • the area representative value included in the communication data may be an average value of n sets of area representative values. As a result, the amount of communication data can be further suppressed.
  • FIG. 7 is a diagram showing an example of processing when the display device 4 displays a display image.
  • the acquisition unit 421 transmits an acquisition request for excretion history information to the server 3 using the communication circuit 41.
  • the administrator may display a predetermined input screen on the display 44 by invoking a predetermined application, and input necessary items on this input screen by operating the operation unit 46.
  • the acquisition unit 421 may generate an acquisition request including the input necessary items and send it to the server 3.
  • Necessary items include, for example, a user ID and a period of excretion history information to be acquired.
  • the server 3 acquires the excretion history information corresponding to the user ID and the period included in the acquisition request from the excretion history database 331, and transmits the acquired excretion history information to the display device 4.
  • step S21 the acquisition unit 421 acquires excretion history information using the communication circuit 41.
  • the acquisition unit 421 can acquire the area representative value in the corresponding period of the user having the corresponding user ID.
  • n sets of area representative values have been acquired.
  • one set of area representative values to be processed among the n sets of area representative values will be described as the area representative values of the target set.
  • step S22 the generation unit 422 generates a display image for displaying each divided area with the area representative value corresponding to each divided area 8 for the area representative value of the target set.
  • the number of the divided areas 8 is 64
  • the pixel values of all the pixels in the divided area 8 are set as the area representative values corresponding to the divided areas 8 for each of the 64 divided areas 8.
  • a display image consisting of 64 panels of 8 ⁇ 8 is generated.
  • the generation unit 422 executes such a process for each of the n sets of area representative values, and generates n display images.
  • the output unit 423 displays the display image on the display 44.
  • the output unit 423 may display one representative display image out of the n display images on the display.
  • a typical display image may be, for example, a display image in which the excretion time is located at the beginning, center, or end of the n display images, or the display image having the largest excrement size. It may be.
  • the output unit 423 may switch the display image to be displayed on the display 44 out of the n display images according to the operation from the administrator input to the operation unit 46.
  • the output unit 423 may display the n display images on the display 44 while switching at a predetermined frame rate in chronological order.
  • FIG. 11 is a diagram showing an example of the display image G3.
  • FIG. 12 is a diagram showing an example of the image G1 of the specific area 80 extracted from the first image.
  • the display image G3 shown in FIG. 11 is a display image generated from the image G1 shown in FIG.
  • Image G1 is an image showing the excrement itself. Therefore, if the image G1 is displayed on the display 44 as it is, the privacy of the user cannot be protected and the psychological stress on the administrator is increased.
  • the display image G3 is displayed on the display 44.
  • the display image G3 is composed of 64 panels 1101, and each panel 1101 is a one-color image composed of the colors indicated by the area representative values of the divided areas 8 corresponding to each panel 1101. Therefore, the display image G3 can protect the privacy of the user and suppress the psychological stress of the administrator as compared with the case of displaying the image G1 showing the excrement itself. Further, since the display image G3 displays the excrement information in units of the panel 1101, the administrator can roughly grasp the color, shape, size, etc. of the excrement. As a result, the administrator can grasp the state of excrement of the user and accurately grasp the health state of the user.
  • FIG. 8 is a flowchart showing an example of the calibration process in the output device 2.
  • the calibration process is executed when the output device 2 and the sensor unit 5 are installed on the toilet bowl 101.
  • the calibration process may be executed periodically after the installation in addition to the time of the installation.
  • the cycle of the calibration process is, for example, one day, two days, one week, one month, or the like. Here, it is assumed that the calibration process is executed every day.
  • step S41 the acquisition unit 221 acquires a second image, which is an image containing no excrement, from the camera 51.
  • step S42 the extraction unit 222 calculates the representative value of the toilet bowl.
  • the details of the calculation of the representative value of the toilet bowl are as follows.
  • FIG. 10 is an explanatory diagram of the calibration process.
  • the extraction unit 222 extracts a reference region 90 located at predetermined coordinates of the second image G2 from the second image G2.
  • the extraction unit 222 calculates the representative values of each of R, G, and B by calculating the average value or the median value of the pixel values of each pixel constituting the reference region 90 for each of R, G, and B. ..
  • the toilet bowl representative value composed of the representative values of R, G, and B is calculated.
  • the reference region 90 is set to the region where the color characteristics of the toilet bowl 101 appear most often in the second image G2. Therefore, the representative value of the toilet bowl can indicate the color representing the toilet bowl 101.
  • the representative value of the toilet bowl in which the representative value of R is “36”, the representative value of G is “49”, and the representative value of B is “42” is calculated.
  • each representative value is data having 8 bits, that is, a value of 0 to 255.
  • step S43 the extraction unit 222 extracts the specific area 80 from the second image.
  • the coordinates of the specific area 80 extracted here are the same as the coordinates of the specific area 80 extracted from the first image.
  • step S44 the extraction unit 222 extracts a pixel group including pixels having a pixel value outside a predetermined range with respect to the representative value of the toilet bowl in the specific area 80.
  • the specific area 80 pixels showing dirt and the like adhering to the drain port 104 and the toilet bowl 101 are extracted as the pixel group 231.
  • step S45 the extraction unit 222 saves the pixel group 231 in the memory 23.
  • the pixel group 231 indicating dirt and the like adhering to the drain port 104 and the toilet bowl 101 is removed from the specific area 80 extracted from the first image, and then the area representative value is calculated. This makes it possible to calculate an area representative value that more accurately indicates the state of excrement.
  • FIG. 13 is a block diagram showing an example of the configuration of the output device 2A according to the second embodiment of the present disclosure.
  • the same components as those in the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the processor 22A includes an acquisition unit 221, an extraction unit 222, a division unit 223A, a calculation unit 224, an output unit 225, and a state detection unit 226.
  • the division unit 223A determines the number of divisions of the division area 8 based on the state of excrement detected by the state detection unit 226. For example, the division unit 223A increases the number of divisions when the state detected by the state detection unit 226 is at least one of a state in which the excrement contains blood and a state in which the excrement contains indigestible stool.
  • the state detection unit 226 detects the state of excrement from the first image. For example, the state detection unit 226 may detect the state of the excrement based on the color of the image showing the excrement extracted from the first image by the division unit 223A.
  • the state of excrement detected includes at least one of a state containing blood and a state containing indigestible stool.
  • FIG. 14 is a flowchart showing an example of processing of the output device 2A in the second embodiment of the present disclosure.
  • the same processes as those in FIG. 6 are designated by the same reference numerals, and the description thereof will be omitted.
  • step S3 when the split portion 223A detects that there is excrement in the bowl portion 101a (YES in step S3), the state detection unit 226 detects the state of the excrement.
  • the first condition is a condition containing blood and indigestible stool.
  • the second state is a state containing only indigestible stool.
  • the third state is a state containing only blood.
  • the fourth state is a state that does not contain blood and indigestible stool. Therefore, as for the state of excrement, the first state is the worst, then the second state, then the third state, and the fourth state is a state without any problem.
  • the division portion 223A may increase the number of divisions of the division area 8 as the state of excrement becomes worse.
  • FIG. 15 is a flowchart showing the details of the process of step S101 of FIG.
  • the state detection unit 226 acquires an image showing the excrement extracted by the division unit 223A from the division unit 223A.
  • the state detection unit 226 determines whether or not the excrement contains blood from the image showing the excrement.
  • the state detection unit 226 contains blood in the excrement if the number of pixels having a pixel value within a predetermined range with respect to a predetermined RGB value indicating blood is less than a predetermined number. It is determined that there is no such thing.
  • step S202 If it is determined to contain blood (YES in step S202), the process proceeds to step S203. If it is determined that blood is not contained (NO in step S202), the process proceeds to step S205.
  • the state detection unit 226 determines whether or not the excrement contains indigestible stool from the image showing the excrement.
  • the state detection unit 226 determines whether or not the excrement contains indigestible stool from the image showing the excrement.
  • the state detection unit 226 determines whether or not the excrement contains indigestible stool from the image showing the excrement.
  • the state detection unit 226 determines whether or not the excrement contains indigestible stool from the image showing the excrement.
  • the state detection unit 226 determines whether or not the excrement contains indigestible stool from the image showing the excrement.
  • the state detection unit 226 determines whether or not the excrement contains indigestible stool from the image showing the excrement.
  • step S203 If it is determined to include indigestive stool (YES in step S203), the process proceeds to step S204, and if it is determined not to include indigestive stool (NO in step S203), the process proceeds to step S207.
  • step S204 the state detection unit 226 determines that the state of the excrement is the first state because the excrement contains blood and indigestible stool.
  • step S207 the state detection unit 226 determines that the state of the excrement is the third state because the excrement contains only blood among the indigestible stool and blood.
  • step S205 the state detection unit 226 determines whether or not indigestible stool is included. The details of this process are the same as in step S203. If it is determined that indigestion stool is contained (YES in step S205), the process proceeds to step S206, and if it is determined that indigestion stool is not included (NO in S205), the process proceeds to step S208. Proceed to.
  • step S206 the state detection unit 226 determines that the state of the excrement is the second state because the excrement contains only the indigestible stool among the blood and the indigestible stool.
  • step S208 the state detection unit 226 determines that the state of the excrement is the fourth state because the excrement does not contain blood and indigestible stool.
  • the excrement state is at least one of the state containing blood and the state containing indigestible stool
  • the number of divisions is increased, and thus the management is performed in such a case.
  • the person can observe the excrement in more detail and can detect the excrement's disease at an early stage.
  • This disclosure is useful for managing the health condition of user's excrement in facilities for the elderly and hospitals.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Water Supply & Treatment (AREA)
  • Hydrology & Water Resources (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Analysis (AREA)

Abstract

出力装置は、便器のボウル内を撮影するカメラにより撮影された排泄物を含む第1画像を取得する取得部と、取得された第1画像を複数の分割エリアに分割する分割部と、分割された各分割エリアの色成分毎の代表値を含むエリア代表値を算出する算出部と、算出されたエリア代表値を出力する出力部と、を備える。

Description

出力装置、方法、プログラム、及び表示装置
 本開示は、排泄物の情報を出力する技術に関するものである。
 特許文献1には、大便の形状及び色を測定し、測定した形状を複数の形態に分類して大便の第1要素とし、測定した色を複数の色調に分類して大便の第2要素とし、第1要素と第2要素との組み合わせによって、大便の状態に関連付けられた疾患及び健康状態を特定する技術が開示されている。
 しかしながら、特許文献1では、疾患及び健康状態が特定対象であり、大便そのものの状態を示す情報が特定されていないため、さらなる改善の必要がある。
特開2018-136292号公報
 本開示は、上記課題を解決するためになされたものであり、排泄者のプライバシーの保護と排泄者を管理する管理者の心理的なストレスの抑制とを図りつつ、排泄物そのものの状態が特定可能な情報を出力する技術を提供することを目的とする。
 本開示の一態様における出力装置は、排泄物の情報を出力する出力装置であって、便器のボウル内を撮影するカメラにより撮影された前記排泄物を含む第1画像を取得する取得部と、前記第1画像は1又は複数の色成分を含み、取得された前記第1画像を複数の分割エリアに分割する分割部と、分割された各分割エリアの色成分毎の代表値を含むエリア代表値を算出する算出部と、算出された前記エリア代表値を出力する出力部と、を備える。
本開示の実施の形態1における排泄物管理システムの全体構成の一例を示すブロック図である。 本開示の実施の形態1におけるセンサユニット及び出力装置の配置位置を説明するための図である。 図1に示す出力装置及びセンサユニットの構成の一例を示すブロック図である。 サーバの構成の一例を示すブロック図である。 表示装置の構成の一例を示すブロック図である。 本開示の実施の形態1における出力装置の処理の一例を示すフローチャートである。 表示装置が表示画像を表示する際の処理の一例を示す図である。 出力装置におけるキャリブレーション処理の一例を示すフローチャートである。 分割エリアに分割された特定エリアの一例を示す図である。 キャリブレーション処理の説明図である。 表示画像の一例を示す図である。 第1画像から抽出された特定エリアの画像の一例を示す図である。 本開示の実施の形態2における出力装置の構成の一例を示すブロック図である。 本開示の実施の形態2おける出力装置の処理の一例を示すフローチャートである。 図14のステップS101の処理の詳細を示すフローチャートである。
 (本開示の基礎となる知見)
 老人施設及び病院等の施設において、施設を利用するユーザの排泄物の状態を管理することはユーザの健康を維持するうえで重要である。しかしながら、排泄物の状態を管理するために排泄物を示す画像そのものを記録してしまうと、ユーザのプライバシーを保護することができない。また、ユーザの健康状態を管理する施設の管理者に排泄物を示す画像そのものを目視させることは管理者に心理的なストレスを与えてしまう。
 一方、ユーザの健康状態を十分に把握するためには、排泄物の色、量、及び形状、下痢便等の排泄物の内容、並びに排泄物に付着する血の量及び分布等の排泄物そのもの状態が特定可能な情報を管理者は把握する必要がある。しかしながら、このような情報を管理者に把握させる場合、必ずしも排泄物を具体的に示す画像を管理者に提示する必要はなく、排泄物をおおまかに示す画像を管理者に提示すれば十分であることが知見された。
 上述の特許文献1では、排泄物の画像が提示されていないため、管理者は、排泄物の色、量、及び形状、下痢便等の排泄物の内容、並びに排泄物に付着する血の量及び分布等の情報を把握できず、管理者が排泄者の健康状態を精度よく把握するには不十分である。
 本開示は、これらの課題を解決するためになされたものであり、排泄者のプライバシーの保護と排泄者を管理する管理者の心理的なストレスの抑制とを図りつつ、排泄物そのものの状態が特定可能な情報を出力する技術を提供することを目的とする。
 本開示の一態様における出力装置は、排泄物の情報を出力する出力装置であって、便器のボウル内を撮影するカメラにより撮影された前記排泄物を含む第1画像を取得する取得部と、前記第1画像は1又は複数の色成分を含み、取得された前記第1画像を複数の分割エリアに分割する分割部と、分割された各分割エリアの色成分毎の代表値を含むエリア代表値を算出する算出部と、算出された前記エリア代表値を出力する出力部と、を備える。
 この構成によれば排泄物を含む第1画像が取得され、第1画像が複数の分割エリアに分割され、各分割エリアの色成分毎の代表値を含むエリア代表値が算出され、エリア代表値が出力される。このように、排泄物そのものを示す画像ではなく、各分割エリアの色成分毎の代表値を含むエリア代表値が出力されている。これにより、排泄物を大まかに示す画像を提示することが可能となり、排泄者のプライバシーの保護と、排泄者の管理者の心理的なストレスの抑制とを図りつつ、排泄物そのものの状態を示す情報が特定可能な情報を出力することができる。
 上記出力装置において、前記取得部は、前記カメラにより撮影された前記排泄物を含まない第2画像をさらに取得し、取得された前記第2画像から前記便器が有する排水口を示す画素を含む画素群を抽出する抽出部を更に備え、前記分割部は、前記第1画像から前記画素群を除去し、除去した前記第1画像を複数の分割エリアに分割してもよい。
 本構成によれば、便器が有する排水口を示す画素を含む画素群が第1画像から除去され、画素群が除去された第1画像が複数の分割エリアに分割されているため、排水口の情報を省いた上でエリア代表値を算出することができる。そのため、排泄物の状態をより精度よく示すエリア代表値を算出することができる。
 上記出力装置において、前記画素群は、前記便器に付着する汚れを示す画素を含んでもよい。
 この構成によれば、第1画像から除去される画素群には、便器に付着する汚れを示す画素が含まれるため、便器に付着する汚れの情報を省いた上でエリア代表値を算出することができる。そのため、排泄物の状態をより精度よく示すエリア代表値を算出することができる。
 上記出力装置において、前記抽出部は、前記第2画像において、前記排水口を除く前記ボウルの所定の部位に対応する領域おける各色成分の代表値を含む便器代表値を算出し、前記便器代表値に対して所定範囲外の画素値を有する画素を、前記画素群の画素として抽出してもよい。
 この構成によれば、排出物が含まれていない第2画像において、便器代表値に対して所定範囲外の画素値を有する画素が除去対象の画素群の画素として抽出されるため、便器に付着する汚れを示す画素及び便器の排水口を示す画素を第1画像からの除去対象となる画素群として抽出することができる。
 上記出力装置において、前記抽出部は、前記画素群を抽出する処理を、前記出力装置の設置時又は定期的に実行してもよい。
 この構成によれば、出力装置の設置時に画素群が抽出されているため、便器の設置環境等を考慮に入れて、個々の便器が持つ排水口及び汚れを正確に示す画素群を算出することができる。また、定期的に画素群を抽出することで、随時変動する便器に付着する汚れを示す画素群を抽出することができる。
 上記出力装置において、前記第1画像から前記排泄物の状態を検出する状態検出部をさらに備え、前記分割部は、検出された前記状態に基づいて前記複数の分割エリアの分割数を決定してもよい。
 この構成によれば、排泄物の状態に応じて分割エリアの分割数が決定されるため、例えば疾病の可能性が高い排泄物については分割エリアの分割数を増やすことが可能となり、それによって管理者は、排泄物をより詳細に観察することができ、排泄者の疾病を早期に検出することができる。
 上記出力装置において、前記分割部は、前記排泄物の状態が血を含む状態及び消化不良便を含む状態の少なくとも一方である場合、前記分割数を増大してもよい。
 この構成によれば、排泄物の状態が血を含む状態及び消化不良便を含む状態の少なくとも一方である場合、分割数が増大されるため、このようなケースにおいて、管理者は排泄物をより詳細に観察することができ、排泄者の疾病を早期に検出することができる。
 上記出力装置において、前記算出部は、前記複数の分割エリアのうち前記排泄物の輪郭を含む分割エリアを検出した場合、検出した前記分割エリアについては、前記排泄物を示す画素のみを用いて前記エリア代表値を算出してもよい。
 第1画像を複数の分割エリアに分割した場合、排泄物の輪郭を含む分割エリアには排泄物を示す画素と便器を示す画素とが含まれる。このような分割エリアに対して全画素を用いてエリア代表値を算出すると、エリア代表値には便器の情報が含まれてしまい、排泄物の情報を正確に表すことができなくなる。
 この構成によれば、排泄物の輪郭を含む分割エリアについては、排泄物を示す画素のみを用いてエリア代表値が算出されるため、エリア代表値は排泄物の情報を正確に示すことができる。
 上記出力装置において、前記分割部は、前記便器の排水口を含む予め定められた前記第1画像内の特定エリアを前記複数の分割エリアに分割してもよい。
 この構成によれば、排水口を含む第1画像内の特定エリアが複数の分割エリアに分割されるため、排泄物が存在する可能性が高い領域に絞ってエリア代表値を算出することができ、処理の効率化を図ることができる。
 上記出力装置において、前記出力部は、前記エリア代表値をネットワークを介して接続されたサーバに出力してもよい。
 この構成によれば、エリア代表値をサーバに管理させることができる。また、エリア代表値は、第1画像に比べてデータ量が大幅に少ないため、エリア代表値を速やかにサーバに送信できると共にサーバのメモリリソースの消費量を軽減することができる。
 上記出力装置において、前記1又は複数の色成分は、赤、緑、及び青の色成分を含んでもよい。
 この構成によれば、赤、緑、青の色成分毎の代表値を含むエリア代表値を算出することができる。
 上記出力装置において、前記エリア代表値は、各分割エリアの色成分毎の画素値の平均値であってもよい。
 この構成によれば、エリア代表値は色成分毎の画素値の平均値である、各色成分の特徴を十分に示すエリア代表値を算出できる。
 本開示の別の一態様における方法は、排泄物の情報を出力する出力装置における方法であって、前記出力装置のプロセッサが、便器のボウル内を撮影するカメラにより撮影された前記排泄物を含む第1画像を取得し、前記第1画像は1又は複数の色成分を含み、取得された前記第1画像を複数の分割エリアに分割し、分割された各分割エリアの色成分毎の代表値を含むエリア代表値を算出し、算出された前記エリア代表値を出力する。
 この構成によれば、上記出力装置の作用効果を奏する方法を提供できる。
 本開示のさらに別の一態様におけるプログラムは、排泄物の情報を出力する出力装置としてコンピュータを機能させるプログラムであって、前記出力装置のプロセッサに、便器のボウル内を撮影するカメラにより撮影された前記排泄物を含む第1画像を取得し、前記第1画像は1又は複数の色成分を含み、取得された前記第1画像を複数の分割エリアに分割し、分割された各分割エリアの色成分毎の代表値を含むエリア代表値を算出し、算出された前記エリア代表値を出力する、処理を実行させる。
 この構成によれば、上記出力装置の作用効果を奏するプログラムを提供できる。
 本開示のさらに別の一態様における表示装置は、排泄物の情報を表示する表示装置であって、前記排泄物を含む1以上の色成分を含む画像を分割することにより得られる複数の分割エリアのそれぞれの色成分毎の代表値を含むエリア代表値を取得する取得部と、各分割エリアを、各分割エリアに対応する前記エリア代表値で表示する表示画像を生成する生成部と、生成された表示画像をディスプレイに表示する出力部と、を備える。
 この構成によれば、各分割エリアが、各分割エリアに対応するエリア代表値で表示される表示画像がディスプレイに表示されるため、排泄者のプライバシーの保護と、排泄者の管理者の心理的なストレスの抑制とを図りつつ、排泄物そのものの状態が特定可能な情報を表示する表示画像を表示することができる。
 本開示のさらに別の一態様における方法は、排泄物の情報を表示する表示装置における方法であって、前記表示装置のプロセッサが、前記排泄物を含む1以上の色成分を含む画像を分割することにより得られる複数の分割エリアのそれぞれの色成分毎の代表値を含むエリア代表値を取得し、各分割エリアを、各分割エリアに対応する前記エリア代表値で表示する表示画像を生成し、生成された前記表示画像をディスプレイに表示する。
 この構成によれば、上記の表示装置の作用効果を奏する方法を提供できる。
 本開示のさらに別の一態様におけるプログラムは、排泄物の情報を表示する表示装置としてコンピュータを機能させるプログラムであって、前記表示装置のプロセッサに、前記排泄物を含む1以上の色成分を含む画像を分割することにより得られる複数の分割エリアのそれぞれの色成分毎の代表値を含むエリア代表値を取得し、各分割エリアを、各分割エリアに対応する前記エリア代表値で表示する表示画像を生成し、生成された前記表示画像をディスプレイに表示する、処理を実行させる。
 この構成によれば、上記の表示装置の作用効果を奏するプログラムを提供できる。
 本開示は、このようなプログラムを、CD-ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
 なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。
 (実施の形態1)
 図1は、本開示の実施の形態1における排泄物管理システム1の全体構成の一例を示すブロック図である。排泄物管理システム1は、老人施設及び病院等の施設に導入されるシステムであり、施設を利用するユーザの排泄物の状態を管理する。ユーザは、例えば、老人施設において介護を受ける被介護者及び病院において治療を受ける患者である。
 排泄物管理システム1は、出力装置2、サーバ3、表示装置4、及びセンサユニット5を含む。出力装置2、サーバ3、及び表示装置4は、ネットワークNTを介して相互に通信可能に接続されている。ネットワークNTは、例えばインターネット通信網及び携帯電話通信網を含む広域通信網である。出力装置2及びセンサユニット5は便器に設置され、通信路6を介して通信可能に接続されている。通信路6は、例えばBluetooth(登録商標)、赤外線通信、及びNFC等の近距離無線通信の通信路である。なお、通信路6は、有線の通信路であってもよい。
 出力装置2は、センサユニット5が取得したセンシングデータを通信路6を介して取得する。出力装置2は、センシングデータを解析して、後述するエリア代表値を算出し、算出したエリア代表値を含む通信データをサーバ3に送信する。サーバ3は、通信データに含まれるエリア代表値を含む排泄履歴情報を生成し、後述する排泄履歴データベースに保存する。表示装置4は、必要に応じてサーバ3からネットワークNTを介して排泄履歴情報を取得し、排泄履歴情報に含まれるエリア代表値から後述する表示画像を生成し、生成した表示画像をディスプレイに表示する。センシングデータは、後述する画像及び着座データを含む。
 サーバ3は、例えば1以上のコンピュータを含むクラウドサーバである。表示装置4は、例えば管理者が所持するコンピュータである。表示装置4は、例えば、据え置き型のコンピュータであってもよいし、スマートフォンであってもよいし、タブレット型コンピュータであってもよい。管理者は、例えば被介護人の介護者、ケアマネージャー、又は患者の治療を担当する医師等である。
 図2は、本開示の実施の形態1におけるセンサユニット5及び出力装置2の配置位置を説明するための図である。図2に示すように、便器101は、ボウル部101a及び縁部101bを含む。縁部101bは、便器101の上端に配置され、便器101の開口部を画定する部材である。ボウル部101aは、縁部101bの下側に配置され、排便及び排尿を受ける部材である。センサユニット5は、縁部101bに掛けられている。
 ボウル部101aの底部には、不図示の排水口が設けられている。ボウル部101a内に排泄された排泄物は、排水口を通って下水管へと流される。すなわち、便器101は、水洗式の便器である。また、便器101の上部には、ユーザが座るための便座102が設けられている。便座102は、上下に回動する。ユーザは、便座102を便器101上に下ろした状態で座る。便器101の後方には、排泄物を下水道に流すための洗浄水を蓄える貯水タンク103が設けられている。
 図3は、図1に示す出力装置2及びセンサユニット5の構成の一例を示すブロック図である。センサユニット5は、カメラ51及び着座センサ52を含む。カメラ51は、ボウル部101aが撮影可能に便器101に設置されている。カメラ51は、例えば、高感度且つ広角のカメラであって、R(赤)成分、G(緑)成分、及びB(青)の3色の色成分を有するカラー画像が撮像可能なカメラである。但しこれは一例であり、カメラ51は、モノクロカメラであってもよい。物体検出分野においては、赤外発光ダイオードと白色発光ダイオードとで物体を照射し、物体を撮影するカメラが広く用いられている。しかしながら、このような従来のカメラでは、特に赤系の色成分を多く有する物体の検知が困難であったため、排便及び排尿の区別が困難であった。そこで、本実施の形態では、カメラ51として、高感度且つ広角のカメラが採用されている。具体的には、カメラ51は、1/4インチのCMOSを有する高感度カメラで構成されている。また、カメラ51は、水平方向の画角が120度、垂直方向の画角が100度の広角カメラで構成されている。なお、これら、インチ数及び画角数の数値は一例にすぎず、他の値が採用されてもよい。カメラ51は、所定のフレームレートでボウル部101aの内部を撮像し、得られた画像を出力装置2に送信する。
 着座センサ52は、ユーザが便座102に座っているか否かを検出する。着座センサ52は、例えばボウル部101aの周囲の照度を検出する照度センサ及びボウル部101aの周囲の物体の距離を検出する測距センサを含む。ユーザが便座102に座ると開口部が臀部で塞がれるため、ボウル部101aの周囲は暗くなり、且つ、センサユニット105の近傍に物体が存在することになる。そのため、照度センサ及び測距センサを用いてユーザが便座102に座ったか否かを検出することが可能となる。なお、着座センサ52は、照度センサ及び測距センサに代えて、便座102に座ったユーザの圧力を検出する圧力センサで構成されてもよい。着座センサ52が圧力センサで構成される場合、着座センサ52は便座102に設けられる。また、着座センサ52は、照度センサ及び測距センサのいずれか一方で構成されてもよい。着座センサ52は、所定のサンプリングレートでユーザの着座の有無を検知し、検知結果を示す着座データを常時、出力装置2に出力する。
 出力装置2は、通信回路21、プロセッサ22、及びメモリ23を含む。通信回路21は、出力装置2とネットワークNT及び通信路6に接続する通信回路である。通信回路21は、所定のフレームレートで、カメラ51から送信される画像を受信する。所定のフレームレートは、例えば1~120fpsの範囲内の任意の値を有する。通信回路21は、所定のサンプリングレートで着座センサ52から送信される着座データを受信する。また、通信回路21は、通信データをサーバ3に送信する。
 プロセッサ22は、例えば中央演算処理装置で構成され、取得部221、抽出部222、分割部223、算出部224、及び出力部225を含む。なお、取得部221~出力部225は、所定のプログラムをプロセッサ22が実行することで実現されてもよいし、専用のハードウェア回路で構成されてもよい。
 取得部221は、カメラ51により撮影された排泄物を含む画像である第1画像を通信回路21を用いて取得する。また、取得部221は、カメラ51により撮影された排泄物を含まない画像である第2画像を通信回路21を用いて取得する。また、取得部221は、着座データを通信回路21を用いて取得する。
 抽出部222は、第2画像から便器101が有する排水口を示す画素及び便器に付着した汚れを示す画素を含む画素群を抽出し、メモリ23に保存する。メモリ23に保存される画素群を画素群231と表す。画素群231は以下に示すキャリブレーションによって事前に算出される。
 キャリブレーションの詳細は下記の通りである。まず、抽出部222は、第2画像において、排水口を除くボウル部101aの所定の部位に対応する基準領域における各色成分の代表値を含む便器代表値を算出する。次に、抽出部222は、第2画像から後述する特定エリアを抽出する。次に、抽出部222は、抽出した特定エリアにおいて、便器代表値に対して所定範囲外の画素値を有する画素を含む画素群を抽出する。便器代表値は、便器101の色の代表値であり、R、G、Bの3つの色成分の代表値を含む。代表値は例えばR、G、Bそれぞれの画素の平均値又は中央値である。第2画像において、基準領域の座標は、カメラ51の便器101に対する取付位置及び画角から予め算出された座標が採用される。便器代表値に対して所定範囲とは、例えば、便器代表値が示す色と実質的に同一とみなせる色を示す画素値の範囲を指す。便器代表値は、R,G,Bの3つの代表値から構成されているため、対象画素のR,G,Bの画素値の少なくとも1つが対応する色の代表値に対して所定範囲外であれば、対象画素は、画素群を構成する画素として抽出される。
 分割部223は、第1画像から、便器101の排水口を含む予め定められた領域である特定エリアを抽出する。第1画像における特定エリアの座標はカメラ51の便器101に対する取付位置及び画角から予め算出された座標が採用される。分割部223は、特定エリアから画素群231を除去し、画素群231が除去された特定エリアを複数の分割エリアに分割する。ここでは、分割部223は、特定エリアを8×8=64個の分割エリアに分割するものとする。但し、これは一例であり、分割部223は、2×2=4個、4×4=16個等の適宜の分割数で特定エリアを分割してもよい。
 算出部224は、各分割エリアの色成分毎の代表値を含むエリア代表値を算出する。ここで、算出部224は、複数の分割エリアのうち排泄物の輪郭を含む分割エリアを検出した場合、検出した分割エリアについては、排泄物を示す画素のみを用いてエリア代表値を算出する。これにより、排泄物の情報のみを用いてエリア代表値を算出することができる。エリア代表値は、各分割エリアを構成する、R,G,Bのそれぞれの画素値の代表値により構成される。代表値は、例えば平均値又は中央値である。
 出力部225は、各分割エリアのエリア代表値を出力する。ここで、出力部225は、エリア代表値と、排泄者の識別子であるユーザIDと、排泄日時を示すタイムスタンプとを含む通信データを生成し、その通信データを通信回路21を用いてサーバ3に送信する。
 メモリ23は、例えばフラッシュメモリ等の書き換え可能な不揮発性の記憶装置で構成される。メモリ23は、画素群231及び便器代表値232を記憶する。画素群231は上述のキャリブレーションにより予め算出される。便器代表値232は、上述のキャリブレーションにより予め算出される。
 図4は、サーバ3の構成の一例を示すブロック図である。サーバ3は、通信回路31、プロセッサ32、及びメモリ33を含む。通信回路31は、サーバ3をネットワークNTに接続させる。プロセッサ32は例えばCPUで構成され、サーバ3の全体制御を司る。例えばプロセッサ32は、出力装置2から送信された通信データを通信回路31を用いて取得し、その通信データに含まれるエリア代表値、ユーザID、及びタイムスタンプを対応付けて排泄履歴情報を生成し、生成した排泄履歴情報を排泄履歴データベース331に格納する。
 メモリ33は、ソリッドステートドライブ又はハードディスクドライブ等の不揮発性の記憶装置で構成され、排泄履歴データベース331を記憶する。排泄履歴データベース331は、1つのレコードに1つの排泄履歴情報を記憶するデータベースである。
 図5は、表示装置4の構成の一例を示すブロック図である。表示装置4は、通信回路41、プロセッサ42、メモリ43、ディスプレイ44、及び操作部46を含む。通信回路41は、表示装置4をネットワークNTに接続させる。通信回路41は、サーバ3から排泄履歴情報を受信する。
 プロセッサ42は、例えばCPUで構成され、取得部421、生成部422、及び出力部423を含む。取得部421~出力部423の各構成要素はCPUが所定のプログラムを実行することで実現される。但し、これは一例であり、取得部421~出力部423は、専用のハードウェア回路で構成されてもよい。
 取得部421は、サーバ3から送信された排泄履歴情報を通信回路41を用いて取得する。これにより、取得部421は、第1画像を分割することにより得られる複数の分割エリアのそれぞれの色成分毎の代表値を含むエリア代表値を取得することができる。
 生成部422は、各分割エリアを、各分割エリアに対応するエリア代表値で表示する表示画像を生成する。例えば、ある分割エリアを対象分割エリアとすると、生成部422は、対象分割エリアの各画素のR,G,Bの画素値を、対象分割エリアに対応するエリア代表値に含まれるR,G,Bの代表値に設定する。生成部422は、全ての分割エリアについてこのような処理を行うことで、表示画像を生成する。これにより、図11に示すような表示画像G3が得られる。
 出力部423は、生成部422により生成された表示画像をディスプレイ44に出力する。
 メモリ43は、例えばフラッシュメモリ等の不揮発性の書き換え可能な記憶装置で構成されている。
 ディスプレイ44は、例えば液晶表示パネル及び有機ELパネル等の表示装置で構成されている。
 操作部46は、キーボード、マウス、及びタッチパネル等で構成され、ユーザからの指示を受け付ける。
 以上が排泄物管理システム1の構成である。続いて排泄物管理システム1の処理について説明する。図6は、本開示の実施の形態1における出力装置2の処理の一例を示すフローチャートである。
 ステップS1において、取得部221は、着座データに基づいてユーザが便器101に着座したか否かを判定する。例えば、着座データは、ユーザが着座している場合、着座を示す「ON」データを含む。また、着座データは、ユーザが着座していない場合、着座していないことを示す「OFF」データを含む。したがって、取得部221は、着座データが「ON」データを含めば、ユーザが着座したと判定し、着座データが「OFF」データを含めば、ユーザは着座していないと判定すればよい。
 ユーザが便器101に着座したと判定された場合(ステップS1でYES)、取得部221は、カメラ51から画像を取得する。一方、ユーザが便器101に着座していないと判定された場合(ステップS1でNO)、処理はステップS1で待機する。
 ステップS3において、分割部223は、ボウル部101aに排泄物があるか否かを検知する。具体的には、分割部223は、画像から特定エリアを抽出し、抽出した特定エリアから画素群231を除去する。そして、分割部223は、画素群231が除去された特定エリアにおいて、便器代表値232に対して所定範囲外の画素値を有する画素が所定個数以上存在すれば、当該画素からなる画素群を排泄物を示す画像とみなして、ボウル部101aに排泄物があると判定すればよい。一方、分割部223は、画素群231が除去された特定エリアにおいて、便器代表値232に対して所定範囲外の画素値を有する画素が存在しない、又は、便器代表値232に対して所定範囲外の画素値を有する画素が存在するが、その画素が所定個数未満の場合、ボウル部101aに排泄物がないと判定すればよい。以下、排泄物が検知された画像は、上述したように第1画像と称する。ここで検出される排泄物には、大便及び尿が含まれる。
 排泄物が検知された場合(ステップS3でYES)、処理はステップS4に進み、排泄物が検知されていない場合(ステップS3でNO)、処理はステップS2に戻り、次の画像が取得される。
 ステップS4において、分割部223は、第1画像から特定エリアを抽出する。図10に示すように特定エリア80は、第1画像において、排水口104の全部又は一部を含む四角形の領域である。
 ステップS5において、分割部223は、特定エリア80から画素群231を除去する。画素群231は、図10に示すように特定エリア80内における排水口104及び便器101に付着する汚れ等を示す画素を含む。
 ステップS6において、分割部223は、画素群231が除去された特定エリア80を8×8=64個の分割エリアに分割する。図9は、分割エリア8に分割された特定エリア80の一例を示す図である。特定エリア80は、縦方向に8個、横方向に8個の、8×8=64個の分割エリア8に分割される。
 ここで、各分割エリア8のそれぞれには、1から64のインデックスが付与されている。この例では、インデックスが1の分割エリア8は8(1)、インデックスが8の分割エリア8は8(8)というように分割エリア8に参照符号が付されている。図9では説明の便宜上、排泄物がない画像が示されているが、実際には、排泄物がある画像、すなわち第1画像の特定エリア80が分割エリア8に分割される。
 図6に参照を戻す。ステップS7において、算出部224は、各分割エリア8のエリア代表値を算出する。ここでは、分割エリア8が64個であるため、64個のエリア代表値が算出される。なお、算出部224は、排泄物の輪郭を含む分割エリアを検出した場合、当該分割エリアについては、排泄物を示す画素のみを用いてエリア代表値を算出すればよい。例えば、算出部224は、ステップS3で抽出された排泄物を示す画像から輪郭を検出し、検出した輪郭を含む分割エリア8を排泄物の輪郭を含む分割エリア8として検出すればよい。
 ステップS8において、取得部221は、着座データから、ユーザが便器101から離れ非着座になったか否かを検知する。非着座が検知された場合(ステップS8でYES)、処理はステップS9に進む。一方、非着座が検知されなかった場合(ステップS8でNO)、すなわち、ユーザが便器101への着座を継続している場合、処理はステップS2に戻る。これにより、次の画像に対してステップS2~S7の処理が実施される。
 ステップS9において、出力部225は、エリア代表値を含む通信データを、通信回路21を用いてサーバ3に送信する。具体的には、出力部225は、排泄したユーザのユーザIDと、タイムスタンプと、エリア代表値を含む通信データをサーバ3に送信する。各エリア代表値には自身の分割エリアの位置を示すインデックスが対応付けられている。
 このフローチャートでは、エリア代表値は、所定のフレームレートでカメラ51により撮影される各画像に対して算出される。したがって、ステップS2~S7の処理が複数の画像に適用された場合、通信データに含まれるエリア代表値は、複数の画像に対応するエリア代表値が含まれる。例えば、ステップS2~S7の処理がn枚の画像に対して適用された場合、nセットのエリア代表値が含まれる。1セットのエリア代表値は64個のエリア代表値から構成される。
 このように、図6の処理では、通信データには、第1画像ではなく、nセットのエリア代表値が含まれている。ここで、1セットのエリア代表値は、64個のエリア代表値を含んでおり、各エリア代表値は、R,G,Bのそれぞれの代表値から構成されている。例えば、1つの色成分の代表値が8ビットで表されるとすると、1セットのエリア代表値のデータ量は、高々24×64ビットである。そのため、通信データにnセットのエリア代表値を含ませたとしても、第1画像又は特定エリア80を通信データに含ませる態様を採用する場合に比べて、通信データのデータ量が大幅に抑制され、通信負荷が大幅に削減される。さらに、サーバ3は画像データ又は特定エリア80を排泄履歴データベース331に保存しなくて済み、サーバ3のメモリリソースの消費量も大幅に抑制される。
 さらに、通信データに含まれるエリア代表値は、nセットのエリア代表値の平均値であってもよい。これにより、通信データのデータ量を更に抑制することができる。
 図7は、表示装置4が表示画像を表示する際の処理の一例を示す図である。ステップS20において、取得部421は、通信回路41を用いて排泄履歴情報の取得要求をサーバ3に送信する。ここで、管理者は、所定のアプリケーションを起動させることで、ディスプレイ44に所定の入力画面を表示させ、操作部46を操作することで、この入力画面に必要事項を入力すればよい。取得部421は、入力された必要事項を含む取得要求を生成し、サーバ3に送信すればよい。必要事項には、例えばユーザID、及び取得対象となる排泄履歴情報の期間等が含まれる。この取得要求を受信したサーバ3は、排泄履歴データベース331から、取得要求に含まれるユーザID及び期間に対応する排泄履歴情報を取得し、取得した排泄履歴情報を表示装置4に送信する。
 ステップS21において、取得部421は、通信回路41を用いて排泄履歴情報を取得する。これにより、取得部421は、該当するユーザIDを有するユーザの該当する期間におけるエリア代表値を取得できる。ここでは、nセットのエリア代表値が取得されたものとする。以下、nセットのエリア代表値のうち処理対象となる1セットのエリア代表値を対象セットのエリア代表値として説明する。
 ステップS22において、生成部422は、対象セットのエリア代表値について、各分割エリアを、各分割エリア8に対応するエリア代表値で表示する表示画像を生成する。ここでは、分割エリア8は64個であるため、64個の分割エリア8のそれぞれについて、分割エリア8内の全画素の画素値が分割エリア8に対応するエリア代表値に設定される。これにより、8×8の64枚のパネルからなる表示画像が生成される。なお、生成部422は、nセットのエリア代表値のそれぞれについてこのような処理を実行し、n枚の表示画像を生成する。
 ステップS23において、出力部423は、表示画像をディスプレイ44に表示する。ここで、出力部423は、n枚の表示画像のうち代表的な1枚の表示画像をディスプレイに表示してもよい。代表的な1枚の表示画像は、例えば、n枚の表示画像のうち、排泄時刻が先頭、中央、又は最後に位置する表示画像であってもよいし、排泄物のサイズが最大の表示画像であってもよい。また、出力部423は、操作部46に入力された管理者からの操作に応じて、n枚の表示画像のうちディスプレイ44に表示する表示画像を切り替えてもよい。或いは、出力部423は、n枚の表示画像を時系列順に所定のフレームレートで切り替えながらディスプレイ44に表示してもよい。
 図11は、表示画像G3の一例を示す図である。図12は、第1画像から抽出された特定エリア80の画像G1の一例を示す図である。図11に示す表示画像G3は図12に示す画像G1から生成された表示画像である。表示画像G3は、8×8=64個のパネル1101から構成されている。各パネル1101は、各分割エリア8に対応している。
 画像G1は排泄物そのものを示す画像である。したがって、この画像G1をそのままディスプレイ44に表示すると、ユーザのプライバシーの保護を図ることができないと共に、管理者への心理的ストレスも増大してしまう。
 これに対して、本実施の形態では、表示画像G3がディスプレイ44に表示される。表示画像G3は、64個のパネル1101から構成されており、各パネル1101は、各パネル1101に対応する分割エリア8のエリア代表値が示す色で構成される一色の画像である。したがって、表示画像G3は、排泄物そのものを示す画像G1を表示する場合に比べて、ユーザのプライバシーを保護することができると共に、管理者の心理的ストレスを抑制することができる。また、表示画像G3は、パネル1101単位で排泄物の情報が表示されているため、排泄物の色、形、及び大きさ等をおおまかに管理者に把握させることができる。これにより、管理者は、ユーザの排泄物の状態を把握し、ユーザの健康状態を精度よく把握することができる。
 図8は、出力装置2におけるキャリブレーション処理の一例を示すフローチャートである。キャリブレーション処理は、便器101に出力装置2及びセンサユニット5が設置される際に実行される。或いは、キャリブレーション処理は、設置時に加えて、設置後、定期的に実行されてもよい。キャリブレーション処理の周期は例えば1日、2日、1週間、1か月等の適宜の時間である。ここでは、1日ごとにキャリブレーション処理が実行されるものとする。
 ステップS41において、取得部221は、カメラ51から排泄物が含まれていない画像である第2画像を取得する。
 ステップS42において、抽出部222は、便器代表値を算出する。便器代表値の算出の詳細は下記の通りである。図10は、キャリブレーション処理の説明図である。まず、抽出部222は、第2画像G2から、第2画像G2の予め定められた座標に位置する基準領域90を抽出する。次に、抽出部222は、基準領域90を構成する各画素の画素値の平均値又は中央値をR,G,Bそれぞれについて算出することで、R,G,Bそれぞれの代表値を算出する。これにより、R,G,Bの代表値から構成される便器代表値が算出される。基準領域90は、第2画像G2において便器101の色の特徴が最もよく現れる領域に設定されている。そのため、便器代表値が便器101を代表する色を示すことができる。図10の例では、表H1に示すように、Rの代表値が「36」、Gの代表値が「49」、Bの代表値が「42」である便器代表値が算出されている。但し、各代表値は8ビット、すなわち、0~255の値を有するデータである。
 図8に参照を戻す。ステップS43において、抽出部222は、第2画像から特定エリア80を抽出する。ここで抽出される特定エリア80の座標は第1画像から抽出される特定エリア80の座標と同じである。
 ステップS44において、抽出部222は、特定エリア80において、便器代表値に対して所定範囲外の画素値を有する画素を含む画素群を抽出する。これにより、図10に示すように、特定エリア80において、排水口104及び便器101に付着する汚れ等を示す画素が画素群231として抽出される。
 ステップS45において、抽出部222は、画素群231をメモリ23に保存する。
 以後、排水口104及び便器101に付着する汚れ等を示す画素群231が第1画像から抽出された特定エリア80から除去された上で、エリア代表値が算出される。これにより、排泄物の状態をより精度よく示すエリア代表値を算出することができる。
 (実施の形態2)
 実施の形態2は、排泄物の状態に基づいて分割エリア8の分割数を変更するものである。図13は、本開示の実施の形態2における出力装置2Aの構成の一例を示すブロック図である。なお、本実施の形態において、実施の形態1と同一の構成要素には同一の符号を付し、説明を省略する。
 プロセッサ22Aは、取得部221、抽出部222、分割部223A、算出部224、出力部225、及び状態検出部226を含む。分割部223Aは、状態検出部226が検出した排泄物の状態に基づいて分割エリア8の分割数を決定する。例えば、分割部223Aは、状態検出部226により検出された状態が排泄物が血を含む状態及び排泄物が消化不良便を含む状態の少なくとも一方である場合、分割数を増大する。
 状態検出部226は、第1画像から排泄物の状態を検出する。例えば、状態検出部226は、分割部223Aにより第1画像から抽出された排泄物を示す画像の色に基づいて、排泄物の状態を検出すればよい。検出される排泄物の状態には、血を含む状態、及び消化不良便を含む状態の少なくとも一方が含まれる。
 図14は、本開示の実施の形態2おける出力装置2Aの処理の一例を示すフローチャートである。図14において図6と同一の処理には同一の符号を付し、説明を省く。
 ステップS3において、分割部223Aによりボウル部101aに排泄物があることが検知された場合(ステップS3でYES)、状態検出部226は、排泄物の状態を検出する。ここでは、後述するように、第1~第4状態が検出されるものとする。第1状態は、血と消化不良便とを含む状態である。第2状態は、消化不良便のみを含む状態である。第3状態は血のみを含む状態である。第4状態は、血及び消化不良便を含まない状態である。したがって、排泄物の状態は、第1状態が最も悪く、次に第2状態、次に第3状態であり、第4状態は問題がない状態である。
 ステップS102において、分割部223Aは、検出された排泄物の状態に応じて分割数を決定する。例えば、分割部223Aは、第1状態、第2状態、及び第3状態の場合、分割数を第1分割数に決定し、第4状態の場合、分割数を第2分割数に決定すればよい。但し、第1分割数>第2分割数である。第2分割数は8×8=64のデフォルトの分割数である。第1分割数は、例えば、9×9=81の分割数である。なお、分割部223Aは、排泄物の状態が悪い状態になるにつれて分割エリア8の分割数を増大させてもよい。
 以後、図6と同様、ステップS4以降の処理が実行される。
 図15は、図14のステップS101の処理の詳細を示すフローチャートである。ステップS201において、状態検出部226は、分割部223Aにより抽出した排泄物を示す画像を分割部223Aから取得する。
 ステップS202において、状態検出部226は、排泄物を示す画像から排泄物に血が含まれているか否かを判定する。状態検出部226は、例えば排泄物を示す画像において、血を示す所定のRGB値に対して所定範囲内にある画素値を有する画素が所定個数以上あれば、排泄物に血が含まれていると判定する。一方、状態検出部226は、排泄物を示す画像において、血を示す所定のRGB値に対して所定範囲内の画素値を有する画素が所定個数未満であれば、排泄物に血が含まれていないと判定する。
 血を含むと判定された場合(ステップS202でYES)、処理はステップS203に進む。血を含まないと判定された場合(ステップS202でNO)、処理はステップS205に進む。
 ステップS203において、状態検出部226は、排泄物を示す画像から排泄物に消化不良便が含まれているか否かを判定する。ここで、状態検出部226は、排泄物を示す画像において消化不良便を示す所定のRGB値に対して所定範囲内の画素値を有する画素の個数が所定個数以上あれば、排泄物に消化不良便が含まれていると判定すればよい。一方、状態検出部226は、排泄物を示す画像において消化不良便を示す所定のRGB値に対して所定範囲内の画素値を有する画素の個数が所定個数未満であれば、排泄物に消化不良便が含まれていないと判定すればよい。
 消化不良便を含むと判定された場合(ステップS203でYES)、処理はステップS204に進み、消化不良便を含まないと判定された場合(ステップS203でNO)、処理はステップS207に進む。
 ステップS204において、状態検出部226は、排泄物に血及び消化不良便が含まれているため、排泄物の状態が第1状態であると判定する。
 ステップS207において、状態検出部226は、排泄物に消化不良便及び血のうち血のみが含まれているため、排泄物の状態は第3状態であると判定する。
 ステップS205において、状態検出部226は、消化不良便が含まれているか否かを判定する。この処理の詳細は、ステップS203と同じである。消化不良便が含まれていると判定された場合(ステップS205でYES)、処理はステップS206に進み、消化不良便が含まれていないと判定された場合(S205でNO)、処理はステップS208に進む。
 ステップS206において、状態検出部226は、排泄物に血及び消化不良便のうち消化不良便のみが含まれていたため、排泄物の状態が第2状態であると判定する。
 ステップS208において、状態検出部226は、排泄物に血及び消化不良便が含まれていないため、排泄物の状態は第4状態であると判定する。ステップS204、S206、S207、S208の処理が終了すると、処理は図14のステップS102に進む。
 このように、実施の形態2によれば、排泄物の状態が血を含む状態及び消化不良便を含む状態の少なくとも一方である場合、分割数が増大されるため、このようなケースにおいて、管理者は排泄物をより詳細に観察することができ、排泄者の疾病を早期に検出することができる。
 本開示は、老人施設及び病院等においてユーザの排泄物の健康状態を管理する上で有用である。

Claims (17)

  1.  排泄物の情報を出力する出力装置であって、
     便器のボウル内を撮影するカメラにより撮影された前記排泄物を含む第1画像を取得する取得部と、前記第1画像は1又は複数の色成分を含み、
     取得された前記第1画像を複数の分割エリアに分割する分割部と、
     分割された各分割エリアの色成分毎の代表値を含むエリア代表値を算出する算出部と、
     算出された前記エリア代表値を出力する出力部と、を備える、
     出力装置。
  2.  前記取得部は、前記カメラにより撮影された前記排泄物を含まない第2画像をさらに取得し、
     取得された前記第2画像から前記便器が有する排水口を示す画素を含む画素群を抽出する抽出部を更に備え、
     前記分割部は、前記第1画像から前記画素群を除去し、除去した前記第1画像を複数の分割エリアに分割する、
     請求項1記載の出力装置。
  3.  前記画素群は、前記便器に付着する汚れを示す画素を含む、
     請求項2記載の出力装置。
  4.  前記抽出部は、前記第2画像において、前記排水口を除く前記ボウルの所定の部位に対応する領域おける各色成分の代表値を含む便器代表値を算出し、前記便器代表値に対して所定範囲外の画素値を有する画素を、前記画素群の画素として抽出する、
     請求項2又は3記載の出力装置。
  5.  前記抽出部は、前記画素群を抽出する処理を、前記出力装置の設置時又は定期的に実行する、
     請求項2~4のいずれかに記載の出力装置。
  6.  前記第1画像から前記排泄物の状態を検出する状態検出部をさらに備え、
     前記分割部は、検出された前記状態に基づいて前記複数の分割エリアの分割数を決定する、
     請求項1~5のいずれかに記載の出力装置。
  7.  前記分割部は、前記排泄物の状態が血を含む状態及び消化不良便を含む状態の少なくとも一方である場合、前記分割数を増大する、
     請求項6記載の出力装置。
  8.  前記算出部は、前記複数の分割エリアのうち前記排泄物の輪郭を含む分割エリアを検出した場合、検出した前記分割エリアについては、前記排泄物を示す画素のみを用いて前記エリア代表値を算出する、
     請求項1~7のいずれかに記載の出力装置。
  9.  前記分割部は、前記便器の排水口を含む予め定められた前記第1画像内の特定エリアを前記複数の分割エリアに分割する、
     請求項1~8のいずれかに記載の出力装置。
  10.  前記出力部は、前記エリア代表値をネットワークを介して接続されたサーバに出力する、
     請求項1~9のいずれかに記載の出力装置。
  11.  前記1又は複数の色成分は、赤、緑、及び青の色成分を含む、
     請求項1~10のいずれかに記載の出力装置。
  12.  前記エリア代表値は、各分割エリアの色成分毎の画素値の平均値である、
     請求項1~11のいずれかに記載の出力装置。
  13.  排泄物の情報を出力する出力装置における方法であって、
     前記出力装置のプロセッサが、
     便器のボウル内を撮影するカメラにより撮影された前記排泄物を含む第1画像を取得し、前記第1画像は1又は複数の色成分を含み、
     取得された前記第1画像を複数の分割エリアに分割し、
     分割された各分割エリアの色成分毎の代表値を含むエリア代表値を算出し、
     算出された前記エリア代表値を出力する、
     方法。
  14.  排泄物の情報を出力する出力装置としてコンピュータを機能させるプログラムであって、
     前記出力装置のプロセッサに、
     便器のボウル内を撮影するカメラにより撮影された前記排泄物を含む第1画像を取得し、前記第1画像は1又は複数の色成分を含み、
     取得された前記第1画像を複数の分割エリアに分割し、
     分割された各分割エリアの色成分毎の代表値を含むエリア代表値を算出し、
     算出された前記エリア代表値を出力する、処理を実行させる、
     プログラム。
  15.  排泄物の情報を表示する表示装置であって、
     前記排泄物を含む1以上の色成分を含む画像を分割することにより得られる複数の分割エリアのそれぞれの色成分毎の代表値を含むエリア代表値を取得する取得部と、
     各分割エリアを、各分割エリアに対応する前記エリア代表値で表示する表示画像を生成する生成部と、
     生成された前記表示画像をディスプレイに表示する出力部と、を備える、
     表示装置。
  16.  排泄物の情報を表示する表示装置における方法であって、
     前記表示装置のプロセッサが、
     前記排泄物を含む1以上の色成分を含む画像を分割することにより得られる複数の分割エリアのそれぞれの色成分毎の代表値を含むエリア代表値を取得し、
     各分割エリアを、各分割エリアに対応する前記エリア代表値で表示する表示画像を生成し、
     生成された前記表示画像をディスプレイに表示する、
     方法。
  17.  排泄物の情報を表示する表示装置としてコンピュータを機能させるプログラムであって、
     前記表示装置のプロセッサに、
     前記排泄物を含む1以上の色成分を含む画像を分割することにより得られる複数の分割エリアのそれぞれの色成分毎の代表値を含むエリア代表値を取得し、
     各分割エリアを、各分割エリアに対応する前記エリア代表値で表示する表示画像を生成し、
     生成された前記表示画像をディスプレイに表示する、処理を実行させる、
     プログラム。
PCT/JP2021/017724 2020-06-26 2021-05-10 出力装置、方法、プログラム、及び表示装置 WO2021261096A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180044728.2A CN115702336A (zh) 2020-06-26 2021-05-10 输出装置、方法、程序以及显示装置
JP2022532383A JPWO2021261096A1 (ja) 2020-06-26 2021-05-10
US18/085,007 US20230122501A1 (en) 2020-06-26 2022-12-20 Output device, method, non-transitory computer readable recording medium and display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202063044723P 2020-06-26 2020-06-26
US63/044,723 2020-06-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/085,007 Continuation US20230122501A1 (en) 2020-06-26 2022-12-20 Output device, method, non-transitory computer readable recording medium and display device

Publications (1)

Publication Number Publication Date
WO2021261096A1 true WO2021261096A1 (ja) 2021-12-30

Family

ID=79282323

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/017724 WO2021261096A1 (ja) 2020-06-26 2021-05-10 出力装置、方法、プログラム、及び表示装置

Country Status (4)

Country Link
US (1) US20230122501A1 (ja)
JP (1) JPWO2021261096A1 (ja)
CN (1) CN115702336A (ja)
WO (1) WO2021261096A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162278A1 (ja) * 2022-02-28 2023-08-31 Toto株式会社 排泄物判定システム、排泄物判定方法及び排泄物判定装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007252805A (ja) * 2006-03-24 2007-10-04 Konica Minolta Holdings Inc データ検出装置及びデータ検出方法
JP2017513487A (ja) * 2014-04-17 2017-06-01 ユニバーシティー オブ メリーランド,カレッジ パーク アミノ酸代謝異常の検出のためのデバイス、及びデバイスを使用する方法
KR101876151B1 (ko) * 2017-12-13 2018-08-09 (주)에스티엠 시료 분석물 측정 방법
KR20190030822A (ko) * 2017-09-15 2019-03-25 임대환 개인 건강 분석 방법 및 유아용 스마트 변기
CN111305338A (zh) * 2020-02-14 2020-06-19 宁波五维检测科技有限公司 基于粪便生态评价的疾病预警系统、健康监测环以及马桶

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007252805A (ja) * 2006-03-24 2007-10-04 Konica Minolta Holdings Inc データ検出装置及びデータ検出方法
JP2017513487A (ja) * 2014-04-17 2017-06-01 ユニバーシティー オブ メリーランド,カレッジ パーク アミノ酸代謝異常の検出のためのデバイス、及びデバイスを使用する方法
KR20190030822A (ko) * 2017-09-15 2019-03-25 임대환 개인 건강 분석 방법 및 유아용 스마트 변기
KR101876151B1 (ko) * 2017-12-13 2018-08-09 (주)에스티엠 시료 분석물 측정 방법
CN111305338A (zh) * 2020-02-14 2020-06-19 宁波五维检测科技有限公司 基于粪便生态评价的疾病预警系统、健康监测环以及马桶

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162278A1 (ja) * 2022-02-28 2023-08-31 Toto株式会社 排泄物判定システム、排泄物判定方法及び排泄物判定装置

Also Published As

Publication number Publication date
CN115702336A (zh) 2023-02-14
US20230122501A1 (en) 2023-04-20
JPWO2021261096A1 (ja) 2021-12-30

Similar Documents

Publication Publication Date Title
Kavaliunas et al. Swedish policy analysis for Covid-19
Dempsey et al. Coastal blue space and depression in older adults
Meng et al. Global prevalence of digital addiction in general population: A systematic review and meta-analysis
Clouston et al. A social history of disease: contextualizing the rise and fall of social inequalities in cause-specific mortality
Corrao et al. Antihypertensive medications, loop diuretics, and risk of hip fracture in the elderly: a population-based cohort study of 81,617 Italian patients newly treated between 2005 and 2009
Holtfreter et al. Epidemiology of periodontal diseases in the Study of Health in Pomerania
Cheah et al. The determinants of participation in physical activity in Malaysia
Young et al. Using social media as a tool to predict syphilis
Monteiro et al. The interrelation of demographic and geospatial risk factors between four common sexually transmitted diseases
Al Wahaibi et al. COVID-19 epidemic monitoring after non-pharmaceutical interventions: The use of time-varying reproduction number in a country with a large migrant population
Yang et al. Agreement between video footage and fall incident reports on the circumstances of falls in long-term care
Bierman et al. Swimming upstream: access, health outcomes, and the social determinants of health
WO2021261096A1 (ja) 出力装置、方法、プログラム、及び表示装置
Guillaume et al. Patient navigation to reduce social inequalities in colorectal cancer screening participation: A cluster randomized controlled trial
US10977925B2 (en) Display system for usage compliance of hygiene equipment
Watson et al. Report 39: characterising COVID-19 epidemic dynamics and mortality under-ascertainment in Khartoum, Sudan
Banerjee et al. Exploratory analysis of older adults’ sedentary behavior in the primary living area using kinect depth data
Nolan et al. The benefits of heterogeneity in spatial prioritisation within coral reef environments
Lomi et al. How to close a hole: Exploring alternative closure mechanisms in interorganizational networks
Silhol et al. Quantifying the evolving contribution of HIV interventions and key populations to the HIV epidemic in Yaoundé, Cameroon
Zhang et al. The association between human perceived heat and early-stage syphilis and its variance: Results from a case-report system
Binney et al. Excess Pneumonia Mortality During a Legionnaires’ Disease Outbreak in Flint, Michigan
Kaster et al. A practical overview and decision tool for analyzing recurrent events in mental illness: A review
US20230074448A1 (en) Excrement determination method, excrement determination device, and non-transitory computer readable recording medium
Hareva et al. Retracted: The smart device for healthcare service: Iris diagnosis application

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21830271

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022532383

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21830271

Country of ref document: EP

Kind code of ref document: A1