WO2022124190A1 - 情報処理装置、情報処理方法、及び記録媒体 - Google Patents

情報処理装置、情報処理方法、及び記録媒体 Download PDF

Info

Publication number
WO2022124190A1
WO2022124190A1 PCT/JP2021/044234 JP2021044234W WO2022124190A1 WO 2022124190 A1 WO2022124190 A1 WO 2022124190A1 JP 2021044234 W JP2021044234 W JP 2021044234W WO 2022124190 A1 WO2022124190 A1 WO 2022124190A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
score
intestinal
acquisition unit
sound
Prior art date
Application number
PCT/JP2021/044234
Other languages
English (en)
French (fr)
Inventor
典正 金川
ゆうか 久津見
満広 ゼイ田
Original Assignee
サントリーホールディングス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サントリーホールディングス株式会社 filed Critical サントリーホールディングス株式会社
Priority to JP2022568233A priority Critical patent/JPWO2022124190A1/ja
Priority to EP21903294.3A priority patent/EP4257052A1/en
Priority to US18/265,546 priority patent/US20230386675A1/en
Priority to CN202180082366.6A priority patent/CN116600717A/zh
Priority to KR1020237012659A priority patent/KR20230117098A/ko
Publication of WO2022124190A1 publication Critical patent/WO2022124190A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4222Evaluating particular parts, e.g. particular organs
    • A61B5/4238Evaluating particular parts, e.g. particular organs stomach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/42Detecting, measuring or recording for evaluating the gastrointestinal, the endocrine or the exocrine systems
    • A61B5/4222Evaluating particular parts, e.g. particular organs
    • A61B5/4255Intestines, colon or appendix
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/008Detecting noise of gastric tract, e.g. caused by voiding
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation

Definitions

  • the present invention relates to an information processing device, an information processing method, and a recording medium capable of acquiring information on the condition of the intestine of one user.
  • Patent Document 1 a configuration of a health management support system configured to acquire and record user health management information and output a message related to health management to the user based on the content. Is described.
  • the intestine small intestine and large intestine
  • the intestine is known as one of the important organs as a place for digestion and absorption of nutrients and as a place for symbiosis with intestinal bacteria.
  • intestinal activity has been increasing along with the word "intestinal activity”.
  • Patent Document 2 describes an analyzer that evaluates gastrointestinal motility for the purpose of diagnosing intestinal diseases by using acoustic features extracted from recorded data acquired by a non-contact microphone by a machine learning method. There is.
  • a doctor listens to the peristaltic sound of the abdomen using a stethoscope, and based on this, evaluates whether or not the peristaltic movement is active to diagnose the intestinal function. Further, regarding the diagnosis of intestinal diseases, an apparatus as described in Patent Document 2 has been proposed. However, the user could not know the objective information about the condition of his / her intestine, which can be easily grasped.
  • the information processing apparatus of the first invention is a sound information acquisition unit that acquires sound information related to abdominal sound, which is a sound emitted from the abdomen, and input information including sound information acquired by the sound information acquisition unit. It is provided with an intestinal score acquisition unit that acquires an intestinal score related to the user's intestinal condition using learning information prepared in advance, and an intestinal score output unit that outputs an intestinal score acquired by the intestinal score acquisition unit. , An information processing device.
  • the user can know objective information about the condition of the intestine.
  • the information processing device of the second invention is an information processing device in which the input information further includes the living information regarding the living situation of the user with respect to the first invention.
  • the information processing device of the third invention is an information processing device in which the living information includes excretion-related information regarding the excretion status of the user, as opposed to the second invention.
  • the information processing apparatus of the fourth invention is an information processing apparatus in which the excretion-related information includes the information indicated by the Bristol stool form scale input by the user with respect to the third invention.
  • the intestinal score acquisition unit further includes an excretion score acquisition unit for acquiring an excretion score based on excretion-related information, and the excretion score acquisition unit is provided. It is an information processing device that acquires an intestinal score using the excretion score acquired by the department.
  • the information processing apparatus of the sixth invention is an information processing apparatus including food and drink information relating to the eating and drinking situation of the user, as opposed to the second invention.
  • the food and drink information includes information on the amount of drinking water, information on the presence / absence of drinking or the amount of drinking, information on the presence / absence or content of meals, and ingestion.
  • An information processing device that includes at least one piece of information regarding the presence or absence or intake of a particular group of foods.
  • the intestinal score acquisition unit further includes a food and drink score acquisition unit for acquiring food and drink scores based on food and drink information, and the food and drink score acquisition unit. It is an information processing device that acquires an intestinal score by using the food and drink score acquired by.
  • the information processing apparatus of the ninth invention is an information processing apparatus including the activity status information regarding the activity status of the user, as opposed to the second invention.
  • the information processing device of the tenth invention is an information processing device containing at least one of sleep information related to sleep and exercise information related to exercise in the activity status information with respect to the ninth invention.
  • the information processing apparatus of the eleventh invention is an information processing apparatus in which the activity status information is the information acquired by the activity meter for acquiring the activity amount of the user with respect to the ninth invention. ..
  • the intestinal score acquisition unit further includes an activity status score acquisition unit for acquiring an activity status score based on the activity status information. It is an information processing device that acquires an intestinal score using the activity status score acquired by the activity status score acquisition unit.
  • the learning information is information for inputting learning input information including sound information, and the value of a predetermined output index relating to the activity state of the intestine.
  • the intestinal score acquisition unit is an information processing device that acquires an intestinal score by using the value of the output index acquired by using the learning information.
  • the output index is at least one of the state of stool and the number of intestinal peristaltic movements per unit time with respect to the thirteenth invention.
  • the intestinal score can be accurately obtained based on at least one value of the condition of bowel movement and the number of intestinal peristaltic movements per unit time.
  • the intestinal score acquisition unit acquires an element score for each of two or more evaluation elements based on the input information.
  • Information that has an acquisition unit acquires an intestinal score using the element score acquired by the element score acquisition unit, and further outputs a radar chart using the element score acquired by the element score acquisition unit. It is a processing device.
  • the information processing apparatus of the sixteenth invention has device identification information for acquiring device identification information for identifying the type of device used for acquiring abdominal sound, which corresponds to sound information, with respect to the first invention.
  • a plurality of acquisition units are further provided, and a plurality of learning information are prepared in association with the device identification information, and the intestinal score acquisition unit uses the learning information corresponding to the device identification information acquired by the device identification information acquisition unit. It is an information processing device that acquires an intestinal score.
  • the intestinal score can be appropriately acquired according to the characteristics of the device used for acquiring the abdominal sound.
  • the information processing apparatus of the seventeenth invention further includes, for the first invention, a microphone for recording abdominal sounds and a display unit for displaying the intestinal score output by the output unit. , An information processing device.
  • the user can easily measure the abdominal sound and know objective information on the condition of the intestine.
  • the information processing apparatus or the like it is possible to output objective information regarding the condition of one's own intestine, which can be easily grasped.
  • Block diagram of the information processing device Block diagram of the terminal device A flowchart showing an example of the operation of the information processing device.
  • a flowchart showing an example of the score acquisition process of the information processing device. Flow chart showing an example of abdominal sound use processing of the information processing device Flow chart showing an example of intestinal score acquisition processing of the information processing device Flow chart showing an example of excretion score acquisition processing of the information processing device
  • FIG. 3 shows a specific example of screen transition of the terminal device.
  • FIG. 4 shows a specific example of screen transition of the terminal device.
  • Flow chart showing an example of intestinal score acquisition processing of the information processing device A flowchart showing an example of abdominal sound use processing of the information processing apparatus according to the second modification of the embodiment of the present invention.
  • Flow chart showing an example of intestinal score acquisition processing of the information processing device A block diagram showing a configuration of a terminal device according to another modification of the above-described embodiment. Overview of the computer system in the above embodiment Block diagram of the computer system
  • the abdominal sound is a sound emitted from the user's abdomen.
  • the abdominal sound may include, for example, an intestinal sound emitted from the intestine.
  • the abdominal sound may include a sound emitted by blood flow in the abdomen (for example, abdominal aortic sound) and a sound emitted from an organ such as the stomach.
  • Sound information refers to information obtained based on abdominal sound.
  • the sound information may be the recorded abdominal sound data itself, or may be data obtained by processing or editing the data.
  • Living information is information about the living conditions of one user.
  • the living situation may include various factors related to the user's behavior, condition, and the like.
  • the living information includes, for example, excretion-related information, food and drink information, and activity status information. That is, the living conditions include, for example, the user's excretion status, the user's eating and drinking status, and the user's activity status.
  • the living information may include information about other elements, or may include information about only a part of these elements.
  • each of the information about each element of the living information may include information about detailed elements.
  • the excretion-related information is information related to the user's excretion status.
  • the excretion-related information may include, for example, information from various viewpoints such as the time, amount, odor, and morphology (shape, color, etc.) of excretion of excrement.
  • the excretion-related information includes a value represented by a known Bristol stool form scale (hereinafter, also referred to as a Bristol scale).
  • the Bristol scale suggests the physiological gastrointestinal transit time and can be said to indirectly represent the condition of the intestine.
  • a label corresponding to the value represented by the Bristol scale (for example, "banana”, "puripuri”, “muddy”, etc.) may be used as excretion-related information.
  • excretion-related information information on the result of evaluation of excrement by an evaluator such as a user (information accompanied by the subjectivity of the evaluator) may be used, and measurement and evaluation can be performed by an evaluation device or the like. Information on the results made may be used.
  • Eating and drinking information is information about the eating and drinking situation of the user.
  • the food and drink information may include information from various viewpoints such as water, the amount of alcohol consumed, and the content of meals. Eating and drinking information may be conceptually divided into dietary information regarding meals and eating habits and beverage information regarding beverage intake.
  • the food and drink information includes information on the amount of water consumed, information on the presence or absence of drinking or the amount of drinking, information on the presence or absence of meals or the content of meals, and information on the presence or absence or intake of a specific group of foods ingested. At least one of, but is not limited to.
  • the food of a specific group means, for example, a food belonging to a specific group among the groups classified as meat, dairy products, vegetables, etc., and the viewpoint and particle size of the classification of such a "group" are included in this. Not limited.
  • the food and drink information is information input by an evaluator such as a user after evaluating the food and drink situation, but is not limited to this, and for example, information on the result of measurement and evaluation by an evaluation device or the like is used. It may have been. For example, the type and amount of food or beverage ingested can have different effects on gastrointestinal motility.
  • the activity status information is information related to the activity status of the user.
  • the activity status here refers to a situation related to lifestyle-related habits (meaning actions and actions that the user repeatedly performs in daily life), excluding the situation of eating and drinking. That is, the activity status information can include information on lifestyle habits, excluding food and drink information.
  • the activity status information includes sleep information related to sleep (sleep time, sleep quality, etc.) and exercise information related to exercise (number of steps, amount of heat consumed, presence / absence of habitual exercise, exercise intensity and frequency of exercise). , Etc.), but is not limited to this.
  • the activity status information may include information on the presence or absence of smoking, smoking history, and the like.
  • the activity status information may be, for example, information acquired by an activity meter provided in a device possessed or worn by the user (for example, a wearable terminal or other mobile terminal).
  • the information may be input by an evaluator such as a user after performing an evaluation.
  • Basic information is information about the user's form and characteristics.
  • the basic information may include various information such as height, weight, age, gender, body fat percentage, muscle mass, pulse rate, respiratory rate, blood pressure, etc. of the user.
  • the basic information may include the answer to the user's questionnaire, the information generated based on the answer, the information about the user's medical history, and the like.
  • the response content of a questionnaire item used for diagnosing a person with an intestinal disorder can objectively express the constitution of the user.
  • the basic information is, for example, input by the user in advance, but is not limited to this, for example, information acquired by a wearable terminal worn by the user, an external database in which user information is recorded, or the like. It may be information obtained from such as.
  • the identifier is a character or code that uniquely indicates the item.
  • the identifier is, for example, an ID, but any kind of information can be used as long as it is information that can identify the corresponding item. That is, the identifier may be the name of what it indicates, or it may be a combination of codes so as to uniquely correspond to each other.
  • the acquisition may include acquiring the matters input by the user or the like, or the information stored in the own device or another device (the information may be stored in advance, or the device concerned). It may be the information generated by the information processing performed in the above). Acquiring the information stored in the other device may include acquiring the information stored in the other device via API or the like, or the document file provided by the other device. It may include acquiring the content (including the content of the web page) by performing scraping or the like. Further, it may include acquiring information in a format different from the original information based on the original information, such as acquiring information by performing optical character reading on an image file.
  • a so-called machine learning method may be used to acquire information.
  • a classifier that inputs information for a specific type of input and outputs information of the type that is desired to be acquired is configured by using a machine learning method. For example, two or more sets of input information and output information are prepared in advance, and the two or more sets of information are given to a module for constructing a machine learning classifier to form a classifier, and the configured classification is performed. Store the container in the storage unit.
  • the classifier can also be called a learning device.
  • the machine learning method may be, for example, deep learning, random forest, SVR, or the like. Further, for machine learning, for example, functions in various machine learning frameworks such as fastText, tinySVM, random forest, TensorFlow, and various existing libraries can be used.
  • the classifier is not limited to those obtained by machine learning.
  • the classifier may be, for example, a table showing the correspondence between the input vector based on the input information and the output information.
  • the output information corresponding to the feature vector based on the information for input may be acquired from the table, or two or more input vectors in the table and a parameter for weighting each input vector may be used.
  • a vector similar to the feature vector based on the input information may be generated, and the final output information may be acquired by using the output information and the parameters corresponding to each input vector used for the generation.
  • the classifier may be, for example, a function representing a relationship between an input vector based on input information and the like and information for generating output information.
  • the information corresponding to the feature vector based on the input information may be obtained by a function, and the output information may be acquired using the obtained information.
  • Outputting information means displaying on a display, projecting using a projector, printing with a printer, sound output, transmission to an external device, storage on a recording medium, processing to other processing devices or other programs. It is a concept that includes delivery of results. Specifically, for example, it includes enabling display of information on a web page, sending it as an e-mail, and outputting information for printing.
  • Information reception means receiving information input from input devices such as keyboards, mice, and touch panels, receiving information transmitted from other devices via wired or wireless communication lines, optical disks, magnetic disks, and semiconductors. It is a concept including acceptance of information read from a recording medium such as a memory.
  • updating means changing the stored information, adding new information to the stored information, and updating the stored information. It is a concept that includes the fact that part or all of it is erased.
  • the information processing apparatus acquires and outputs an intestinal score regarding the intestinal tone by using input information including sound information regarding the abdominal sound of one user and learning information prepared in advance.
  • the input information may include living information regarding the living situation of the user, and the living information includes excretion-related information regarding the excretion status of the user, food and drink information regarding the eating and drinking of the user, and activity status information regarding the activity status of the user. You may.
  • the information processing apparatus can be used via a portable information terminal including a microphone for recording the abdominal sound and a monitor for displaying the score, but the information processing device is not limited thereto.
  • the information processing system 1 configured in this way will be described.
  • FIG. 1 is a diagram showing an outline of an information processing system 1 according to one of the embodiments of the present invention.
  • the information processing system 1 includes an information processing device 100 and a terminal device 600.
  • the information processing device 100 and the terminal device 600 can communicate with each other via a network such as a local area network or the Internet.
  • the configuration of the information processing system 1 is not limited to this.
  • the number of each device included in the information processing system 1 is not limited, and other devices may be included in the information processing system 1.
  • a portable information terminal device such as a so-called smartphone having a built-in microphone 681 is shown as a terminal device 600, but such a portable device is used as the terminal device 600.
  • a terminal device 600b which is a personal computer (PC) such as a laptop computer, may be used, or a device other than these may be used, such as a tablet-type information terminal device.
  • the microphone an external microphone 681b may be used.
  • a mobile information terminal device such as a smartphone is used as the terminal device 600, but the description is not limited to this.
  • FIG. 2 is a block diagram of the information processing apparatus 100.
  • FIG. 3 is a block diagram of the terminal device 600.
  • the information processing apparatus 100 includes a storage unit 110, a reception unit 120, a reception unit 130, a processing unit 140, and a transmission unit 170.
  • the information processing device 100 is, for example, a server device.
  • the storage unit 110 includes a learning information storage unit 111 and a user information storage unit 115.
  • the learning information storage unit 111 stores learning information acquired in advance.
  • the learning information is created so that the input information is the learning input information including the sound information and the output information is the value of a predetermined output index related to the activity state of the intestine. be.
  • Learning information is generated using a so-called machine learning method.
  • the learning information is generated by the learning information generation unit 147 and stored in the learning information storage unit 111, for example, as described later, but is not limited to this. That is, the learning information generated by a device different from the information processing device 100 may be stored in the learning information storage unit 111.
  • a plurality of learning information are prepared.
  • Each learning information is stored in the learning information storage unit 111 in association with the device identification information.
  • the device identification information is information corresponding to the sound information included in the learning input information used when the learning information is generated, and identifies the type of device used for acquiring the abdominal sound corresponding to the sound information, that is, recording or the like. Information to do.
  • the device identification information may be said to be information that identifies the method of recording the abdominal sound or the like.
  • the device may mean, for example, a microphone used for recording abdominal sounds, or may mean a device set including the microphone.
  • the device identification information is, for example, a code for identifying the model of the device used for recording the abdominal sound, or the type of device used for recording (whether the built-in microphone of the smartphone is used or an external microphone is used. It may be a code that identifies (such as a smartphone), but it is not limited to this. A code that can identify the origin of the learning input information with a certain degree of particle size, such as the recording method and the processing method of the recorded abdominal sound (for example, the presence / absence of an applied filter, the type, sound quality adjustment, etc.), is used as the device identification information. Can be done.
  • User information storage unit 115 stores user information.
  • the user information is information in which a user identifier, which is an identifier that identifies a user who uses the information processing system 1, and information about the user are associated with each other.
  • the user information may include various information. For example, it may include information transmitted from the terminal device 600 used by the user, information acquired by the information processing device 100 about the user as described later, and the like.
  • the information transmitted from the terminal device 600 used by the user includes, for example, basic information of the user, sound information as described later, device identification information, living information, and the like.
  • the information acquired by the information processing apparatus 100 for the user corresponds to, for example, information on the frequency of intestinal sounds, an estimation result of the intestinal state, each element score, an intestinal score, and the like, which will be described later.
  • the user information storage unit 115 may store user information transmitted from other external devices or the like.
  • the receiving unit 120 receives information transmitted from another device.
  • the receiving unit 120 stores the received information in, for example, the storage unit 110.
  • the user inputs information using, for example, the terminal device 600 and transmits the information to the information processing device 100.
  • the receiving unit 120 can store each transmitted information in the storage unit 110 in association with the user identifier. Further, as will be described later, in the present embodiment, the sound information transmitted from each terminal device 600 can be received and stored in the storage unit 110 in association with the user identifier.
  • the receiving unit 120 can specify the user identifier of the user involved in the transmission based on the transmitted information.
  • the reception unit 130 receives information input by using an input means (not shown) connected to the information processing device 100.
  • the reception unit 130 stores the received information in, for example, the storage unit 110.
  • the input means may be anything such as a numeric keypad, a keyboard, a mouse, or a menu screen.
  • the reception unit 130 receives information input by an input operation (including information read by the device) performed by using a reading device (for example, a code reader) connected to the information processing device 100. May be good.
  • the reception unit 130 may consider that the information received by the reception unit 120 is received as the information input to the information processing device 100. That is, the input of information to the information processing device 100 may mean that such information is indirectly input to the information processing device 100 by the user via the terminal device 600 or the like, or is input by the user. It may mean that it is directly input to the information processing apparatus 100 by means. Further, the information processing apparatus can be used to provide information to the information processing apparatus 100 by allowing the user to execute a program that automatically generates information or to give various information to the program so that the information processing apparatus 100 can function. It may be regarded as an input of information to 100.
  • the processing unit 140 includes a sound information acquisition unit 141, a device identification information acquisition unit 143, a living information acquisition unit 145, a learning information generation unit 147, an intestine score acquisition unit 149, an element score acquisition unit 151, and an intestine score output unit 161. ..
  • the processing unit 140 performs various processes. The various processes are, for example, the processes performed by each unit of the processing unit 140 as follows.
  • the sound information acquisition unit 141 acquires the sound information of one user.
  • the sound information acquisition unit 141 acquires sound information transmitted from the user's terminal device 600 and received by the reception unit 120.
  • the device identification information acquisition unit 143 acquires the device identification information corresponding to the sound information.
  • the device identification information is transmitted from the user's terminal device 600 in association with the sound information, but is not limited to this.
  • the device identification information acquisition unit 143 may be configured to acquire the device identification information stored in the storage unit 110 in advance as information for identifying the terminal device 600 of the user.
  • the living information acquisition unit 145 acquires living information.
  • the living information includes, but is not limited to, excretion-related information, food and drink information, and activity status information (that is, exercise information and sleep information).
  • the living information acquisition unit 145 acquires, for example, the information stored in the user information storage unit 115.
  • the living information acquisition unit 145 may acquire basic information of the user.
  • the learning information generation unit 147 uses a machine learning method to generate learning information.
  • the method of machine learning can be used, for example, as follows. That is, a classifier that inputs learning input information including sound information and outputs a value (output value) of a predetermined output index related to the activity state of the intestine is constructed by using a machine learning method. For example, two or more sets of learning input information and output values are prepared in advance, and the two or more sets of information are given to a module for constructing a machine learning classifier to form a classifier, and the configured classifier is configured. Is stored in the learning information storage unit 111 as learning information.
  • the classifier can also be called a learning device.
  • the machine learning method may be, for example, deep learning such as a convolutional neural network (CNN), random forest, SVR, or the like. Further, for machine learning, for example, functions in various machine learning frameworks such as fastText, tinySVM, random forest, TensorFlow, and various existing libraries can be used.
  • the combination of the learning input information and the output value may be prepared in advance. It should be noted that the learning information may be regenerated at a predetermined timing by using a combination with the sound information and the output value newly acquired by the information processing apparatus.
  • the intestinal score acquisition unit 149 acquires an intestinal score related to the user's intestinal tone by using input information including sound information acquired by the sound information acquisition unit 141 and learning information prepared in advance.
  • the intestinal score acquisition unit 149 has an element score acquisition unit 151.
  • the element score acquisition unit 151 includes an intestinal-related score acquisition unit 152, an excretion score acquisition unit 153, a food and drink score acquisition unit 154, and an activity status score acquisition unit 155.
  • the intestine score acquisition unit 149 acquires a value of a predetermined output index by using the learning information stored in the learning information storage unit 111, and uses the value of this output index to obtain the intestine score. To get.
  • the process of acquiring the value of the predetermined output index is performed, for example, by the intestinal-related score acquisition unit 152, which will be described later.
  • a predetermined output index for example, at least one of the state of bowel movement and the number of intestinal peristaltic movements per unit time is used.
  • the number of intestinal peristaltic movements may be referred to as the frequency at which intestinal sounds above a predetermined level occur (hereinafter, may be simply referred to as the frequency of intestinal sounds).
  • the intestine score acquisition unit 149 acquires learning information corresponding to the device identification information acquired by the device identification information acquisition unit 143 from the learning information storage unit 111, and acquires an intestine score using the acquired learning information. It is configured to do.
  • the intestine score acquisition unit 149 acquires the intestine score using the element score acquired by the element score acquisition unit 151.
  • the element score acquisition unit 151 acquires the element score for each of the two or more evaluation elements based on the input information by each unit.
  • the two or more evaluation factors include intestinal-related factors, excretion, beverages, meals, activity status, and the like. That is, in the present embodiment, as the element score, for example, an intestinal motility score, an intestinal condition score, an excretion score, a beverage score, a meal score, an activity status score, and the like are used.
  • Each score is a code or the like indicating a state of a target item, a numerical value indicating a good degree, a grade, or the like, and is information that can be easily grasped by the user.
  • the intestinal-related score acquisition unit 152 uses the sound information and learning information acquired by the sound information acquisition unit 141 to obtain an intestinal condition score regarding the condition of bowel movements (normal, diarrhea, constipation, etc.) and intestinal peristalsis (frequency). Etc.) and obtain an intestinal motility score.
  • the intestinal-related score acquisition unit 152 acquires the value of the output index by inputting the sound information acquired by the sound information acquisition unit 141 into the learning information by a machine learning method. Then, the intestinal relationship score (intestinal condition score and intestinal motility score) is acquired based on the value of the output index.
  • the sound information used as the learning input information in the learning information generation unit 147 and the sound information input in the intestinal-related score acquisition unit 152 are voice data obtained by recording the abdominal sound (the abdominal sound is recorded). It is a spectrum image showing the result of analysis of (which may be processed) by Fourier transform or fast Fourier transform in a predetermined mode.
  • the sound information may be voice data (which may be processed) itself, or may be data converted into another format.
  • the sound information used as the learning input information in the learning information generation unit 147 and the sound information input in the intestinal-related score acquisition unit 152 may be prepared in the processing unit 140. In a device other than the information processing device 100, such as a device in which abdominal sound is recorded, sound information as a spectrum image may be prepared in advance and the sound information may be transmitted to the information processing device 100. ..
  • the learning information generation unit 147 and the intestinal-related score acquisition unit 152 may be configured to use learning input information including user information such as basic information in accordance with the generation and use of learning information.
  • the generated learning information may be stored in the learning information storage unit 111 in association with an identifier that identifies the type for each of several types that can classify the user according to the user information.
  • the intestinal-related score acquisition unit 152 acquires learning information of the type corresponding to the identifier specified based on the user information from the learning information storage unit 111, and acquires the intestinal-related score by using the learning information. It suffices if it is configured as follows. This makes it possible to obtain a more accurate output result.
  • the excretion score acquisition unit 153 acquires the excretion score based on the excretion-related information.
  • the food and drink score acquisition unit 154 acquires a beverage score and a meal score based on the food and drink information.
  • the activity status score acquisition unit 155 acquires the activity status score based on the activity status information.
  • Each part of these element score acquisition units 151 acquires an element score based on the value of the output index and various living information, for example, based on whether or not the value of the output index and the content of various living information satisfy a predetermined condition. Do it.
  • Predetermined conditions can be set for each element and for each viewpoint for each element. For example, when a predetermined condition is satisfied, the first predetermined score is reflected in the element score, and when not, the second predetermined score is reflected in the element score. Can be obtained. Specifically, for example, when the frequency of intestinal sound is obtained as the value of the output index, if the frequency of intestinal sound is within a predetermined range, the intestinal motility score based on the first predetermined score is used. If not, a second predetermined score may be subtracted from the reference intestinal motility score.
  • Each unit of the element score acquisition unit 151 associates the acquired element score with the user identifier and stores it in the user information storage unit 115.
  • Each part of the element score acquisition unit 151 compares the value of the output index and the contents of various living information with a predetermined standard, and calculates the element score by using a predetermined calculation formula according to the result.
  • You may.
  • a plurality of reference threshold values may be prepared, and a predetermined score corresponding to the value of the output index and the content of various living information within the corresponding condition range may be reflected in the element score.
  • multiple evaluation viewpoints points of comparison with standard values, etc.
  • a predetermined score may be reflected in the element score.
  • the score to be reflected may be reflected in the element score based on the information (for example, an n-dimensional look-up table) mapped in advance in the space composed of a plurality of viewpoint axes. ..
  • Each unit of the element score acquisition unit 151 is an element score stored in the user information storage unit 115 based on the element score acquired in the past for the user, the value of the output index at the past time, various living information, and the like. May be obtained.
  • each unit of the element score acquisition unit 151 may acquire the element score of this time by reflecting the current score with respect to the element score acquired last time.
  • the element score may be obtained by using the average value or the like of the value of the output index or various living information in the past predetermined period and the value of the output index or various living information of this time. ..
  • the element score may be obtained by using (such as summing up) the points specified for each of the values of the past predetermined number of output indexes or various living information and the values of the current output index or various living information.
  • each part of the element score acquisition unit 151 reflects the conditions set for the acquisition of such an element score, the reference value to be compared, the reference element score, the score to be reflected in the element score, and the method to reflect the score in the element score.
  • Factors such as (addition, subtraction, multiplication, etc.) may be set in a timely manner based on the basic information of the user. That is, each unit of the element score acquisition unit 151 may acquire the element score based on the basic information of the user. Specifically, for example, each unit of the element score acquisition unit 151 may be configured to acquire the element score by applying different factors according to the gender and age of the user.
  • the intestinal score acquisition unit 149 acquires the intestinal motility score and the intestinal condition score thus acquired by the intestinal-related score acquisition unit 152, the excretion score acquired by the excretion score acquisition unit 153, and the food and drink score.
  • An intestinal score is acquired using the beverage score and the meal score acquired by the unit 154 and the activity status score acquired by the activity status score acquisition unit.
  • the acquisition of the intestinal score may be performed by applying each element score to a predetermined calculation formula such as addition or multiplication by a predetermined method. Further, the acquisition of the intestinal score may be performed using, for example, a learning device configured by using a machine learning method so that each element score is input and the intestinal score is output. Each element score may be used for obtaining the intestinal score after being normalized as necessary.
  • the intestine score acquisition unit 149 associates the acquired intestine score with the user identifier and stores it in the user information storage unit 115.
  • the intestine score acquisition unit 149 may acquire the current intestine score based on the intestine score acquired in the past for the user stored in the user information storage unit 115. For example, the intestine score acquisition unit 149 may acquire the present intestine score by reflecting the score corresponding to each element score of the present time with respect to the reference score based on the previous intestine score.
  • the intestinal score acquisition unit 149 may change the predetermined method used for acquiring such an intestinal score in a timely manner based on the basic information of the user. Specifically, for example, the intestinal score acquisition unit 149 performs calculations using element scores by different methods depending on the user's gender, age, height, weight, medical history, predetermined questionnaire results, and the like. , May be configured to obtain an intestinal score. That is, the intestine score acquisition unit 149 may acquire the intestine score based on the basic information of the user.
  • the intestine score output unit 161 outputs the intestine score acquired by the intestine score acquisition unit 149.
  • the intestine score output unit 161 outputs information such as, for example, the intestine score by transmitting the information to the terminal device 600, but the present invention is not limited to this.
  • the output may be performed by displaying the intestinal score on the display provided in the information processing apparatus 100 by characters, images, or the like.
  • the intestinal score output unit 161 is configured to output a radar chart using the element score acquired by the element score acquisition unit 151.
  • the intestinal score output unit 161 normalizes each element score so that the balance between each element score is adjusted as necessary, and then constructs and outputs information showing each element score on a radar chart. You may do so. Further, the intestinal score output unit 161 may construct and output information showing each element score as a graph in another format.
  • the transmission unit 170 transmits information to other devices constituting the information processing system 1 via the network.
  • the transmission unit 170 transmits information to, for example, the terminal device 600.
  • the transmission unit 170 outputs information to, for example, the terminal device 600.
  • the terminal device 600 includes a terminal storage unit 610, a terminal reception unit 620, a terminal reception unit 630, a terminal processing unit 640, a terminal output unit 660, a terminal transmission unit 670, and a sensor unit 680.
  • the terminal output unit 660 includes a display unit 661.
  • the sensor unit 680 includes a microphone 681 and an acceleration sensor 683.
  • the terminal storage unit 610 includes a sound information storage unit 611, a device identification information storage unit 613, and a living information storage unit 615.
  • the sound information storage unit 611 stores sound information recorded by using the sensor unit 680 of the terminal device 600.
  • the sound information is transmitted to the information processing apparatus 100 by the terminal transmission unit 670, but may be deleted from the sound information storage unit 611 when the transmission is completed, or until a predetermined period elapses as it is. It may be retained, or it may be retained permanently until there is a delete operation by the user.
  • the device identification information storage unit 613 stores the device identification information.
  • the device identification information is information that can identify the model of the terminal device 600, but is not limited to this. Different information may not be writable to the device identification information storage unit 613.
  • Living information is stored in the living information storage unit 615.
  • the living information is transmitted to the information processing apparatus 100 by the terminal transmitting unit 670, but when the transmission is completed, it may be deleted from the living information storage unit 615, or until a predetermined period elapses as it is. It may be retained, or it may be retained permanently until there is a delete operation by the user.
  • the living information stored in the living information storage unit 615 may include information input by the user or information based on the information. These information may be, for example, the information received by the terminal reception unit 630, or the information acquired by the terminal processing unit 640 by performing an operation or the like based on the information received by the terminal reception unit 630. There may be.
  • the living information stored in the living information storage unit 615 may include measured values or information based on the measured values. These information may be, for example, the information measured by the sensor unit 680, or the information acquired by the terminal processing unit 640 by performing an operation or the like based on the information measured by the sensor unit 680. May be good. Further, it may be information that is measured or transmitted by a sensor device communicably connected to the terminal device 600 and transmitted to the terminal device 600.
  • the terminal receiving unit 620 receives the information transmitted from the information processing device 100 and other devices via the network.
  • the terminal receiving unit 620 stores the received information in, for example, the terminal storage unit 610 so that the terminal processing unit 640 or the like can acquire it.
  • the terminal reception unit 630 receives various input operations for the terminal device 600 by the user who uses the terminal device 600.
  • the operation is performed using, for example, an input device (not shown), but the operation is not limited thereto.
  • the terminal reception unit 630 may, for example, accept an input operation by voice input by the microphone 681.
  • the terminal processing unit 640 performs various information processing operations using each unit of the terminal device 600.
  • the terminal output unit 660 outputs information by displaying it on the display unit 661, which is a display device, for example.
  • the information output method is not limited to this, and may be performed by outputting voice or the like from a speaker or the like.
  • the terminal transmission unit 670 transmits, for example, the information acquired by the terminal processing unit 640 or the like via the network.
  • the sensor unit 680 may have, for example, a microphone 681, an acceleration sensor 683, a barometric pressure sensor, or the like.
  • the sensor unit 680 performs recording using the microphone 681, measures the measurement items, and outputs information such as the obtained voice data and the measured values.
  • the obtained information is stored in, for example, the terminal storage unit 610.
  • the measured value is, for example, a value indicating the transition of the acceleration acquired by the acceleration sensor, a value indicating the transition of the atmospheric pressure acquired by the atmospheric pressure sensor, and the like, but is not limited to this.
  • the sensor unit 680 may include, for example, a pulse sensor, an illuminance sensor, a camera, a position information sensor whose position can be specified by GPS, or the like.
  • the sensor unit 680 may be a timer or the like for measuring the passage of time.
  • the sensor unit 680 acquires information on the user's activity amount such as the amount of heat consumed and the number of steps, and information on the user's lifestyle such as the user's wake-up time, bedtime, and commuting time. Functions as an activity meter for. Based on the measured values obtained by the sensor unit 680, information on the user's living environment such as the area where the user lives, the climate, and the noise environment is acquired and stored in the terminal storage unit 610. You may.
  • the user accesses the information processing device 100 via the terminal device 600 and receives information transmitted from the information processing device 100 while using the terminal device 600 to perform a predetermined application.
  • the information processing system 1 can be used.
  • the predetermined application may be, for example, a dedicated application that operates using information transmitted from the information processing device 100, or a web application provided by the information processing device 100 can be displayed and used. It may be a web browser or the like.
  • the information processing system 1 is typically used as follows. That is, the user records his / her abdominal sound using the terminal device 600. Then, the sound information is transmitted from the terminal device 600 to the information processing device 100, and the intestinal score is acquired in the information processing device 100. The information processing device 100 transmits (outputs) the acquired intestinal score to the terminal device 600. The terminal device 600 receives the intestinal score and displays information including the intestinal score on the display device by the terminal output unit 660. This allows the user to confirm information about his or her intestine as an intestinal score. When such an operation of the information processing system 1 is performed, the information processing apparatus 100 performs various operations as follows, for example. These operations are performed by the processing unit 140 executing a control operation or the like while using each unit.
  • FIG. 4 is a flowchart showing an example of the operation of the information processing apparatus 100.
  • Step S11 The processing unit 140 determines whether or not the information transmitted from the terminal device 600 or the like has been received by the receiving unit 120. If it is determined that the signal has been received, the process proceeds to step S12, and if not, the process proceeds to step S13.
  • Step S12 The processing unit 140 identifies the user based on the received information, associates it with the user identifier, and stores the received information in the user information storage unit 115. For example, when living information, sound information, device identification information, or the like is transmitted from the terminal device 600 in association with a user identifier, the processing unit 140 associates the received information with the user identifier and stores the user information. Accumulate in unit 115.
  • Step S13 The processing unit 140 determines whether or not a trigger for acquiring an intestinal score has occurred. In other words, the processing unit 140 determines whether or not the condition for starting the acquisition of the intestinal score is satisfied. If it is determined that the trigger has occurred, the process proceeds to step S14. If not, the process returns to step S11.
  • the above trigger can be that the user has instructed to acquire the intestinal score through the terminal device 600 (predetermined information corresponding to the instruction has been transmitted).
  • the trigger is not limited to this.
  • it can be triggered by the fact that various conditions are satisfied, such as the arrival of a predetermined time or the new reception of sound information or other living information.
  • Step S14 The processing unit 140 performs score acquisition processing by the intestinal score acquisition unit 149.
  • the score acquisition process will be described later.
  • the intestinal score and each element score are acquired and stored in the user information storage unit 115.
  • Step S15 The processing unit 140 constructs information to be output by the intestine score output unit 161 using the acquired intestine score and the like.
  • information for showing the intestinal score and information for showing each element score as a radar chart are constructed.
  • Step S16 The processing unit 140 outputs the constructed information to the target user by the intestinal score output unit 161. That is, the processing unit 140 outputs the information constructed about the intestinal score and each element score to the terminal device 600 used by the user whose score is to be calculated by the transmission unit 170. As a result, the terminal device 600 that has received the information can display the intestinal score and each element score.
  • FIG. 5 is a flowchart showing an example of the score acquisition process of the information processing apparatus 100.
  • the intestinal score acquisition unit 149 acquires sound information, living information, past user information, and the like related to the target user from the user information storage unit 115 based on the user identifier of the target user.
  • the intestinal score acquisition unit 149 may acquire basic information.
  • the intestinal score acquisition unit 149 performs a process of acquiring the frequency of intestinal sounds and the estimation result of the intestinal state by using the sound information.
  • a process may be referred to as an abdominal sound use process. The details of the abdominal sound use process will be described later.
  • the intestinal score acquisition unit 149 stores information such as the frequency of the acquired intestinal sound and the estimation result of the intestinal state in the user information storage unit 115 in association with the user identifier of the target user.
  • the intestinal score acquisition unit 149 performs a process of acquiring a score for each element by the element score acquisition unit 151.
  • an element score acquisition process includes an intestinal-related score acquisition process, an excretion score acquisition process, a meal score acquisition process, a beverage score acquisition process, and an activity status score acquisition process, respectively. Details of each element score acquisition process will be described later.
  • Step S115 When each element score is obtained, the intestine score acquisition unit 149 acquires the intestine score from each element score. At this time, as described above, the intestine score acquisition unit 149 acquires the intestine score by, for example, adding or multiplying by a predetermined method using each element score, but the present invention is not limited to this.
  • Step S116 The intestinal score acquisition unit 149 associates the acquired intestinal score and each element score with the user identifier of the target user, and accumulates them in the user information storage unit 115. After that, the process returns to FIG.
  • FIG. 6 is a flowchart showing an example of abdominal sound use processing of the information processing apparatus 100.
  • the intestinal score acquisition unit 149 generates a spectrum image from sound information which is audio data obtained by recording an abdominal sound.
  • the intestinal score acquisition unit 149 selects, among the learning information stored in the learning information storage unit 111, the learning information corresponding to the device identification information corresponding to the sound information as the learning information to be used.
  • Step S123 The intestinal score acquisition unit 149 inputs sound information to the learning information and outputs the value of the output index.
  • the frequency of intestinal sounds included in the abdominal sounds and the estimation result of the intestinal state are output. After that, the process returns to the process shown in FIG.
  • step S121 should not be performed. Just do it.
  • FIG. 7 is a flowchart showing an example of the intestinal-related score acquisition process of the information processing apparatus 100.
  • Step S141 The intestinal-related score acquisition unit 152 resets the intestinal motility score and the intestinal condition score to their initial values (for example, zero).
  • Step S142 The intestinal-related score acquisition unit 152 determines whether or not the frequency of intestinal sounds is within a predetermined range. If it is determined that the range is within the predetermined range, the process proceeds to step S143, and if not, the process proceeds to step S144.
  • the frequency of intestinal sounds within a predetermined range can be set, for example, that the number of intestinal sounds larger than a predetermined level is 5 or more and less than 20 within a predetermined time, but the number of times and the like can be set. Not limited to this.
  • Step S143 The intestinal-related score acquisition unit 152 adds 10 points to the intestinal motility score. That is, the intestinal-related score acquisition unit 152 determines that the intestinal peristaltic movement is in an appropriate state. The process proceeds to step S145.
  • Step S144 The intestinal-related score acquisition unit 152 adds 5 points to the intestinal motility score. That is, the intestinal-related score acquisition unit 152 determines that the intestinal peristaltic movement is in a poor state. The process proceeds to step S145.
  • Step S145 The intestinal-related score acquisition unit 152 determines whether or not the estimation result of the intestinal condition is "normal”. If it is determined that the range is within the predetermined range, the process proceeds to step S143, and if not, the process proceeds to step S144. If the estimated result of the intestinal condition is "diarrhea" or "constipation", the process proceeds to step S147.
  • Step S146 The intestinal-related score acquisition unit 152 adds 10 points to the intestinal condition score. That is, the intestinal-related score acquisition unit 152 determines that the intestine is in good condition.
  • Step S147 The intestinal-related score acquisition unit 152 adds 5 points to the intestinal condition score. That is, the intestinal-related score acquisition unit 152 determines that the intestinal peristaltic movement is in an appropriate state.
  • step S146 or step S147 the intestinal-related score acquisition unit 152 acquires the intestinal motility score and the intestinal condition score as a result of the above, and returns to FIG.
  • FIG. 8 is a flowchart showing an example of the excretion score acquisition process of the information processing apparatus 100.
  • Step S151 The excretion score acquisition unit 153 resets the excretion score to the initial value (for example, zero).
  • the excretion score acquisition unit 153 determines whether or not the shape of the excrement corresponds to a predetermined type. For example, if the label value of the Bristol scale included in the excretion-related information is a predetermined value (for example, a predetermined wording such as "banana” or "puripuri"), the shape of the excrement corresponds to the predetermined type. You can judge. If it is determined that the shape of the excrement corresponds to a predetermined type, the process proceeds to step S153, and if not, the process proceeds to step S154.
  • a predetermined value for example, a predetermined wording such as "banana" or "puripuri
  • Step S153 The excretion score acquisition unit 153 adds 10 points to the excretion score. The process proceeds to step S155.
  • Step S154 The excretion score acquisition unit 153 adds 5 points to the excretion score. The process proceeds to step S155.
  • the excretion score acquisition unit 153 determines whether or not the amount of excrement is within a predetermined range. For example, as the amount of excrement, the user's input value regarding the amount of excrement included in the excretion-related information can be used. Further, for example, a range from 0 gram to 200 gram can be defined as a predetermined range, but the present invention is not limited to this. If it is determined that the amount of excrement is within the predetermined range, the process proceeds to step S156, and if not, the process proceeds to step S157.
  • Step S156 The excretion score acquisition unit 153 adds 10 points to the excretion score. The process proceeds to step S158.
  • Step S157 The excretion score acquisition unit 153 adds 5 points to the excretion score. The process proceeds to step S158.
  • Step S158 The excretion score acquisition unit 153 determines whether or not the excrement odor is not odorous. For example, as the odor of excrement, the user's input value regarding the odor of excrement included in the excretion-related information can be used. If it is determined that the odor of the excrement is not odorous, the process proceeds to step S159, and if not, the process proceeds to step S160.
  • Step S159 The excretion score acquisition unit 153 adds 10 points to the excretion score.
  • Step S160 The excretion score acquisition unit 153 adds 5 points to the excretion score.
  • step S159 or step S160 the excretion score acquisition unit 153 acquires the excretion score as a result of the above, and returns to FIG.
  • FIG. 9 is a flowchart showing an example of the meal score acquisition process of the information processing apparatus 100.
  • Step S161 The food and drink score acquisition unit 154 resets each meal score to an initial value (for example, zero).
  • Step S162 The food and drink score acquisition unit 154 determines whether or not the user has had breakfast. For example, it is possible to make a judgment based on the presence or absence of an input value indicating that the user has had breakfast, which is included in the meal information. If it is determined that breakfast has been taken, the process proceeds to step S163, and if not, the process proceeds to step S164.
  • Step S163 The food and drink score acquisition unit 154 adds 10 points to the meal score. The process proceeds to step S165.
  • Step S164 The food and drink score acquisition unit 154 adds 5 points to the meal score. The process proceeds to step S165.
  • Step S165 The food and drink score acquisition unit 154 determines whether or not the user has ingested a predetermined amount or more of dietary fiber.
  • the amount equivalent to dietary fiber can be calculated based on the content of the meal included in the meal information, and the judgment can be made using the value. Further, for example, 12 grams can be set as a predetermined amount, but the amount is not limited to this. An upper limit may be set. If it is determined that the dietary fiber has been ingested in excess of a predetermined amount, the process proceeds to step S166, and if not, the process proceeds to step S167.
  • Step S166 The food and drink score acquisition unit 154 adds 10 points to the meal score. The process proceeds to step S168.
  • Step S167 The food and drink score acquisition unit 154 adds 5 points to the meal score. The process proceeds to step S168.
  • Step S168 The food and drink score acquisition unit 154 determines whether or not the user has ingested a predetermined amount or more of calcium. For example, it is possible to calculate the amount of calcium equivalent based on the content of the meal included in the meal information and use the value to make a judgment. Further, for example, 160 milligrams can be set as a predetermined amount, but the amount is not limited to this. An upper limit may be set. If it is determined that the calcium has been ingested in a predetermined amount or more, the process proceeds to step S169, and if not, the process proceeds to step S160.
  • Step S169 The food and drink score acquisition unit 154 adds 10 points to the meal score.
  • Step S170 The food and drink score acquisition unit 154 adds 5 points to the meal score.
  • step S169 or step S170 the food and drink score acquisition unit 154 acquires the meal score as a result of the above, and returns to FIG.
  • FIG. 10 is a flowchart showing an example of the beverage score acquisition process of the information processing apparatus 100.
  • Step S171 The food and drink score acquisition unit 154 resets each beverage score to an initial value (for example, zero).
  • Step S172 The food and drink score acquisition unit 154 determines whether or not the user has ingested a predetermined amount or more of the beverage in the morning. For example, the judgment can be made based on the input value of the amount of drinking water of the user in a predetermined time zone included in the beverage information. Further, for example, 300 ml can be set as a predetermined amount, but the amount is not limited to this. An upper limit may be set. If it is determined that the user has ingested a predetermined amount or more of the beverage in the morning, the process proceeds to step S173, and if not, the process proceeds to step S174.
  • Step S173 The food and drink score acquisition unit 154 adds 10 points to the beverage score. The process proceeds to step S175.
  • Step S174 The food and drink score acquisition unit 154 adds 5 points to the beverage score. The process proceeds to step S175.
  • Step S175 The food and drink score acquisition unit 154 determines whether or not the daily beverage intake of the user is equal to or greater than a predetermined amount. For example, the judgment can be made based on the input value of the amount of water consumed by the user in one day included in the beverage information. Further, for example, 2000 ml can be set as a predetermined amount, but the amount is not limited to this. An upper limit may be set. If it is determined that the daily beverage intake is equal to or greater than the predetermined amount, the process proceeds to step S176, and if not, the process proceeds to step S177.
  • Step S176 The food and drink score acquisition unit 154 adds 10 points to the beverage score.
  • Step S177 The food and drink score acquisition unit 154 adds 5 points to the beverage score.
  • step S176 or step S177 the food and drink score acquisition unit 154 acquires the beverage score as a result of the above, and returns to FIG.
  • FIG. 11 is a flowchart showing an example of the activity status score acquisition process of the information processing apparatus 100.
  • Step S181 The activity status score acquisition unit 155 resets the activity status score to the initial value (for example, zero).
  • Step S182 The activity status score acquisition unit 155 determines whether or not the number of steps per day is equal to or greater than a predetermined value. For example, the judgment can be made based on the integrated value of the number of steps per day of the user included in the activity status information. Further, for example, 7000 steps can be set as a predetermined value, but the present invention is not limited to this. An upper limit may be set. If it is determined that the number of steps per day is equal to or greater than a predetermined value, the process proceeds to step S183, and if not, the process proceeds to step S184.
  • Step S183 The activity status score acquisition unit 155 adds 10 points to the activity status score. The process proceeds to step S185.
  • Step S184 The activity status score acquisition unit 155 adds 5 points to the activity status score. The process proceeds to step S185.
  • Step S185 The activity status score acquisition unit 155 determines whether or not the user's sleep time is equal to or longer than a predetermined time. For example, the judgment can be made based on the input value of the sleep time of the user included in the activity status information. Further, for example, 7 hours can be set as a predetermined time, but the time is not limited to this. An upper limit may be set. If it is determined that the sleep time is longer than the predetermined time, the process proceeds to step S186, and if not, the process proceeds to step S187.
  • Step S186 The activity status score acquisition unit 155 adds 10 points to the activity status score.
  • Step S187 The activity status score acquisition unit 155 adds 5 points to the activity status score.
  • step S186 or step S187 the activity status score acquisition unit 155 acquires the activity status score as a result of the above, and returns to FIG.
  • the information processing system 1 provides a health support application for supporting a user to live a healthy life.
  • the health support application accepts input operations related to the user's living information and provides the user with useful information for maintaining health.
  • the health support application is realized by a user executing a predetermined application on the terminal device 600 and communicating between the terminal device 600 and the information processing device 100.
  • the following screen example of the health support application is displayed by the terminal output unit 660 based on the control of the terminal processing unit 640.
  • FIG. 12 is a first diagram showing a specific example of screen transition of the terminal device 600.
  • the menu screen 901 of the health support application is shown.
  • a task display unit 911 that displays information about a task (health task) recommended to be performed by the user
  • an intestinal score information display unit 912 that displays information about the intestinal score
  • living information It includes a living information record button 913 for inputting information and viewing a history, and a basic information button 914 for confirming and editing basic information.
  • the task display unit 911 includes, for example, a display showing the progress of the task. When the task display unit 911 is operated, the screen transitions to the task management screen (not shown).
  • the intestine score information display unit 912 when the intestine score has not been acquired within the past predetermined period, the intestine score information display unit 912 includes, for example, a display indicating that fact. Then, when the intestine score information display unit 912 is operated, for example, the screen transitions to the score acquisition instruction screen 902 (shown in FIG. 13) for executing the output of the intestine score. On the other hand, when the intestine score has been acquired within a predetermined period in the past, the intestine score information display unit 912 includes, for example, a display showing the measurement result of the intestine score. Then, when the intestine score information display unit 912 is operated, for example, the screen transitions to the score display screen 904 (shown in FIG. 15) showing the measurement result of the intestine score.
  • the life information recording button 913 the user can input and record information about each element, or can send the information to the information processing apparatus 100 and store it in the information processing apparatus 100.
  • FIG. 13 is a second diagram showing a specific example of the screen transition of the terminal device 600.
  • the score acquisition instruction screen 902 of the health support application is shown.
  • the score acquisition instruction screen 902 is a screen for causing the information processing apparatus 100 to output an intestinal score. That is, the score acquisition instruction screen 902 includes a confirmation area 921 for displaying whether or not the information necessary for outputting the intestine score is available, and an instruction button 925 for instructing the output of the intestine score.
  • the confirmation area 921 there is a display indicating whether or not each of the living information and the abdominal sound used for outputting the intestinal score is already prepared (whether or not it is input) in the information processing device 100 or the terminal device 600. included. For missing information, a button to prepare that information is displayed, but it is not limited to this.
  • the instruction button 925 is disabled until, for example, the living information and the abdominal sound used for the output of the intestinal score are gathered, and is enabled (may be said to appear) when each information is gathered.
  • the instruction button 925 is operated, the information processing apparatus 100 acquires the intestinal score as described above, and the acquired intestinal score and the like are transmitted to the terminal device 600.
  • the terminal device 600 receives the intestinal score or the like, the screen transitions to the score display screen 904 (shown in FIG. 15).
  • FIG. 14 is a third diagram showing a specific example of the screen transition of the terminal device 600.
  • the abdominal sound recording screen 903 of the health support application includes a recording button 931 for starting recording.
  • the abdominal sound recording screen 903 may include a display indicating the position of the microphone 681.
  • the abdominal sound recording screen 903 may display a guidance display of an appropriate recording method regarding the posture of the user, the posture and position of the terminal device 600, and the like. With such a display, the user can bring the microphone 681 closer to the abdomen and easily and appropriately record the abdominal sound.
  • FIG. 15 is a fourth diagram showing a specific example of screen transition of the terminal device 600.
  • the score display screen 904 of the health support application is shown.
  • the score display screen 904 includes, for example, an intestine score display unit 941 showing the acquired intestine score and an element score display unit 942 showing each element score on a radar chart.
  • the user can confirm the intestinal score and the element score on the score display screen 904. Since each element score is shown on the radar chart, the user can intuitively know the elements that may be lacking in efforts to keep the intestinal tone high.
  • a history display button 943 for confirming the transition including the past score is included. The user can confirm the transition of the intestinal score and each element score by operating the history display button 943.
  • the information processing apparatus 100 can realize the following information processing method by using the learning information and the sound information stored in the storage unit 110. That is, the information processing apparatus 100 acquires sound information related to the abdominal sound, which is a sound emitted from the abdomen of one user, and uses input information including the acquired sound information and learning information prepared in advance. The intestinal score related to the user's intestinal tone is acquired, and the acquired intestinal score is output. Since the intestinal score acquired based on the sound information is output, the user can easily know the objective information about the condition of his / her intestine that can be easily grasped.
  • the intestinal score is acquired using living information about factors considered to be related to the condition of the intestine. Therefore, it is possible to output a more accurate intestinal score. Further, even when the intestinal score is acquired by using the basic information of the user, a more accurate intestinal score can be output. Intestinal scores are also obtained using information about multiple factors. Therefore, it is possible to output an intestinal score with higher accuracy.
  • a plurality of element scores are obtained, and an intestinal score is obtained using them. Therefore, the user can easily find out what factors may be lacking in maintaining high bowel tone and which may contribute to the poor bowel tone. Can be done. Further, the plurality of element scores are output as a graph such as a radar chart. Therefore, the user can intuitively grasp the evaluation result for each element related to the intestinal tone.
  • the first modification is as follows. That is, in the abdominal sound use process, the frequency of the intestinal sound may be extracted and the intestinal state may be estimated by using the learning information configured by using different input information. Further, when acquiring each element score, not only addition of evaluation points to the element score but also subtraction or the like may be performed.
  • FIG. 16 is a flowchart showing an example of abdominal sound use processing of the information processing apparatus 100 according to the first modification of the embodiment of the present invention.
  • the intestinal score acquisition unit 149 generates a spectrum image from sound information which is audio data obtained by recording an abdominal sound.
  • the intestinal score acquisition unit 149 selects the first learning information corresponding to the device identification information corresponding to the sound information as the learning information to be used. ..
  • the first learning information is, for example, learning information configured by using a machine learning method so that the input is sound information and the output is the sound information of the intestinal sound portion.
  • the intestinal score acquisition unit 149 uses a machine learning method to input sound information to the first learning information and extract intestinal sounds.
  • the intestinal score acquisition unit 149 outputs the frequency of intestinal sounds based on the extracted intestinal sound information.
  • the intestinal score acquisition unit 149 selects the second learning information corresponding to the user information from the learning information stored in the learning information storage unit 111 as the learning information to be used.
  • the second learning information is configured by inputting predetermined living information (for example, excretion information, eating and drinking information, etc.) in addition to sound information, and using a machine learning method so that the output becomes an estimation result of the intestinal state. It is the learning information that has been done.
  • the intestinal score acquisition unit 149 uses a machine learning method to input sound information and predetermined living information to the second learning information, and acquires an estimation result of the intestinal condition.
  • Step S227) The intestinal score acquisition unit 149 outputs information on the estimation result of the intestinal condition. After that, the process returns to the process shown in FIG.
  • FIG. 17 is a flowchart showing an example of the intestinal-related score acquisition process of the information processing apparatus 100.
  • the intestinal-related score acquisition unit 152 sets each of the intestinal motility score and the intestinal condition score to a basic point (for example, 10 points).
  • Step S242 The intestinal-related score acquisition unit 152 determines whether or not the frequency of intestinal sounds is within a predetermined range. If it is determined that the range is within the predetermined range, the process proceeds to step S243, and if not, the process proceeds to step S244.
  • Step S243 The intestinal-related score acquisition unit 152 adds 5 points to the intestinal motility score. That is, the intestinal-related score acquisition unit 152 determines that the intestinal peristaltic movement is in an appropriate state. The process proceeds to step S245.
  • Step S244 The intestinal-related score acquisition unit 152 deducts the intestinal motility score by 5 points. That is, the intestinal-related score acquisition unit 152 determines that the intestinal peristaltic movement is in a poor state. The process proceeds to step S245.
  • Step S245 The intestinal-related score acquisition unit 152 determines whether or not the estimation result of the intestinal condition is "normal". If it is determined that the range is within the predetermined range, the process proceeds to step S243, and if not, the process proceeds to step S244.
  • the intestinal-related score acquisition unit 152 adds 5 points to the intestinal condition score. That is, the intestinal-related score acquisition unit 152 determines that the intestine is in good condition.
  • Step S247 The intestinal-related score acquisition unit 152 deducts 5 points from the intestinal condition score. That is, the intestinal-related score acquisition unit 152 determines that the intestinal peristaltic movement is in an appropriate state.
  • Such a method can also be adopted in the acquisition of other element scores. By using such a method, it is possible to easily adjust the judgment result with respect to the standard and the degree to which it affects the element score for each element score.
  • the basic score of the element score may be set as a predetermined score or set based on the past history or the like. For example, the element score acquired last time may be set as the basic score of this time. Further, a value calculated based on the information of the past element scores within a predetermined period (for example, an average value) may be set as a basic point. This is, of course, the same in the above-described embodiment.
  • the second modification is as follows.
  • the learning information to be used may be selected based on the living information.
  • the learning information stored in the learning information storage unit 111 is associated with one or more elements and one or more viewpoints that can be included in the living information, and is one of the living information in the abdominal sound use processing.
  • the learning information to be used may be selected based on the above factors and one or more viewpoints.
  • the intestinal score acquisition unit 149 may select learning information to be used for abdominal sound use processing based on the acquired excretion-related information.
  • FIG. 18 is a flowchart showing an example of abdominal sound use processing of the information processing apparatus 100 according to the second modification of the embodiment of the present invention.
  • the intestinal score acquisition unit 149 generates a spectrum image from sound information which is audio data obtained by recording an abdominal sound.
  • Step S322 The intestinal score acquisition unit 149 acquires excretion-related information.
  • the intestinal score acquisition unit 149 uses the device identification information corresponding to the sound information and the learning information corresponding to the excretion-related information among the learning information stored in the learning information storage unit 111. Select as learning information. That is, the intestinal score acquisition unit 149 selects the learning information corresponding to the predetermined information included in the living information from the learning information stored in the learning information storage unit 111 as the learning information to be used.
  • each of the plurality of learning information stored in the learning information storage unit 111 is associated with the device identification information and, for example, the Bristol scale. This may be realized by generating learning information using a plurality of learning input information having the same Bristol scale. Then, in the process of step S323, the learning information corresponding to the device identification information may be selected from the learning information corresponding to the Bristol scale of the excretion-related information acquired in step S322.
  • Step S324 The intestinal score acquisition unit 149 inputs sound information to the learning information and outputs the value of the output index.
  • the frequency of intestinal sounds included in the abdominal sounds and the estimation result of the intestinal state are output. After that, the process returns to the process shown in FIG.
  • the learning information to be used may be selected based on the basic information by the same method as described above.
  • the learning information stored in the learning information storage unit 111 is associated with one or more elements that can be included in the basic information, and is based on one or more elements of the basic information in the abdominal sound use process. Then, the learning information to be used may be selected.
  • the third modification is as follows. That is, the intestinal-related score acquisition unit 152 acquires the intestinal-related score from the sound information and the living information by using the learning information configured to input the sound information and the living information and output the intestinal-related score. You may do so. In this case, any element or viewpoint of the living information may be used as input information. In addition, the intestinal relationship score may be obtained without using the living information. Further, in either case, the basic information may be used as the input information.
  • the learning information used is two or more sets of learning input information including sound information and living information and an intestinal relationship score
  • the learning information generation unit 147 classifies the two or more sets of information and machine learning. It may be generated by constructing a classifier using a module for constituting the vessel, or may be similarly generated by another apparatus or the like.
  • FIG. 19 is a flowchart showing an example of the score acquisition process of the information processing apparatus 100 according to the third modification of the embodiment of the present invention.
  • the intestinal score acquisition unit 149 acquires sound information, living information, past user information, and the like regarding the target user from the user information storage unit 115 based on the user identifier of the target user.
  • the intestinal score acquisition unit 149 performs a process of acquiring a score for each element other than the intestinal-related score by the element score acquisition unit 151. That is, the element score acquisition process is performed for the scores other than the intestinal-related scores.
  • the intestine score acquisition unit 149 performs an intestine-related score acquisition process using sound information.
  • the intestinal-related score acquisition process is performed as the abdominal sound use process. The details of the intestinal-related score acquisition process according to this modification will be described later.
  • Step S414 When each element score is obtained by the element score acquisition process and the intestine-related score acquisition process, the intestine score acquisition unit 149 acquires the intestine score from each element score. At this time, as described above, the intestine score acquisition unit 149 acquires the intestine score by, for example, adding or multiplying by a predetermined method using each element score, but the present invention is not limited to this.
  • Step S415) The intestinal score acquisition unit 149 associates the acquired intestinal score and each element score with the user identifier of the target user, and accumulates them in the user information storage unit 115. After that, the process returns to FIG.
  • FIG. 20 is a flowchart showing an example of the intestinal-related score acquisition process of the information processing apparatus 100.
  • the intestinal score acquisition unit 149 generates a spectrum image from sound information which is audio data obtained by recording an abdominal sound.
  • Step S422 Among the learning information stored in the learning information storage unit 111, the intestinal score acquisition unit 149 selects the learning information corresponding to the device identification information corresponding to the sound information as the learning information to be used.
  • the intestinal score acquisition unit 149 acquires living information. At the same time, basic information may be acquired.
  • Step S424 The intestinal score acquisition unit 149 inputs sound information and living information to the learning information, and outputs an intestinal motility score and an intestinal condition score. After that, the process returns to the process shown in FIG.
  • the intestinal relation score is directly output by using the learning information generated by using the information of those combinations.
  • the intestinal relationship score and the intestinal score can be obtained easily and with high accuracy.
  • the intestinal score acquisition unit 149 may input sound information and other input information (living information, basic information, etc.) into the learning information to acquire the intestinal score.
  • the intestinal score can be obtained easily and with high accuracy.
  • a non-volatile recording medium is suitable for the storage unit 110 and the terminal storage unit 610 described above, a volatile recording medium can also be used.
  • Information acquired by each device is stored in these, but the process of storing the information is not limited to this.
  • information or the like may be stored via a recording medium, information or the like transmitted via a communication line or the like may be stored, or input via an input device. The information and the like may be stored.
  • processing unit 140 and terminal processing unit 640 can usually be realized from an MPU, a memory, or the like.
  • the processing procedure of the processing unit 140 and the terminal processing unit 640 is usually realized by software, and the software is recorded in a recording medium such as ROM. However, it may be realized by hardware (dedicated circuit).
  • the input means that can be used for inputting the information that can be accepted by the reception unit 130 or the terminal reception unit 630 may be any input means such as a numeric keypad, a keyboard, a mouse, or a menu screen.
  • the reception unit 130 and the terminal reception unit 630 can be realized by a device driver for input means such as a numeric keypad or a keyboard, control software for a menu screen, or the like.
  • the receiving unit 120 and the terminal receiving unit 620 are usually realized by a wireless or wired communication means, but may be realized by a means for receiving a broadcast.
  • the transmission unit 170 and the terminal transmission unit 670 are usually realized by wireless or wired communication means, but may be realized by broadcasting means.
  • the information processing apparatus 100 may be configured by one server, may be configured by a plurality of servers operating in cooperation with each other, or may be composed of a computer built in another device or the like. It may be.
  • the server may be a so-called cloud server, an ASP server, or the like, and it goes without saying that the type of server does not matter.
  • the processing in this embodiment may be realized by software. Then, this software may be distributed by software download or the like. Further, this software may be recorded on a recording medium such as a CDROM and disseminated.
  • the software that realizes the information processing device 100 in this embodiment is the following program. That is, this program uses the computer as a sound information acquisition unit for acquiring sound information related to the abdominal sound, which is a sound emitted from the abdomen of one user, and input information including sound information acquired by the sound information acquisition unit.
  • the terminal device may have a part or all of the configuration for realizing the function related to the acquisition and output of the intestinal score as the above-mentioned information processing device has.
  • FIG. 21 is a block diagram showing a configuration of a terminal device according to another modification of the above-described embodiment.
  • the terminal device 1600 is configured to be able to acquire and output an intestinal score in the same manner as the above-mentioned information processing device 100.
  • the terminal storage unit 610 is provided with a learning information storage unit 111 and a user information storage unit 115.
  • the terminal processing unit 640 has a sound information acquisition unit 141, a device identification information acquisition unit 143, a living information acquisition unit 145, a learning information generation unit 147, an intestinal score acquisition unit 149, an element score acquisition unit 151, and an intestinal score output unit. 161 is provided.
  • the sound information acquisition unit 141 can acquire sound information based on the abdominal sound recorded by the microphone 681.
  • the device identification information acquisition unit 143 acquires the device identification information of the terminal device 1600.
  • the living information acquisition unit 145 acquires living information based on the information input by the user received by the terminal reception unit 630 and the information acquired by using the sensor unit 680.
  • the intestine score output unit 161 causes, for example, the display unit 661 of the terminal output unit 660 to display the acquired intestine score and the like.
  • the terminal device 1600 may be configured to function as an information processing device that acquires and outputs an intestinal score. The same effect as described above can be obtained.
  • the learning information generation unit 147 may be provided on the information processing device 100 side, and may be configured so that the terminal device 1600 receives and uses the generated learning information.
  • a learning information storage unit 111 in which a plurality of learning information is stored is arranged on the information processing device 100 side, and among the learning information, the learning information corresponding to the device identification information of the terminal device 1600 or the like is provided. It may be configured to be downloaded and used by the terminal device 1600.
  • FIG. 22 is an overview diagram of the computer system 800 in the above embodiment.
  • FIG. 23 is a block diagram of the computer system 800.
  • the computer system 800 includes a computer 801 including a CD-ROM drive, a keyboard 802, a mouse 803, and a monitor 804.
  • the computer 801 is connected to the MPU 8013, the bus 8014 connected to the CD-ROM drive 8012, the ROM 8015 for storing programs such as boot-up programs, and the MPU 8013. It includes a RAM 8016 for temporarily storing program instructions and providing a temporary storage space, and a hard disk 8017 for storing application programs, system programs, and data.
  • the computer 801 may further include a network card that provides a connection to the LAN.
  • the program for causing the computer system 800 to execute the functions of the information processing apparatus and the like according to the above-described embodiment may be stored in the CD-ROM 8101, inserted into the CD-ROM drive 8012, and further transferred to the hard disk 8017.
  • the program may be transmitted to the computer 801 over a network (not shown) and stored on the hard disk 8017.
  • the program is loaded into RAM 8016 at run time.
  • the program may be loaded directly from the CD-ROM 8101 or the network.
  • the program does not necessarily have to include an operating system (OS) or a third-party program that causes the computer 801 to execute the functions of the information processing apparatus and the like according to the above-described embodiment.
  • the program need only include a portion of the instruction that calls the appropriate function (module) in a controlled manner to obtain the desired result. It is well known how the computer system 800 works, and detailed description thereof will be omitted.
  • processing performed by hardware for example, processing performed by a modem or interface card in the transmission step (only performed by hardware). Processing that is not done) is not included.
  • the number of computers that execute the above program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
  • the two or more components existing in one device may be physically realized by one medium.
  • each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program.
  • each component can be realized by reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU.
  • the program execution unit may execute the program while accessing the storage unit or the recording medium.
  • the program may be executed by being downloaded from a server or the like, or may be executed by reading a program recorded on a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.). good.
  • this program may be used as a program constituting a program product.
  • the number of computers that execute the program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
  • each process may be realized by centralized processing by a single device (system), or may be realized by distributed processing by a plurality of devices. (In this case, it is possible to grasp the entire system composed of a plurality of devices that perform distributed processing as one "device"). For example, in the above-described embodiment, a part of the operations described to be performed by the information processing device may be performed by another device such as a terminal device.
  • the transfer of information performed between the components is performed by, for example, one of the components when the two components that transfer the information are physically different. It may be performed by outputting information and accepting information by the other component, or if the two components that pass the information are physically the same, one component. It may be performed by moving from the processing phase corresponding to the other component to the processing phase corresponding to the other component.
  • information related to the processing executed by each component for example, information received, acquired, selected, generated, transmitted, or received by each component. Further, information such as threshold values, mathematical formulas, addresses, etc. used by each component in processing may be temporarily or for a long time held in a recording medium (not shown), even if it is not specified in the above description. Further, each component or a storage unit (not shown) may store information on a recording medium (not shown). Further, the information may be read from the recording medium (not shown) by each component or a reading unit (not shown).
  • the information used in each component or the like for example, the information such as the threshold value and the address used in the processing by each component and various setting values may be changed by the user, the above-mentioned
  • the user may or may not be able to change the information as appropriate.
  • the change is realized by, for example, a reception unit (not shown) that receives a change instruction from the user and a change unit (not shown) that changes the information in response to the change instruction. You may.
  • the reception unit may accept the change instruction from, for example, an input device, information transmitted via a communication line, or information read from a predetermined recording medium. ..
  • the configuration itself is not limited to the above-described embodiment, and some components and functions of the above-described embodiment may be omitted.
  • the information processing apparatus has the effect of being able to know objective information regarding the condition of the intestine, and is useful as an information processing apparatus or the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • Physiology (AREA)
  • Biophysics (AREA)
  • Endocrinology (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Nutrition Science (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】従来の情報処理装置においては、腸の調子に関する客観的な情報を知ることが困難であったという課題があった。 【解決手段】一のユーザの、腹部から出る音である腹部音に関する音情報を取得する音情報取得部141と、音情報取得部141により取得された音情報を含む入力情報と、予め用意された学習情報とを用いて、ユーザの腸の調子に関する腸スコアを取得する腸スコア取得部149と、腸スコア取得部149により取得された腸スコアを出力する腸スコア出力部161とを備える、情報処理装置100により、腸の調子に関する客観的な情報を知ることができる。

Description

情報処理装置、情報処理方法、及び記録媒体
 本発明は、一のユーザの腸の調子に関する情報を取得可能な情報処理装置、情報処理方法、及び記録媒体に関するものである。
 近年、ユーザの間で、自身の健康に関する意識が高まっている。このような状況の中で、健康や生活習慣に関する情報の支援を行うための各種装置やサービスが提供されるようになっている。例えば、下記特許文献1には、ユーザの健康管理情報を取得して記録し、その内容に基づいて、ユーザに対して健康管理に係るメッセージを出力するように構成された健康管理支援システムの構成が記載されている。
 また、腸(小腸及び大腸)は栄養素の消化吸収の場として、また腸内細菌との共生の場として重要な臓器の一つとして知られている。近年、「腸活」という言葉などとともに腸の健康に関するニーズは高まっている。
 下記特許文献2には、非接触マイクロフォンで獲得した録音データから機械学習の手法により抽出した音響特徴量により、腸疾患の診断を目的にした胃腸の運動性の評価を行う解析装置が記載されている。
特開2017-041035号公報 国際公開2019/216320号
 健康に関する意識が高まる中で、ユーザにとって、具体的な器官や部位に着目した事項が関心事となることがある。例えば、腸の調子は、体調や飲食物の内容等の種々の要因により変化しやすい。そのため、医学等に関する専門的な知識を持たない非専門家である多くのユーザにとっても、自身の腸の調子に関する客観的な情報であって簡便に把握可能な情報を得られるようにすることは、有用である。
 従来においては、医療現場において、例えば、医師が聴診器を用いて腹部の蠕動音を聞き、それに基づいて蠕動運動が活発であるか否かを評価して腸機能の診断が行われている。また、腸疾患の診断に関して、特許文献2に記載のような装置が提案されている。しかしながら、ユーザが、自身の腸の調子に関する客観的な情報であって簡便に把握可能な情報を知ることはできなかった。
 本第一の発明の情報処理装置は、一のユーザの、腹部から出る音である腹部音に関する音情報を取得する音情報取得部と、音情報取得部により取得された音情報を含む入力情報と、予め用意された学習情報とを用いて、ユーザの腸の調子に関する腸スコアを取得する腸スコア取得部と、腸スコア取得部により取得された腸スコアを出力する腸スコア出力部とを備える、情報処理装置である。
 かかる構成により、ユーザが、腸の調子に関する客観的な情報を知ることができる。
 また、本第二の発明の情報処理装置は、第一の発明に対して、入力情報は、ユーザの生活状況に関する生活情報をさらに含む、情報処理装置である。
 かかる構成により、ユーザの生活状況にも基づいた、腸の調子に関するより確かな情報を出力することができる。
 また、本第三の発明の情報処理装置は、第二の発明に対して、生活情報は、ユーザの排泄の状況に関する排泄関係情報を含んでいる、情報処理装置である。
 かかる構成により、ユーザの排泄状況にも基づいた、腸の調子に関するより確かな情報を出力することができる。
 また、本第四の発明の情報処理装置は、第三の発明に対して、排泄関係情報は、ユーザにより入力されたブリストルスツールフォームスケールにより示される情報を含む、情報処理装置である。
 かかる構成により、腸の調子に関するより確かな情報を知るための情報を、容易に用意することができる。
 また、本第五の発明の情報処理装置は、第三の発明に対して、腸スコア取得部は、排泄関係情報に基づいて、排泄スコアを取得する排泄スコア取得部をさらに備え、排泄スコア取得部により取得した排泄スコアを用いて、腸スコアを取得する、情報処理装置である。
 かかる構成により、ユーザの排泄状況を反映した腸スコアを出力することができる。
 また、本第六の発明の情報処理装置は、第二の発明に対して、生活情報は、ユーザの飲食の状況に関する飲食情報を含む、情報処理装置である。
 かかる構成により、ユーザの飲食の状況にも基づいた、腸の調子に関するより確かな情報を出力することができる。
 また、本第七の発明の情報処理装置は、第六の発明に対して、飲食情報は、飲水量に関する情報、飲酒の有無若しくは飲酒量に関する情報、食事の有無若しくは内容に関する情報、及び摂取した特定群の食品の有無若しくは摂取量に関する情報のうち少なくとも1つを含む、情報処理装置である。
 かかる構成により、具体的な飲食の状況を反映した腸スコアを出力することができる。
 また、本第八の発明の情報処理装置は、第六の発明に対して、腸スコア取得部は、飲食情報に基づいて、飲食スコアを取得する飲食スコア取得部をさらに備え、飲食スコア取得部により取得した飲食スコアを用いて、腸スコアを取得する、情報処理装置である。
 かかる構成により、ユーザの飲食の状況を反映した腸スコアを出力することができる。
 また、本第九の発明の情報処理装置は、第二の発明に対して、生活情報は、ユーザの活動状況に関する活動状況情報を含む、情報処理装置である。
 かかる構成により、ユーザの活動状況にも基づいた、腸の調子に関するより確かな情報を出力することができる。
 また、本第十の発明の情報処理装置は、第九の発明に対して、活動状況情報は、睡眠に関する睡眠情報及び運動に関する運動情報のうち少なくとも1つを含む、情報処理装置である。
 かかる構成により、睡眠又は運動の状況を反映した腸スコアを出力することができる。
 また、本第十一の発明の情報処理装置は、第九の発明に対して、活動状況情報は、ユーザの活動量を取得する活動量計により取得された情報である、情報処理装置である。
 かかる構成により、定量的に得られた活動情報に基づいて、腸の調子に関するより確かな情報を出力することができる。
 また、本第十二の発明の情報処理装置は、第九の発明に対して、腸スコア取得部は、活動状況情報に基づいて、活動状況スコアを取得する活動状況スコア取得部をさらに備え、活動状況スコア取得部により取得した活動状況スコアを用いて、腸スコアを取得する、情報処理装置である。
 かかる構成により、ユーザの活動状況を反映した腸スコアを出力することができる。
 また、本第十三の発明の情報処理装置は、第一の発明に対して、学習情報は、音情報を含む学習入力情報を入力する情報とし、腸の活動状態に関する所定の出力指標の値を出力する情報とするようにして作成されたものであり、腸スコア取得部は、学習情報を用いて取得した出力指標の値を用いて、腸スコアを取得する、情報処理装置である。
 かかる構成により、容易に、腸の調子に関する客観的な情報を出力することができる。
 また、本第十四の発明の情報処理装置は、第十三の発明に対して、出力指標は、便通の状態と、単位時間当たりの腸蠕動運動の回数とのうち、少なくとも1つである、情報処理装置である。
 かかる構成により、便通の状態と、単位時間当たりの腸蠕動運動の回数との少なくとも1つの値に基づいて、的確に腸スコアを取得することができる。
 また、本第十五の発明の情報処理装置は、第一の発明に対して、腸スコア取得部は、入力情報に基づいて、2以上の評価要素のそれぞれについての要素スコアを取得する要素スコア取得部を有し、要素スコア取得部により取得された要素スコアを用いて腸スコアを取得し、出力部は、要素スコア取得部により取得された要素スコアを用いたレーダーチャートをさらに出力する、情報処理装置である。
 かかる構成により、腸の調子に関する各評価要素に関する情報を容易に把握可能となるように出力することができる。
 また、本第十六の発明の情報処理装置は、第一の発明に対して、音情報に対応する、腹部音の取得に用いた機器の種類を識別する機器識別情報を取得する機器識別情報取得部をさらに備え、学習情報は、それぞれ機器識別情報に対応付けられて複数用意されており、腸スコア取得部は、機器識別情報取得部により取得された機器識別情報に対応する学習情報を用いて、腸スコアを取得する、情報処理装置である。
 かかる構成により、腹部音の取得に用いた機器の特性等に応じて適切に腸スコアを取得することができる。
 また、本第十七の発明の情報処理装置は、第一の発明に対して、腹部音を録音するためのマイクと、出力部により出力された腸スコアが表示される表示部とをさらに備える、情報処理装置である。
 かかる構成により、ユーザが容易に、腹部音を測定するとともに腸の調子に関する客観的な情報を知ることができる。
 本発明による情報処理装置等によれば、自身の腸の調子に関する客観的な情報であって簡便に把握可能な情報を出力することができる。
本発明の実施の形態の1つに係る情報処理システムの概要を示す図 同情報処理装置のブロック図 同端末装置のブロック図 同情報処理装置の動作の一例を示すフローチャート 同情報処理装置のスコア取得処理の一例を示すフローチャート 同情報処理装置の腹部音使用処理の一例を示すフローチャート 同情報処理装置の腸関係スコア取得処理の一例を示すフローチャート 同情報処理装置の排泄スコア取得処理の一例を示すフローチャート 同情報処理装置の食事スコア取得処理の一例を示すフローチャート 同情報処理装置の飲料スコア取得処理の一例を示すフローチャート 同情報処理装置の活動状況スコア取得処理の一例を示すフローチャート 同端末装置の画面遷移の一具体例を示す第1の図 同端末装置の画面遷移の一具体例を示す第2の図 同端末装置の画面遷移の一具体例を示す第3の図 同端末装置の画面遷移の一具体例を示す第4の図 本発明の実施の形態の第一の変形例に係る情報処理装置の腹部音使用処理の一例を示すフローチャート 同情報処理装置の腸関係スコア取得処理の一例を示すフローチャート 本発明の実施の形態の第二の変形例に係る情報処理装置の腹部音使用処理の一例を示すフローチャート 本発明の実施の形態の第三の変形例に係る情報処理装置のスコア取得処理の一例を示すフローチャート 同情報処理装置の腸関係スコア取得処理の一例を示すフローチャート 上述の実施の形態の他の変形例に係る端末装置の構成を示すブロック図 上記実施の形態におけるコンピュータシステムの概観図 同コンピュータシステムのブロック図
 以下、情報処理装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。
 なお、以下において用いる用語は、一般的には次のように定義される。なお、これらの用語の語義は常にここに示されるように解釈されるべきではなく、例えば以下において個別に説明されている場合にはその説明も踏まえて解釈されるべきである。
 腹部音とは、ユーザの腹部から発せられる音をいう。腹部音には、例えば、腸から発せられた腸音が含まれうる。また、腹部音には、腹部の血流により発せられる音(例えば、腹部大動脈音)や、胃等の器官から発せられる音が含まれうる。
 音情報とは、腹部音に基づいて得られた情報をいう。音情報とは、録音された腹部音のデータそのものであってもよいし、当該データを加工したり編集したりして得られたデータなどであってもよい。
 生活情報とは、一のユーザの生活状況に関する情報である。生活状況には、ユーザの行動、状態等に関する種々の要素のものが含まれうる。以下の実施の形態においては、生活情報は、例えば、排泄関係情報、飲食情報、活動状況情報を含む。すなわち、生活状況には、例えば、ユーザの排泄状況、ユーザの飲食の状況、ユーザの活動状況などが含まれる。ただし、これに限られず、生活情報には、他の要素に関する情報が含まれていてもよいし、これらの要素の一部のみに関する情報が含まれていてもよい。なお、生活情報の各要素についての情報(排泄関係情報、飲食情報、活動状況情報など)のそれぞれは、細かな要素についての情報を含みうる。
 排泄関係情報とは、ユーザの排泄状況に関する情報である。排泄関係情報としては、例えば、排泄物の排泄を行った時間や、量、臭い、形態(形状、色など)など、種々の観点の情報が含まれうる。本実施の形態においては、排泄関係情報として、公知のブリストルスツールフォームスケール(以下、ブリストルスケールということもある)により表される値が含まれる。ブリストルスケールは、生理的な消化管通過時間を示唆するものであり、腸の状態を間接的に表しうるものであるといえる。なお、ブリストルスケールにより表される値に対応するラベル(例えば「バナナ」、「ぷりぷり」、「どろどろ」など)が、排泄関係情報として用いられるようにしてもよい。なお、排泄関係情報としては、ユーザ等の評価者が排泄物について評価を行った結果の情報(評価者の主観が伴う情報)が用いられていてもよいし、評価機器等により測定や評価が行われた結果の情報が用いられていてもよい。
 飲食情報とは、ユーザの飲食の状況に関する情報である。飲食情報としては、例えば、水、飲酒量、食事の内容など、種々の観点の情報が含まれうる。飲食情報を、食事や食生活に関する食事情報と、飲料の摂取に関する飲料情報とに概念的に分けて表現してもよい。本実施の形態においては、飲食情報には、飲水量に関する情報、飲酒の有無若しくは飲酒量に関する情報、食事の有無若しくは食事の内容に関する情報、及び摂取した特定群の食品の有無若しくは摂取量に関する情報のうち少なくとも1つが含まれるが、これに限られない。なお、特定群の食品とは、例えば、肉類、乳製品、野菜などと分類される群のうち特定の群に属する食品をいうが、このような「群」の分類の観点や粒度はこれに限られない。なお、飲食情報としては、ユーザ等の評価者が飲食の状況について評価を行って入力した情報であるが、これに限られず、例えば評価機器等により測定や評価が行われた結果の情報が用いられていてもよい。例えば、摂取した食品や飲料の種類や量によって、消化器運動に異なる影響が及びうる。
 活動状況情報とは、ユーザの活動状況に関する情報である。ここでいう活動状況とは、飲食の状況を除く、生活習慣(ユーザが日々の生活において繰り返して行っている行為や動作をいう)に関する状況をいう。すなわち、活動状況情報とは、飲食情報を除き、生活習慣に関する情報を含みうるものである。本実施の形態において、活動状況情報は、睡眠に関する睡眠情報(睡眠時間や睡眠の質など)及び運動に関する運動情報(歩数、消費した熱量、習慣にしている運動の有無、運動強度や運動の頻度、など)のうち少なくとも1つが含まれるが、これに限られない。例えば、活動状況情報に、喫煙の有無や喫煙歴などに関する情報が含まれていてもよい。なお、活動状況情報としては、例えば、ユーザが所持していたり身に付けていたりする機器(例えば、ウェアラブル端末その他携帯端末など)に設けられている活動量計により取得された情報であってもよいし、ユーザ等の評価者が評価を行って入力した情報であってもよい。
 基礎情報とは、ユーザの形態や特性に関する情報である。例えば、基礎情報には、ユーザの身長、体重、年齢、性別、体脂肪率、筋肉量、脈拍数、呼吸数、血圧など、種々の情報が含まれうる。また、基礎情報には、ユーザのアンケートの回答やその回答に基づいて生成された情報、ユーザの既往歴に関する情報などが含まれていてもよい。例えば、腸障害を持つ人の診断に利用されるようなアンケート項目の回答内容は、ユーザの体質を客観的に表しうるものである。基礎情報は、例えば、予めユーザにより入力等が行われるものであるが、これに限られず、例えばユーザが身に付けるウェアラブル端末等により取得される情報や、ユーザ情報が記録された外部のデータベース等などから取得される情報であってもよい。
 ある事項について識別子とは、当該事項を一意に示す文字又は符号等である。識別子は、例えば、IDであるが、対応する事項を識別しうる情報であれば種類は問わない。すなわち、識別子は、それが示すものそのものの名前であってもよいし、一意に対応するように符号を組み合わせたものであってもよい。
 取得とは、ユーザ等により入力された事項を取得することを含んでいてもよいし、自装置又は他の装置に記憶されている情報(予め記憶されている情報であってもよいし当該装置において情報処理が行われることにより生成された情報であってもよい)を取得することを含んでいてもよい。他の装置に記憶されている情報を取得するとは、他の装置に記憶されている情報をAPI経由などで取得することを含んでいてもよいし、他の装置により提供されている文書ファイルの内容(ウェブページの内容なども含む)についてスクレイピング等を行うことにより取得することを含んでいてもよい。また、画像ファイルについて光学式文字読み取りを行うことにより情報を取得することなど、元の情報に基づいてそれとは異なるフォーマットの情報を取得することを含んでいてもよい。
 また、情報の取得には、いわゆる機械学習の手法を利用するようにしてもよい。機械学習の手法の利用については、例えば次のようにすることができる。すなわち、特定の種類の入力用の情報を入力とし、取得したい種類の情報を出力とする分類器を、機械学習の手法を用いて構成する。例えば、予め、入力用の情報と出力情報との組を2以上用意し、当該2組以上の情報を機械学習の分類器を構成するためのモジュールに与えて分類器を構成し、構成した分類器を格納部に蓄積する。なお、分類器は学習器ということもできる。なお、機械学習の手法としては、例えば、深層学習、ランダムフォレスト、SVR等、問わない。また、機械学習には、例えば、fastText、tinySVM、random forest、TensorFlow等の各種の機械学習フレームワークにおける関数や、種々の既存のライブラリを用いることができる。
 また、分類器は、機械学習により得られるものに限られない。分類器は、例えば、入力用の情報等に基づく入力ベクトルと、出力情報との対応関係を示すテーブルであってもよい。この場合、入力用の情報に基づく特徴ベクトルに対応する出力情報をテーブル中から取得するようにしてもよいし、テーブル中の2以上の入力ベクトルと各入力ベクトルの重み付けなどを行うパラメータとを用いて入力用の情報に基づく特徴ベクトルに近似するベクトルを生成し、生成に用いた各入力ベクトルに対応する出力情報とパラメータとを用いて、最終的な出力情報を取得するようにしてもよい。また、分類器は、例えば、入力用の情報等に基づく入力ベクトルと、出力情報を生成するための情報との関係を表す関数などであってもよい。この場合、例えば、入力用の情報に基づく特徴ベクトルに対応する情報を関数により求めて、求めた情報を用いて出力情報を取得するなどしてもよい。
 情報を出力するとは、ディスプレイへの表示、プロジェクタを用いた投影、プリンタでの印字、音出力、外部の装置への送信、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念である。具体的には、例えば、情報のウェブページへの表示を可能とすることや、電子メール等として送信することや、印刷するための情報を出力することなどを含む。
 情報の受け付けとは、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、他の装置等から有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念である。
 情報処理装置等に格納されている各種の情報について、更新とは、格納されている情報の変更のほか、格納されている情報に新たな情報が追加されることや、格納されている情報の一部又は全部が消去されることなどを含む概念である。
 (実施の形態)
 本実施の形態において、情報処理装置は、一のユーザの腹部音に関する音情報を含む入力情報と、予め用意された学習情報とを用いて、腸の調子に関する腸スコアを取得し、出力する。入力情報は、当該ユーザの生活状況に関する生活情報を含んでいてもよく、生活情報は、ユーザの排泄状況に関する排泄関係情報、ユーザの飲食に関する飲食情報、ユーザの活動状況に関する活動状況情報を含んでいてもよい。好ましくは、情報処理装置は、腹部音を録音するマイクと、スコアが表示されるモニタとを備える携帯情報端末を介して利用することができるものであるが、これに限られない。以下、このように構成された情報処理システム1について説明する。
 図1は、本発明の実施の形態の1つに係る情報処理システム1の概要を示す図である。
 本実施の形態において、情報処理システム1は、情報処理装置100と、端末装置600とを備えている。情報処理装置100と、端末装置600とは、例えばローカルエリアネットワークやインターネットなどのネットワークを介して互いに通信可能である。なお、情報処理システム1の構成はこれに限られるものではない。情報処理システム1に含まれるそれぞれの装置の数は問わないし、他の装置が情報処理システム1に含まれていてもよい。
 情報処理システム1のユーザは、端末装置600を利用して、情報処理システム1を利用することができる。なお、図1においては、例えばいわゆるスマートフォンなどの携帯情報端末装置であってそれぞれ内蔵のマイク681を有するものが端末装置600として示されているが、端末装置600として用いられるのはこのような携帯情報端末装置に限られない。例えば、ラップトップコンピュータなどのパーソナルコンピュータ(PC)である端末装置600bが用いられていてもよいし、タブレット型の情報端末装置など、これら以外の装置が用いられていてもよい。また、マイクとして、外付けのマイク681bが用いられてもよい。以下の例においては、端末装置600として、スマートフォンなどの携帯情報端末装置が用いられることを想定して説明するが、これに限られるものではない。
 図2は、同情報処理装置100のブロック図である。図3は、同端末装置600のブロック図である。
 図2に示されるように、情報処理装置100は、格納部110、受信部120、受付部130、処理部140、及び送信部170を備える。情報処理装置100は、例えば、サーバ装置である。
 格納部110は、学習情報格納部111及びユーザ情報格納部115を備える。
 学習情報格納部111には、予め取得された学習情報が格納されている。本実施の形態において、学習情報は、入力する情報を、音情報を含む学習入力情報とし、出力する情報を、腸の活動状態に関する所定の出力指標の値とするようにして作成されたものである。学習情報は、いわゆる機械学習の手法を利用して生成される。学習情報は、例えば後述のようにして学習情報生成部147により生成されて学習情報格納部111に記憶されたものであるが、これに限られない。すなわち、情報処理装置100とは異なる装置において生成された学習情報が学習情報格納部111に格納されていてもよい。
 ここで、本実施の形態において、学習情報は、複数用意されている。各学習情報は、機器識別情報に対応付けられて学習情報格納部111に格納されている。機器識別情報は、学習情報の生成時に用いられた学習入力情報に含まれる音情報に対応する情報であり、当該音情報に対応する腹部音の取得すなわち録音等に用いた機器の種類等を識別する情報である。機器識別情報は、腹部音の録音等を行った方法を識別する情報であるといってもよい。ここで機器とは、例えば、腹部音の録音に用いられたマイクを意味してもよいし、当該マイクが含まれる装置セットを意味してもよい。機器識別情報は、例えば、腹部音の録音に用いられた機器のモデルを識別する符号であったり、録音に用いられた機器のタイプ(スマートフォンの内蔵マイクが用いられたか、外付けマイクが用いられたかなど)を識別する符号であったりすればよいが、これに限られない。録音方法、録音された腹部音の加工方法(例えば、適用されたフィルタの有無、種類、音質調整等)など、学習入力情報の由来をある程度の粒度で識別可能な符号が、機器識別情報として用いられうる。
 ユーザ情報格納部115は、ユーザ情報が格納される。本実施の形態において、ユーザ情報は、情報処理システム1を利用するユーザを識別する識別子であるユーザ識別子と、当該ユーザに関する情報とが対応付けられている情報である。ユーザ情報には、種々の情報が含まれうる。例えば、ユーザが使用する端末装置600から送信される情報や、ユーザについて後述のようにして情報処理装置100により取得される情報等が含まれうる。ユーザが使用する端末装置600から送信される情報には、例えば、ユーザの基礎情報等のほか、後述するような音情報や、機器識別情報や、生活情報等が該当する。また、ユーザについて情報処理装置100により取得された情報には、例えば、後述するような、腸音の頻度に関する情報や、腸の状態の推定結果や、各要素スコア、腸スコア等が該当する。ユーザ情報格納部115には、その他の外部装置等から送信されたユーザ情報が格納されていてもよい。
 受信部120は、他の装置から送信された情報を受信する。受信部120は、受信した情報を、例えば、格納部110に保存する。本実施の形態において、ユーザは、例えば、端末装置600を用いて情報の入力等を行い、情報処理装置100に送信する。受信部120は、送信された各情報を、ユーザ識別子に対応付けて格納部110に保存することができる。また、後述するように、本実施の形態において、各端末装置600から送信された、音情報を受信し、ユーザ識別子に対応付けて格納部110に保存することができる。なお、受信部120は、端末装置600からこれらの情報を受信する場合に、送信された情報に基づいて、送信に係るユーザのユーザ識別子を特定可能である。
 受付部130は、情報処理装置100に接続された図示しない入力手段を用いて入力された情報を受け付ける。受付部130は、受け付けた情報を、例えば、格納部110に保存する。なお、入力手段は、テンキーやキーボードやマウスやメニュー画面によるもの等、何でもよい。受付部130は、情報処理装置100に接続された読み取り装置(例えば、コードリーダなど)を用いて行われた入力操作(例えば、装置により読み取られた情報も含む)により入力された情報を受け付けてもよい。
 なお、受付部130は、受信部120が受信した情報を、情報処理装置100に入力された情報として受け付けると捉えてもよい。すなわち、情報処理装置100への情報の入力とは、これらの情報が端末装置600等を介してユーザによって間接的に情報処理装置100に入力されることを意味してもよいし、ユーザによって入力手段を用いて直接的に情報処理装置100に入力されることを意味してもよい。また、ユーザが、情報を自動的に生成するプログラムを実行させたり種々の情報をプログラムに与えて機能させたりすることなどによって情報処理装置100に情報が与えられるようにすることを、情報処理装置100への情報の入力と捉えてもよい。
 処理部140は、音情報取得部141、機器識別情報取得部143、生活情報取得部145、学習情報生成部147、腸スコア取得部149、要素スコア取得部151、及び腸スコア出力部161を備える。処理部140は、各種の処理を行う。各種の処理とは、例えば、以下のように処理部140の各部が行う処理である。
 音情報取得部141は、一のユーザの音情報を取得する。本実施の形態において、音情報取得部141は、ユーザの端末装置600から送信され、受信部120により受信された音情報を取得する。
 機器識別情報取得部143は、音情報に対応する機器識別情報を取得する。本実施の形態において、機器識別情報は、音情報に対応付けてユーザの端末装置600から送信されたものであるが、これに限られない。予め当該ユーザの端末装置600を識別する情報として格納部110に格納されている機器識別情報を、機器識別情報取得部143が取得するように構成されていてもよい。
 生活情報取得部145は、生活情報を取得する。本実施の形態において、生活情報は、排泄関係情報、飲食情報、及び活動状況情報(すなわち運動情報や睡眠情報)を含むが、これに限られない。生活情報取得部145は、例えばユーザ情報格納部115に格納されている情報を取得する。そのほか、生活情報取得部145は、ユーザの基礎情報を取得するようにしてもよい。
 学習情報生成部147は、機械学習の手法を利用して、学習情報を生成する。機械学習の手法を利用は、例えば次のようにすることができる。すなわち、音情報を含む学習入力情報を入力とし、腸の活動状態に関する所定の出力指標の値(出力値)を出力とする分類器を、機械学習の手法を用いて構成する。例えば、予め、学習入力情報と出力値との組を2以上用意し、当該2組以上の情報を機械学習の分類器を構成するためのモジュールに与えて分類器を構成し、構成した分類器を学習情報として学習情報格納部111に蓄積する。なお、分類器は学習器ということもできる。なお、機械学習の手法としては、例えば、畳み込みニューラルネットワーク(CNN)などの深層学習、ランダムフォレスト、SVR等、問わない。また、機械学習には、例えば、fastText、tinySVM、random forest、TensorFlow等の各種の機械学習フレームワークにおける関数や、種々の既存のライブラリを用いることができる。学習入力情報と出力値との組合せは、予め用意されていればよい。なお、新たに情報処理装置において取得された音情報や出力値との組み合わせを用いて、所定のタイミングで学習情報を再生成するように構成してもよい。
 腸スコア取得部149は、音情報取得部141により取得された音情報を含む入力情報と、予め用意された学習情報とを用いて、ユーザの腸の調子に関する腸スコアを取得する。本実施の形態において、腸スコア取得部149は、要素スコア取得部151を有する。要素スコア取得部151は、腸関係スコア取得部152、排泄スコア取得部153、飲食スコア取得部154、及び活動状況スコア取得部155を有する。
 腸スコア取得部149は、本実施の形態において、学習情報格納部111に格納されている学習情報を用いて、所定の出力指標の値を取得し、この出力指標の値を用いて、腸スコアを取得する。所定の出力指標の値を取得する処理は、例えば後述の腸関係スコア取得部152により行われる。所定の出力指標としては、例えば、便通の状態及び単位時間当たりの腸蠕動運動の回数のうち少なくとも1つが用いられる。腸蠕動運動の回数は、所定レベル以上の腸音が発生する頻度(以下、単に腸音の頻度ということがある)といってもよい。なお、腸スコア取得部149は、機器識別情報取得部143により取得された機器識別情報に対応する学習情報を、学習情報格納部111から取得し、取得した学習情報を用いて、腸スコアを取得するように構成されている。
 本実施の形態においては、腸スコア取得部149は、要素スコア取得部151により取得された要素スコアを用いて腸スコアを取得する。要素スコア取得部151は、以下に説明するように、各部により、入力情報に基づいて、2以上の評価要素のそれぞれについての要素スコアを取得する。2以上の評価要素としては、例えば、腸関係の要素、排泄、飲料、食事、活動状況などが挙げられる。すなわち、本実施の形態において、要素スコアとして、例えば、腸運動スコア、腸状態スコア、排泄スコア、飲料スコア、食事スコア、及び活動状況スコアなどが用いられる。各スコアは、対象とする事項の状態や良好な程度表す数値やグレード等を示す符号等であり、ユーザにとって簡便に把握可能な情報である。
 腸関係スコア取得部152は、音情報取得部141により取得された音情報と学習情報とを用いて、便通の状態(正常、下痢、便秘など)に関する腸状態スコアと、腸の蠕動運動(頻度等)に関する腸運動スコアとを取得する。本実施の形態において、腸関係スコア取得部152は、機械学習の手法により、音情報取得部141により取得された音情報を学習情報に入力することで出力指標の値を取得する。そして、出力指標の値に基づいて、腸関係スコア(腸状態スコア及び腸運動スコア)を取得する。
 ここで、本実施の形態において、学習情報生成部147で学習入力情報として用いられる音情報や腸関係スコア取得部152で入力される音情報は、腹部音を録音して得られた音声データ(加工されたものであってもよい)をフーリエ変換や高速フーリエ変換により解析した結果を所定の態様で表したスペクトラム画像である。なお、音情報は、音声データ(加工されたものであってもよい)そのものであってもよいし、その他の形式にデータ変換を行ったものであってもよい。このような学習情報生成部147で学習入力情報として用いられる音情報や腸関係スコア取得部152で入力される音情報の用意は、処理部140において行われるようにすればよい。なお、腹部音の録音等が行われた機器など情報処理装置100以外の機器において、スペクトラム画像である音情報が予め用意され、その音情報が情報処理装置100に送信されるようにしてもよい。
 なお、学習情報生成部147や腸関係スコア取得部152は、学習情報の生成や利用に伴い、基礎情報等のユーザ情報を含む学習入力情報を用いるように構成されていてもよい。この場合、生成される学習情報は、ユーザ情報によりユーザを分類可能ないくつかのタイプ別に、当該タイプを識別する識別子に対応付けて学習情報格納部111に記憶されるようにすればよい。また、腸関係スコア取得部152は、ユーザ情報に基づいて特定される識別子に対応するタイプの学習情報を学習情報格納部111から取得して、当該学習情報を利用して腸関係スコアを取得するように構成されていればよい。これにより、より高精度の出力結果を得ることができる。
 排泄スコア取得部153は、排泄関係情報に基づいて、排泄スコアを取得する。
 飲食スコア取得部154は、飲食情報に基づいて、飲料スコア及び食事スコアを取得する。
 活動状況スコア取得部155は、活動状況情報に基づいて、活動状況スコアを取得する。
 これらの要素スコア取得部151の各部は、出力指標の値や各種生活情報に基づく要素スコアの取得を、例えば、出力指標の値や各種生活情報の内容が所定の条件を満たすか否かに基づいて行う。所定の条件は、要素毎に、各要素について観点毎に設定されうる。例えば、所定の条件が満たされる場合に、第1の所定の点数を要素スコアに反映させ、そうでない場合には第2の所定の点数を要素スコアに反映させるというようにすることで、要素スコアを取得することができる。具体的には、例えば、出力指標の値として腸音の頻度が得られている場合に、腸音の頻度が所定の範囲内であれば、第1の所定の点数を基準となる腸運動スコアに加算し、そうでない場合は第2の所定の点数を基準となる腸運動スコアから減算するようにしてもよい。
 要素スコア取得部151の各部は、取得した要素スコアを、ユーザ識別子に対応付けて、ユーザ情報格納部115に蓄積する。
 なお、要素スコア取得部151の各部は、出力指標の値や各種生活情報の内容と所定の基準とを比較し、その結果に応じて、所定の計算式を用いるなどして要素スコアを算出してもよい。また、基準となる閾値を複数用意し、出力指標の値や各種生活情報の内容が該当する条件範囲内に対応する所定の点数を要素スコアに反映させるようにしてもよい。また、腸運動、腸状態、排泄、飲料、食事、活動状況などの各要素について、複数の評価観点(基準値と比較する観点など)を設け、観点毎に基準値と比較した結果に応じて所定の点数を要素スコアに反映させるようにしてもよい。また、反映させる点数を、予め、複数の観点軸で構成される空間においてマッピングした情報(例えば、n次元のルックアップテーブル)に基づいて、該当する点数を要素スコアに反映させるようにしてもよい。
 要素スコア取得部151の各部は、ユーザ情報格納部115に格納されている当該ユーザについて過去に取得された要素スコア、又は過去の時点における出力指標の値若しくは各種生活情報などに基づいて、要素スコアを取得するようにしてもよい。例えば、要素スコア取得部151の各部は、前回取得された要素スコアに対して、今回の点数を反映させることで、今回の要素スコアを取得するようにしてもよい。また、過去の所定の期間における出力指標の値又は各種生活情報と、今回の出力指標の値又は各種生活情報とを用いて、これらの平均値等を利用して要素スコアを取得してもよい。過去の所定数の出力指標の値又は各種生活情報と、今回の出力指標の値又は各種生活情報とのそれぞれについて特定した点数を用いて(合算するなど)、要素スコアを取得してもよい。
 なお、要素スコア取得部151の各部が、このような要素スコアの取得に関して設定される条件、比較する基準値、基準となる要素スコア、要素スコアに反映する点数、要素スコアに点数を反映する方法(加算、減算、乗算等)などの因子を、ユーザの基礎情報に基づいて適時に設定してもよい。すなわち、要素スコア取得部151の各部は、ユーザの基礎情報に基づいて、要素スコアを取得するようにしてもよい。具体的には、例えば、要素スコア取得部151の各部が、ユーザの性別や年齢に応じて異なる因子を適用して、要素スコアを取得するように構成されていてもよい。
 本実施の形態において、腸スコア取得部149は、このようにして腸関係スコア取得部152により取得した腸運動スコア及び腸状態スコアと、排泄スコア取得部153により取得した排泄スコアと、飲食スコア取得部154により取得した飲料スコア及び食事スコアと、活動状況スコア取得部により取得した活動状況スコアとを用いて、腸スコアを取得する。腸スコアの取得は、例えば、各要素スコアを、所定の方法で加算や乗算を行うなど、所定の計算式に適用して算出することにより行われてもよい。また、腸スコアの取得は、例えば、各要素スコアを入力として腸スコアを出力とするようにして機械学習の手法を用いて構成された学習器を用いて行われてもよい。各要素スコアは、必要に応じて正規化したりするなどしたうえで腸スコアの取得に用いるようにしてもよい。
 腸スコア取得部149は、取得した腸スコアを、ユーザ識別子に対応付けて、ユーザ情報格納部115に蓄積する。
 なお、腸スコア取得部149は、ユーザ情報格納部115に格納されている当該ユーザについて過去に取得された腸スコアに基づいて、今回の腸スコアを取得するようにしてもよい。例えば、腸スコア取得部149は、前回の腸スコアに基づく基準のスコアに対して今回の各要素スコアに応じた点数を反映させることで、今回の腸スコアを取得するようにしてもよい。
 なお、腸スコア取得部149は、このような腸スコアの取得に関して用いる所定の方法を、ユーザの基礎情報に基づいて、適時変更してもよい。具体的には、例えば、腸スコア取得部149が、ユーザの性別や年齢、身長、体重、既往歴や所定のアンケート結果等などに応じて異なる方法により要素スコアを用いた演算等を行うことによって、腸スコアを取得するように構成されていてもよい。すなわち、腸スコア取得部149は、ユーザの基礎情報に基づいて、腸スコアを取得するようにしてもよい。
 腸スコア出力部161は、腸スコア取得部149により取得された腸スコアを出力する。本実施の形態では、腸スコア出力部161は、例えば腸スコア等の情報を、端末装置600に送信することにより出力を行うが、これに限られない。例えば、情報処理装置100が備えるディスプレイに文字又は画像等により腸スコアを表示させることにより出力が行われてもよい。
 ここで、本実施の形態において、腸スコア出力部161は、要素スコア取得部151により取得された要素スコアを用いたレーダーチャートを出力するように構成されている。この場合、腸スコア出力部161は、必要に応じて各要素スコア間のバランスが整うように各要素スコアを正規化したうえで、各要素スコアをレーダーチャートに表した情報を構築し、出力するようにしてもよい。また、腸スコア出力部161は、各要素スコアをその他の形式のグラフとして示す情報を構築し、出力するようにしてもよい。
 送信部170は、情報を、ネットワークを介して情報処理システム1を構成する他の装置に送信する。送信部170は、例えば、端末装置600に対して情報を送信する。換言すると、送信部170は、例えば、端末装置600に対して情報を出力する。
 次に、端末装置600の構成について説明する。
 図3に示されるように、端末装置600は、端末格納部610、端末受信部620、端末受付部630、端末処理部640、端末出力部660、端末送信部670、及びセンサ部680を備える。端末出力部660は、表示部661を備える。センサ部680は、マイク681及び加速度センサ683を備える。
 端末格納部610は、音情報格納部611、機器識別情報格納部613、及び生活情報格納部615を備える。
 音情報格納部611には、端末装置600のセンサ部680を用いて録音された音情報が蓄積される。音情報は、端末送信部670により情報処理装置100に送信されるが、送信が完了した場合には音情報格納部611から削除されるようにしてもよいし、そのまま所定の期間が経過するまで保持されるようにしてもよいし、ユーザによる削除操作があるまで永続的に保持されるようにしてもよい。
 機器識別情報格納部613には、機器識別情報が格納されている。機器識別情報は、端末装置600の型式を識別可能な情報であるが、これに限られない。機器識別情報格納部613に対しては、異なる情報が書き込み不能であってもよい。
 生活情報格納部615には、生活情報が蓄積される。生活情報は、端末送信部670により情報処理装置100に送信されるが、送信が完了した場合には生活情報格納部615から削除されるようにしてもよいし、そのまま所定の期間が経過するまで保持されるようにしてもよいし、ユーザによる削除操作があるまで永続的に保持されるようにしてもよい。
 生活情報格納部615に蓄積される生活情報は、ユーザが入力した情報又はそれに基づく情報を含むものであってもよい。これらの情報は、例えば、端末受付部630により受け付けられた情報であってもよいし、端末受付部630により受け付けられた情報に基づいて演算等を行うことにより端末処理部640が取得した情報であってもよい。
 また、生活情報格納部615に蓄積される生活情報は、計測値又はそれに基づく情報を含むものであってもよい。これらの情報は、例えば、センサ部680により計測された情報であってもよいし、センサ部680により計測された情報に基づいて演算等を行うことにより端末処理部640が取得した情報であってもよい。また、端末装置600に対して通信可能に接続されたセンサ装置によって測定等が行われ、端末装置600に送信された情報であってもよい。
 端末受信部620は、情報処理装置100や、その他の装置から送信された情報を、ネットワークを介して受信する。端末受信部620は、受信した情報を、例えば端末格納部610に蓄積し、端末処理部640などが取得できるようにする。
 端末受付部630は、端末装置600を使用するユーザによる、端末装置600に対する種々の入力操作を受け付ける。操作は、例えば、図示しない入力装置を用いて行われるが、これに限られない。端末受付部630は、例えば、マイク681により入力された音声による入力操作を受け付けるようにしてもよい。
 端末処理部640は、端末装置600の各部を用いて、種々の情報処理動作を行う。
 端末出力部660は、例えばディスプレイデバイスである表示部661に表示することなどにより、情報の出力を行う。なお、情報の出力方法はこれに限られず、音声等をスピーカーなどから出力することなどにより行われるようにしてもよい。
 端末送信部670は、例えば端末処理部640等により取得した情報を、ネットワークを介して送信する。
 センサ部680は、例えば、マイク681及び加速度センサ683のほか、気圧センサ等を有していてもよい。センサ部680は、マイク681を用いた録音や、計測事項について計測を行い、得られた音声データや計測値などの情報を出力する。得られた情報は、例えば、端末格納部610に蓄積される。ここで、計測値は、例えば加速度センサにより取得された加速度の推移を示す値や、気圧センサにより取得された気圧の推移を示す値などであるが、これに限られない。センサ部680には、例えば、脈拍センサや、照度センサや、カメラや、GPSなどにより位置を特定可能な位置情報センサなどが含まれてもよい。また、センサ部680は、時間の経過を計測するタイマ等であってもよい。本実施の形態において、センサ部680は、消費された熱量や、歩数などのユーザの活動量に関する情報や、ユーザの起床時刻、就寝時刻や、通勤時間など、ユーザの生活習慣に関する情報を取得するための活動量計として機能する。なお、センサ部680により得られる計測値に基づいて、例えばユーザが生活する地域や、気候や、騒音環境など、ユーザの生活環境に関する情報などが取得され、端末格納部610に蓄積されるようにしてもよい。
 次に、本実施の形態に係る情報処理システム1をユーザが用いる際に行われる情報処理装置100の動作の一例について説明する。本実施の形態において、ユーザは、例えば、端末装置600を介して情報処理装置100にアクセスを行ったり情報処理装置100から送信される情報を受信したりしながら、端末装置600において所定のアプリケーションを動作させることにより、情報処理システム1を利用することができる。なお、所定のアプリケーションとは、例えば、情報処理装置100から送信される情報を用いて動作する専用のアプリケーションであってもよいし、情報処理装置100において提供されるウェブアプリケーションを使用可能に表示等するウェブブラウザ等であってもよい。
 本実施の形態において、情報処理システム1は、典型的には、以下のように用いられる。すなわち、ユーザは、端末装置600を用いて自身の腹部音を録音する。そうすると、音情報が端末装置600から情報処理装置100に送信され、情報処理装置100において腸スコアが取得される。情報処理装置100は、取得した腸スコアを端末装置600に送信(出力)する。端末装置600は、腸スコアを受信し、端末出力部660によってティスプレイデバイスに腸スコアを含む情報を表示する。これにより、ユーザは、自身の腸に関する情報を、腸スコアとして確認することができる。このような情報処理システム1の動作が行われる場合において、情報処理装置100は、例えば以下のようにして種々の動作を行う。これらの動作は、処理部140が、各部を用いながら制御動作等を実行することにより行われる。
 図4は、同情報処理装置100の動作の一例を示すフローチャートである。
 (ステップS11)処理部140は、受信部120により、端末装置600等から送信された情報を受信したか否かを判断する。受信したと判断した場合はステップS12に進み、そうでない場合はステップS13に進む。
 (ステップS12)処理部140は、受信した情報に基づいてユーザを識別し、ユーザ識別子に対応付けて、受信した情報をユーザ情報格納部115に蓄積する。例えば、生活情報、音情報、又は機器識別情報などが、端末装置600からユーザ識別子に対応付けて送信されると、処理部140は、受信した情報を、そのユーザ識別子に対応付けてユーザ情報格納部115に蓄積する。
 (ステップS13)処理部140は、腸スコアを取得することについてのトリガが発生したか否かを判断する。換言すると、処理部140は、腸スコアの取得を開始する条件が満たされたか否かを判断する。トリガが発生したと判断した場合には、ステップS14に進む。そうでない場合には、ステップS11に戻る。
 例えば、端末装置600を通じて、ユーザから、腸スコアを取得することについての指示が行われたこと(指示に対応する所定の情報が送信されたこと)などを上記のトリガとすることができる。なお、トリガはこれに限られない。例えば、所定の時刻になったことや、音情報やその他の生活情報を新たに受信したことなど、種々の条件が満たされたことをトリガとすることができる。
 (ステップS14)処理部140は、腸スコア取得部149により、スコア取得処理を行う。スコア取得処理については、後述する。スコア取得処理により、腸スコアや各要素スコアが取得され、ユーザ情報格納部115に蓄積される。
 (ステップS15)処理部140は、腸スコア出力部161により、取得した腸スコア等を用いて、出力する情報を構築する。本実施の形態においては、腸スコアを示すための情報と、各要素スコアをレーダーチャートとして示すための情報を構築する。
 (ステップS16)処理部140は、腸スコア出力部161により、対象となるユーザに対して、構築した情報を出力する。すなわち、処理部140は、送信部170により、スコアの算出対象となっているユーザが使用する端末装置600に対して、腸スコアと各要素スコアとについて構築した情報を出力する。これにより、情報を受信した端末装置600において、腸スコアと各要素スコアとに関する表示を行うことができる。
 図5は、同情報処理装置100のスコア取得処理の一例を示すフローチャートである。
 (ステップS111)腸スコア取得部149は、ユーザ情報格納部115から、対象となるユーザのユーザ識別子に基づいて、当該ユーザに関する音情報、生活情報、及び過去のユーザ情報などを取得する。腸スコア取得部149は、基礎情報を取得してもよい。
 (ステップS112)腸スコア取得部149は、音情報を用いて、腸音の頻度や、腸の状態の推定結果を取得する処理を行う。以下、このような処理を、腹部音使用処理ということがある。腹部音使用処理の詳細については、後述する。
 (ステップS113)腸スコア取得部149は、取得された腸音の頻度や腸の状態の推定結果などの情報を、対象ユーザのユーザ識別子に対応付けて、ユーザ情報格納部115に蓄積する。
 (ステップS114)腸スコア取得部149は、要素スコア取得部151により、各要素に関するスコアを取得する処理を行う。以下、このような処理を、要素スコア取得処理という。本実施の形態において、要素スコア取得処理としては、腸関係スコア取得処理、排泄スコア取得処理、食事スコア取得処理、飲料スコア取得処理、及び活動状況スコア取得処理がそれぞれ行われる。それぞれの要素スコア取得処理の詳細については、後述する。
 (ステップS115)各要素スコアが得られると、腸スコア取得部149は、各要素スコアから腸スコアを取得する。このとき、腸スコア取得部149は、上述のように、例えば各要素スコアを用いて所定の方法で加算や乗算を行うなどして腸スコアを取得するが、これに限られない。
 (ステップS116)腸スコア取得部149は、取得された腸スコアや各要素スコアを対象ユーザのユーザ識別子に対応付けて、ユーザ情報格納部115に蓄積する。その後、図4の処理に戻る。
 図6は、同情報処理装置100の腹部音使用処理の一例を示すフローチャートである。
 (ステップS121)腸スコア取得部149は、腹部音を録音して得られた音声データである音情報から、スペクトラム画像を生成する。
 (ステップS122)腸スコア取得部149は、学習情報格納部111に格納されている学習情報のうち、音情報に対応する機器識別情報に対応する学習情報を、使用する学習情報として選択する。
 (ステップS123)腸スコア取得部149は、音情報を学習情報に対して入力して、出力指標の値を出力する。本実施の形態においては、腹部音に含まれる腸音の頻度や、腸の状態の推定結果が出力される。その後、図5に示される処理に戻る。
 なお、端末装置600から送信された音情報がスペクトラム画像である場合など、ユーザ情報格納部115に格納された音情報がスペクトラム画像である場合には、ステップS121の処理は行われないようにすればよい。
 図7は、同情報処理装置100の腸関係スコア取得処理の一例を示すフローチャートである。
 (ステップS141)腸関係スコア取得部152は、腸運動スコアと腸状態スコアとをそれぞれ初期値(例えば、ゼロ)にリセットする。
 (ステップS142)腸関係スコア取得部152は、腸音の頻度が所定範囲内であるか否かを判断する。所定範囲内であると判断した場合はステップS143に進み、そうでない場合はステップS144に進む。
 なお、腸音の頻度が所定範囲内であることとは、例えば、所定時間内において所定レベルより大きい腸音が5回以上20回未満であることなどと設定することができるが、回数等はこれに限られない。
 (ステップS143)腸関係スコア取得部152は、腸運動スコアを10点加点する。すなわち、腸関係スコア取得部152は、腸蠕動運動については適正な状態であると判定する。ステップS145に進む。
 (ステップS144)腸関係スコア取得部152は、腸運動スコアを5点加点する。すなわち、腸関係スコア取得部152は、腸蠕動運動について不良な状態であると判定する。ステップS145に進む。
 (ステップS145)腸関係スコア取得部152は、腸の状態の推定結果が「正常」であるか否かを判断する。所定範囲内であると判断した場合はステップS143に進み、そうでない場合はステップS144に進む。腸の状態の推定結果が「下痢」又は「便秘」である場合には、ステップS147に進むこととなる。
 (ステップS146)腸関係スコア取得部152は、腸状態スコアを10点加点する。すなわち、腸関係スコア取得部152は、腸の調子が良い状態であると判定する。
 (ステップS147)腸関係スコア取得部152は、腸状態スコアを5点加点する。すなわち、腸関係スコア取得部152は、腸蠕動運動については適正な状態であると判定する。
 ステップS146又はステップS147が終了すると、腸関係スコア取得部152が以上の結果として腸運動スコア及び腸状態スコアを取得し、図5に戻る。
 図8は、同情報処理装置100の排泄スコア取得処理の一例を示すフローチャートである。
 (ステップS151)排泄スコア取得部153は、排泄スコアをそれぞれ初期値(例えば、ゼロ)にリセットする。
 (ステップS152)排泄スコア取得部153は、排泄物の形状は所定のタイプに該当するか否かを判断する。例えば、排泄関係情報に含まれるブリストルスケールのラベル値が所定の値(例えば、「バナナ」、「ぷりぷり」などの予め定められた文言)であれば、排泄物の形状が所定のタイプに該当すると判断することができる。排泄物の形状は所定のタイプに該当すると判断した場合はステップS153に進み、そうでない場合はステップS154に進む。
 (ステップS153)排泄スコア取得部153は、排泄スコアに10点を加点する。ステップS155に進む。
 (ステップS154)排泄スコア取得部153は、排泄スコアに5点を加点する。ステップS155に進む。
 (ステップS155)排泄スコア取得部153は、排泄物の量が所定範囲内であるか否かを判断する。例えば、排泄物の量として、排泄関係情報に含まれる排泄物の量に関するユーザの入力値を用いることができる。また、例えば、0グラムから200グラムまでの範囲を所定範囲として定めることができるが、これに限られない。排泄物の量が所定範囲内であると判断した場合はステップS156に進み、そうでない場合はステップS157に進む。
 (ステップS156)排泄スコア取得部153は、排泄スコアに10点を加点する。ステップS158に進む。
 (ステップS157)排泄スコア取得部153は、排泄スコアに5点を加点する。ステップS158に進む。
 (ステップS158)排泄スコア取得部153は、排泄物の臭いが臭くないか否かを判断する。例えば、排泄物の臭いとして、排泄関係情報に含まれる排泄物の臭いに関するユーザの入力値を用いることができる。排泄物の臭いが臭くないと判断した場合はステップS159に進み、そうでない場合はステップS160に進む。
 (ステップS159)排泄スコア取得部153は、排泄スコアに10点を加点する。
 (ステップS160)排泄スコア取得部153は、排泄スコアに5点を加点する。
 ステップS159又はステップS160が終了すると、排泄スコア取得部153が以上の結果として排泄スコアを取得し、図5に戻る。
 図9は、同情報処理装置100の食事スコア取得処理の一例を示すフローチャートである。
 (ステップS161)飲食スコア取得部154は、食事スコアをそれぞれ初期値(例えば、ゼロ)にリセットする。
 (ステップS162)飲食スコア取得部154は、ユーザが朝食を採ったか否かを判断する。例えば、食事情報に含まれる、ユーザの朝食を採った旨の入力値の有無等に基づいて、判断を行うことができる。朝食を採ったと判断した場合はステップS163に進み、そうでない場合はステップS164に進む。
 (ステップS163)飲食スコア取得部154は、食事スコアに10点を加点する。ステップS165に進む。
 (ステップS164)飲食スコア取得部154は、食事スコアに5点を加点する。ステップS165に進む。
 (ステップS165)飲食スコア取得部154は、ユーザが食物繊維を所定量以上摂取したか否かを判断する。例えば、食事情報に含まれる、食事の内容に基づいて食物繊維相当量を算出し、その値を用いて、判断を行うことができる。また、例えば、12グラムを所定量として定めることができるが、これに限られない。上限値が設定されていてもよい。食物繊維を所定以上摂取したと判断した場合はステップS166に進み、そうでない場合はステップS167に進む。
 (ステップS166)飲食スコア取得部154は、食事スコアに10点を加点する。ステップS168に進む。
 (ステップS167)飲食スコア取得部154は、食事スコアに5点を加点する。ステップS168に進む。
 (ステップS168)飲食スコア取得部154は、ユーザがカルシウムを所定量以上摂取したか否かを判断する。例えば、食事情報に含まれる、食事の内容に基づいてカルシウム相当量を算出し、その値を用いて、判断を行うことができる。また、例えば、160ミリグラムを所定量として定めることができるが、これに限られない。上限値が設定されていてもよい。カルシウムを所定量以上摂取したと判断した場合はステップS169に進み、そうでない場合はステップS160に進む。
 (ステップS169)飲食スコア取得部154は、食事スコアに10点を加点する。
 (ステップS170)飲食スコア取得部154は、食事スコアに5点を加点する。
 ステップS169又はステップS170が終了すると、飲食スコア取得部154が以上の結果として食事スコアを取得し、図5に戻る。
 図10は、同情報処理装置100の飲料スコア取得処理の一例を示すフローチャートである。
 (ステップS171)飲食スコア取得部154は、飲料スコアをそれぞれ初期値(例えば、ゼロ)にリセットする。
 (ステップS172)飲食スコア取得部154は、ユーザが朝、飲料を所定量以上摂取したか否かを判断する。例えば、飲料情報に含まれる、所定の時間帯におけるユーザの飲水量の入力値等に基づいて、判断を行うことができる。また、例えば、300ミリリットルを所定量として定めることができるが、これに限られない。上限値が設定されていてもよい。ユーザが朝、飲料を所定量以上摂取したと判断した場合はステップS173に進み、そうでない場合はステップS174に進む。
 (ステップS173)飲食スコア取得部154は、飲料スコアに10点を加点する。ステップS175に進む。
 (ステップS174)飲食スコア取得部154は、飲料スコアに5点を加点する。ステップS175に進む。
 (ステップS175)飲食スコア取得部154は、ユーザの1日の飲料摂取量が所定量以上であるか否かを判断する。例えば、飲料情報に含まれる、1日におけるユーザの飲水量の入力値等に基づいて、判断を行うことができる。また、例えば、2000ミリリットルを所定量として定めることができるが、これに限られない。上限値が設定されていてもよい。1日の飲料摂取量が所定量以上であると判断した場合はステップS176に進み、そうでない場合はステップS177に進む。
 (ステップS176)飲食スコア取得部154は、飲料スコアに10点を加点する。
 (ステップS177)飲食スコア取得部154は、飲料スコアに5点を加点する。
 ステップS176又はステップS177が終了すると、飲食スコア取得部154が以上の結果として飲料スコアを取得し、図5に戻る。
 図11は、同情報処理装置100の活動状況スコア取得処理の一例を示すフローチャートである。
 (ステップS181)活動状況スコア取得部155は、活動状況スコアをそれぞれ初期値(例えば、ゼロ)にリセットする。
 (ステップS182)活動状況スコア取得部155は、1日の歩数が所定値以上であるか否かを判断する。例えば、活動状況情報に含まれる、ユーザの1日の歩数の積算値等に基づいて、判断を行うことができる。また、例えば、7000歩を所定値として定めることができるが、これに限られない。上限値が設定されていてもよい。1日の歩数が所定値以上であると判断した場合はステップS183に進み、そうでない場合はステップS184に進む。
 (ステップS183)活動状況スコア取得部155は、活動状況スコアに10点を加点する。ステップS185に進む。
 (ステップS184)活動状況スコア取得部155は、活動状況スコアに5点を加点する。ステップS185に進む。
 (ステップS185)活動状況スコア取得部155は、ユーザの睡眠時間が所定時間以上であるか否かを判断する。例えば、活動状況情報に含まれる、ユーザの睡眠時間の入力値等に基づいて、判断を行うことができる。また、例えば、7時間を所定時間として定めることができるが、これに限られない。上限値が設定されていてもよい。睡眠時間が所定時間以上であると判断した場合はステップS186に進み、そうでない場合はステップS187に進む。
 (ステップS186)活動状況スコア取得部155は、活動状況スコアに10点を加点する。
 (ステップS187)活動状況スコア取得部155は、活動状況スコアに5点を加点する。
 ステップS186又はステップS187が終了すると、活動状況スコア取得部155が以上の結果として活動状況スコアを取得し、図5に戻る。
 次に、本実施の形態にかかる情報処理システム1の動作の具体例について、ユーザが使用する端末装置600の画面遷移について示しながら説明する。
 以下の具体例において、情報処理システム1が、ユーザが健康的に生活できるように支援するための健康支援アプリケーションを提供する場合を想定する。健康支援アプリケーションは、ユーザの生活情報に関する入力操作を受け付けると共に、健康を維持するために有用な情報をユーザに提供する。健康支援アプリケーションは、ユーザが端末装置600において所定のアプリケーションを実行させて、端末装置600と情報処理装置100との間で通信が行われることにより実現されるものである。以下の健康支援アプリケーションの画面例は、端末処理部640の制御に基づいて、端末出力部660により表示されるものである。
 図12は、同端末装置600の画面遷移の一具体例を示す第1の図である。
 図12においては、健康支援アプリケーションのメニュー画面901が示されている。メニュー画面901には、例えば、ユーザが実行することを推奨するタスク(健康タスク)についての情報を表示するタスク表示部911と、腸スコアに関する情報を表示する腸スコア情報表示部912と、生活情報に関する入力や履歴の閲覧等を行うための生活情報記録ボタン913と、基礎情報の確認や編集を行うための基礎情報ボタン914となどが含まれる。タスク表示部911は、例えば、タスクの進捗状況を示す表示を含む。タスク表示部911が操作されると、タスク管理画面(図示せず)に遷移する。本具体例において、腸スコアが過去所定期間以内に取得されていない場合には、腸スコア情報表示部912には、例えば、その旨を示す表示が含まれる。そして、腸スコア情報表示部912が操作されると、例えば、腸スコアの出力を実行させるためのスコア取得指示画面902(図13に示す)に遷移する。他方、腸スコアが過去の所定期間以内に取得されている場合には、腸スコア情報表示部912には、例えば、腸スコアの測定結果を示す表示が含まれる。そして、腸スコア情報表示部912が操作されると、例えば、腸スコアの測定結果を示すスコア表示画面904(図15に示す)に遷移する。ユーザは、生活情報記録ボタン913を操作することで、各要素に関する情報を入力して記録したり、情報処理装置100に送信して情報処理装置100に記憶させたりすることができる。
 図13は、同端末装置600の画面遷移の一具体例を示す第2の図である。
 図13においては、健康支援アプリケーションのスコア取得指示画面902が示されている。スコア取得指示画面902は、情報処理装置100に腸スコアを出力させるための画面である。すなわち、スコア取得指示画面902には、腸スコアの出力に必要な情報が揃っているか否かを表示する確認領域921と、腸スコアの出力を指示するための指示ボタン925とが含まれる。確認領域921には、腸スコアの出力に用いる生活情報や腹部音などのそれぞれについて、情報処理装置100又は端末装置600において既に用意されているか否か(入力されているか否か)を示す表示が含まれる。不足している情報については、その情報を用意するためのボタンが表示されるが、これに限られない。指示ボタン925は、例えば、腸スコアの出力に用いる生活情報や腹部音が揃うまでは無効化されており、各情報が揃った場合に、有効化される(出現するといってもよい)。指示ボタン925が操作されると、情報処理装置100において上述のように腸スコアが取得され、取得された腸スコア等が端末装置600に送信される。端末装置600で腸スコア等が受信されると、スコア表示画面904(図15に示す)に遷移する。
 なお、図13においては、腹部音と排泄とについて、情報が不足している状態となっている。腹部音に対応して表示されるボタン(「録音する」ボタン)が操作されると、腹部音録音画面903(図14に示す)に遷移する。
 図14は、同端末装置600の画面遷移の一具体例を示す第3の図である。
 図14においては、健康支援アプリケーションの腹部音録音画面903が示されている。腹部音録音画面903には、録音を開始するための録音ボタン931が含まれている。録音ボタン931が操作されると、マイク681を用いた録音が行われ、音情報が音情報格納部611に記憶される。なお、腹部音録音画面903において、マイク681の位置を示す表示が含まれていてもよい。また、ユーザの姿勢や、端末装置600の姿勢及び位置などに関する、適切な録音方法の案内表示等が腹部音録音画面903に表示されるようにしてもよい。このような表示があることで、ユーザは、マイク681を腹部に近づけて、腹部音を容易にかつ適切に録音することができる。
 図15は、同端末装置600の画面遷移の一具体例を示す第4の図である。
 図15においては、健康支援アプリケーションのスコア表示画面904が示されている。スコア表示画面904には、例えば、取得された腸スコアを示す腸スコア表示部941と、各要素スコアについてレーダーチャートで示す要素スコア表示部942とが含まれる。ユーザは、スコア表示画面904により、腸スコアや要素スコアを確認することができる。各要素スコアがレーダーチャートで示されるので、ユーザは、腸の調子を高く維持することに関して取り組みが不足していると考えられる要素を、直感的に知ることができる。また、図15に示される例においては、過去のスコアも含めて、推移を確認するための履歴表示ボタン943が含まれる。ユーザは、履歴表示ボタン943を操作することで、腸スコアや各要素スコアについての推移を確認することができる。
 以上説明したように、情報処理装置100は、格納部110に格納されている学習情報と音情報とを用いて、以下のような情報処理方法を実現可能であるといえる。すなわち、情報処理装置100は、一のユーザの、腹部から出る音である腹部音に関する音情報を取得し、取得された音情報を含む入力情報と、予め用意された学習情報とを用いて、ユーザの腸の調子に関する腸スコアを取得し、取得された腸スコアを出力する。音情報に基づいて取得された腸スコアが出力されるので、ユーザは、自身の腸の調子に関する客観的な情報であって簡便に把握可能な情報を容易に知ることができる。
 本実施の形態において、腸スコアは、腸の調子に関係すると考えられる要素についての生活情報を用いて取得される。したがって、より精度が高い腸スコアを出力することができる。また、腸スコアを、ユーザの基礎情報を用いて取得した場合にも、より精度が高い腸スコアを出力することができる。また、腸スコアは、複数の要素に関する情報を用いて取得される。したがって、さらに精度が高い腸スコアを出力することができる。本実施の形態においては、複数の要素スコアが取得され、それらを用いて腸スコアが取得される。したがって、ユーザは、腸の調子を高く維持することに関して取り組みが不足していると考えられる要素や、腸の調子がよくない一因である可能性があると考えられる要素について、容易に知ることができる。また、複数の要素スコアは、レーダーチャート等のグラフとして出力される。したがって、ユーザは、直感的に、腸の調子に関係する各要素についての評価結果を把握することができる。
 (変形例の説明)
 上述の実施の形態にかかる変形例について説明する。
 第一の変形例は、次のようである。すなわち、腹部音使用処理においては、腸音の頻度の抽出と、腸の状態の推定とを、互いに異なる入力情報を用いて構成された学習情報を用いて行うようにしてもよい。また、各要素スコアの取得にあたっては、要素スコアへの評価点の加算だけではなく、減算等を行うようにしてもよい。
 図16は、本発明の実施の形態の第一の変形例に係る情報処理装置100の腹部音使用処理の一例を示すフローチャートである。
 (ステップS221)腸スコア取得部149は、腹部音を録音して得られた音声データである音情報から、スペクトラム画像を生成する。
 (ステップS222)腸スコア取得部149は、学習情報格納部111に格納されている学習情報のうち、音情報に対応する機器識別情報に対応する第一学習情報を、使用する学習情報として選択する。第一学習情報は、例えば、入力を音情報とし、出力が腸音部分の音情報となるように機械学習の手法を用いて構成された学習情報である。
 (ステップS223)腸スコア取得部149は、機械学習の手法を利用し、音情報を第一学習情報に対して入力して、腸音を抽出する。
 (ステップS224)腸スコア取得部149は、抽出した腸音の情報に基づいて、腸音の頻度を出力する。
 (ステップS225)腸スコア取得部149は、学習情報格納部111に格納されている学習情報のうち、ユーザ情報に対応する第二学習情報を、使用する学習情報として選択する。第二学習情報は、例えば、音情報に加えて所定の生活情報(例えば排泄情報や飲食情報など)を入力とし、出力が腸の状態の推定結果となるように機械学習の手法を用いて構成された学習情報である。
 (ステップS226)腸スコア取得部149は、機械学習の手法を利用し、音情報及び所定の生活情報を第二学習情報に対して入力して、腸の状態の推定結果を取得する。
 (ステップS227)腸スコア取得部149は、腸の状態の推定結果の情報を出力する。その後、図5に示される処理に戻る。
 このように腹部音使用処理が行われるようにすることで、腸音の頻度や腸の状態推定結果をより高い精度で得ることができる。
 図17は、同情報処理装置100の腸関係スコア取得処理の一例を示すフローチャートである。
 (ステップS241)腸関係スコア取得部152は、腸運動スコアと腸状態スコアとのそれぞれについて、基礎点(例えば、10点)にセットする。
 (ステップS242)腸関係スコア取得部152は、腸音の頻度が所定範囲内であるか否かを判断する。所定範囲内であると判断した場合はステップS243に進み、そうでない場合はステップS244に進む。
 (ステップS243)腸関係スコア取得部152は、腸運動スコアを5点加点する。すなわち、腸関係スコア取得部152は、腸蠕動運動については適正な状態であると判定する。ステップS245に進む。
 (ステップS244)腸関係スコア取得部152は、腸運動スコアを5点減点する。すなわち、腸関係スコア取得部152は、腸蠕動運動について不良な状態であると判定する。ステップS245に進む。
 (ステップS245)腸関係スコア取得部152は、腸の状態の推定結果が「正常」であるか否かを判断する。所定範囲内であると判断した場合はステップS243に進み、そうでない場合はステップS244に進む。
 (ステップS246)腸関係スコア取得部152は、腸状態スコアを5点加点する。すなわち、腸関係スコア取得部152は、腸の調子が良い状態であると判定する。
 (ステップS247)腸関係スコア取得部152は、腸状態スコアを5点減点する。すなわち、腸関係スコア取得部152は、腸蠕動運動については適正な状態であると判定する。
 このような手法は、他の要素スコアの取得においても採用することができる。このような手法を用いることで、各要素スコアについて、基準に対する判定結果とそれが要素スコアに影響する程度を容易に調整することができる。
 なお、要素スコアの基礎点としては、所定の点数とするほか、過去の履歴等に基づいて設定されるようにしてもよい。例えば、前回取得した要素スコアを今回の基礎点として設定してもよい。また、所定期間内の過去の要素スコアの情報に基づいて算出した値(例えば、平均値など)を基礎点として設定してもよい。このことは、当然に、上述の実施の形態においても同様である。
 第二の変形例は、次のようである。腹部音使用処理において、生活情報に基づいて、使用する学習情報を選択するようにしてもよい。この場合、学習情報格納部111に格納されている学習情報が、生活情報に含まれうる一以上の要素、一以上の観点に対応付けられており、腹部音使用処理において、生活情報のうち一以上の要素、一以上の観点に基づいて、使用される学習情報が選択されるようにすればよい。
 例えば、腸スコア取得部149は、取得した排泄関係情報に基づいて、腹部音使用処理に用いる学習情報を選択してもよい。
 図18は、本発明の実施の形態の第二の変形例に係る情報処理装置100の腹部音使用処理の一例を示すフローチャートである。
 (ステップS321)腸スコア取得部149は、腹部音を録音して得られた音声データである音情報から、スペクトラム画像を生成する。
 (ステップS322)腸スコア取得部149は、排泄関係情報を取得する。
 (ステップS323)腸スコア取得部149は、学習情報格納部111に格納されている学習情報のうち、音情報に対応する機器識別情報と、排泄関係情報とに共に対応する学習情報を、使用する学習情報として選択する。すなわち、腸スコア取得部149は、学習情報格納部111に格納されている学習情報のうち、生活情報に含まれる所定の情報に対応する学習情報を、使用する学習情報として選択する。
 なお、このような処理は、例えば、以下のようにして行われればよい。すなわち、学習情報格納部111に格納されている複数の学習情報がそれぞれ、機器識別情報に対応付けられているほか、例えばブリストルスケールに対応付けられているようにする。これは、ブリストルスケールが同一である複数の学習入力情報を用いて学習情報を生成することにより実現されればよい。そして、上記ステップS323の処理において、ステップS322において取得された排泄関係情報のブリストルスケールに対応する学習情報のうち、機器識別情報に対応する学習情報を選択するようにすればよい。
 (ステップS324)腸スコア取得部149は、音情報を学習情報に対して入力して、出力指標の値を出力する。本実施の形態においては、腹部音に含まれる腸音の頻度や、腸の状態の推定結果が出力される。その後、図5に示される処理に戻る。
 このように腹部音使用処理が行われるようにすることで、腸音の頻度や腸の状態推定結果をより高い精度で得ることができる。
 なお、上述と同様の方法で、腹部音使用処理において、基礎情報に基づいて、使用する学習情報を選択するようにしてもよい。この場合、学習情報格納部111に格納されている学習情報が、基礎情報に含まれうる一以上の要素に対応付けられており、腹部音使用処理において、基礎情報のうち一以上の要素に基づいて、使用する学習情報を選択するようにすればよい。
 第三の変形例は、次のようである。すなわち、音情報と生活情報とを入力し、腸関係スコアを出力するように構成された学習情報を用いて、腸関係スコア取得部152が、音情報と生活情報とから腸関係スコアを取得するようにしてもよい。この場合、生活情報のうちいずれかの要素、観点を入力情報として用いるようにすればよい。また、生活情報を用いずに、腸関係スコアを取得するようにしてもよい。また、いずれの場合も、基礎情報を入力情報として用いるようにしてもよい。
 なお、用いられる学習情報は、音情報と生活情報とを含む学習入力情報と腸関係スコアとの組を2以上用いて、学習情報生成部147が、当該2組以上の情報と機械学習の分類器を構成するためのモジュールとを用いて分類器を構成することにより生成されればよいし、他の装置等において同様にして生成されてもよい。
 図19は、本発明の実施の形態の第三の変形例に係る情報処理装置100のスコア取得処理の一例を示すフローチャートである。
 (ステップS411)腸スコア取得部149は、ユーザ情報格納部115から、対象となるユーザのユーザ識別子に基づいて、当該ユーザに関する音情報、生活情報、及び過去のユーザ情報などを取得する。
 (ステップS412)腸スコア取得部149は、要素スコア取得部151により、腸関係スコア以外の、各要素に関するスコアを取得する処理を行う。すなわち、腸関係スコア以外について、要素スコア取得処理を行う。
 (ステップS413)腸スコア取得部149は、音情報を用いて、腸関係スコア取得処理を行う。本変形例においては、腹部音使用処理として、腸関係スコア取得処理が行われるといってもよい。本変形例に係る腸関係スコア取得処理の詳細については、後述する。
 (ステップS414)要素スコア取得処理及び腸関係スコア取得処理により各要素スコアが得られると、腸スコア取得部149は、各要素スコアから腸スコアを取得する。このとき、腸スコア取得部149は、上述のように、例えば各要素スコアを用いて所定の方法で加算や乗算を行うなどして腸スコアを取得するが、これに限られない。
 (ステップS415)腸スコア取得部149は、取得された腸スコアや各要素スコアを対象ユーザのユーザ識別子に対応付けて、ユーザ情報格納部115に蓄積する。その後、図4の処理に戻る。
 図20は、同情報処理装置100の腸関係スコア取得処理の一例を示すフローチャートである。
 (ステップS421)腸スコア取得部149は、腹部音を録音して得られた音声データである音情報から、スペクトラム画像を生成する。
 (ステップS422)腸スコア取得部149は、学習情報格納部111に格納されている学習情報のうち、音情報に対応する機器識別情報に対応する学習情報を、使用する学習情報として選択する。
 (ステップS423)腸スコア取得部149は、生活情報を取得する。あわせて、基礎情報を取得してもよい。
 (ステップS424)腸スコア取得部149は、音情報及び生活情報を学習情報に対して入力して、腸運動スコア及び腸状態スコアを出力する。その後、図19に示される処理に戻る。
 例えば学習入力情報と腸関係スコアとの組が十分な数だけ得られるような場合には、それらの組み合わせの情報を用いて生成した学習情報を利用して腸関係スコアを直接出力することにより、容易にかつ高い精度で腸関係スコア及び腸スコアを得ることができる。
 なお、学習入力情報と腸スコアとの組が多数得られるような場合には、それらの情報を用いて、腸スコアを出力情報とする学習情報を機械学習の手法により構成してもよい。この場合、腸スコア取得部149は、音情報と、その他の入力情報(生活情報や基礎情報など)とを学習情報に入力し、腸スコアを取得するようにしてもよい。容易にかつ高い精度で腸スコアを得ることができる。
 なお、上述の格納部110や、端末格納部610は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。これらには、それぞれの装置において取得された情報などがそれぞれ格納されるが、情報等が記憶される過程はこれに限られない。例えば、記録媒体を介して情報等が記憶されるようになってもよく、通信回線等を介して送信された情報等が記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報等が記憶されるようになってもよい。
 また、上述の処理部140や、端末処理部640は、通常、MPUやメモリ等から実現されうる。処理部140や、端末処理部640の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現してもよい。
 また、受付部130や端末受付部630により受付可能な情報の入力に用いられうる入力手段は、テンキーやキーボードやマウスやメニュー画面によるものなど、何でもよい。受付部130や端末受付部630は、テンキーやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現されうる。
 また、受信部120や、端末受信部620は、通常、無線又は有線の通信手段で実現されるが、放送を受信する手段で実現されてもよい。
 また、送信部170や、端末送信部670は、通常、無線又は有線の通信手段で実現されるが、放送手段で実現されてもよい。
 なお、情報処理装置100は、それぞれ、1つのサーバにより構成されていてもよいし、互いに連携して動作する複数のサーバにより構成されていてもよいし、その他の機器に内蔵された電子計算機等であってもよい。なお、サーバは、いわゆるクラウドサーバでも、ASPサーバ等でもよく、その種類は問わないことは言うまでもない。
 本実施の形態における処理は、ソフトウェアで実現してもよい。そして、このソフトウェアをソフトウェアダウンロード等により配布してもよい。また、このソフトウェアをCDROMなどの記録媒体に記録して流布してもよい。なお、本実施の形態における、情報処理装置100を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、コンピュータを、一のユーザの、腹部から出る音である腹部音に関する音情報を取得する音情報取得部と、音情報取得部により取得された音情報を含む入力情報と、予め用意された学習情報とを用いて、ユーザの腸の調子に関する腸スコアを取得する腸スコア取得部と、腸スコア取得部により取得された腸スコアを出力する出力部として機能させるための、プログラムである。
 (その他)
 端末装置が、上述の情報処理装置が有するような腸スコアの取得及び出力に関する機能を実現するための構成の一部又は全部を有していてもよい。
 図21は、上述の実施の形態の他の変形例に係る端末装置の構成を示すブロック図である。
 図21において、上述の実施の形態の構成と同様の構成については、同一の符号が付されている。端末装置1600は、上述の情報処理装置100と同様に腸スコアの取得及び出力を行うことができるように構成されている。
 図21に示されるように、端末装置1600において、端末格納部610に、学習情報格納部111とユーザ情報格納部115とが設けられている。また、端末処理部640が、音情報取得部141、機器識別情報取得部143、生活情報取得部145、学習情報生成部147、腸スコア取得部149、要素スコア取得部151、及び腸スコア出力部161を備える。音情報取得部141は、マイク681により録音した腹部音に基づいて音情報を取得可能である。機器識別情報取得部143は、端末装置1600の機器識別情報を取得する。生活情報取得部145は、端末受付部630により受け付けられたユーザが入力した情報や、センサ部680を用いて取得された情報に基づいて、生活情報を取得する。腸スコア出力部161は、例えば、端末出力部660の表示部661に、取得した腸スコア等を表示させる。
 このように、端末装置1600が、腸スコアの取得及び出力を行う情報処理装置として機能するように構成されていてもよい。上述と同様の効果を得ることができる。
 なお、腸スコアの取得及び出力に関して、端末装置1600の一部の機能や役割が、情報処理装置100などにおいて実行されたり担われたりするようにしてもよい。例えば、学習情報生成部147が情報処理装置100側に設けられており、生成された学習情報を端末装置1600が受信して用いるように構成されていてもよい。また、例えば、情報処理装置100側に複数の学習情報が格納された学習情報格納部111が配置されており、それらの学習情報のうち端末装置1600の機器識別情報等に対応する学習情報が、端末装置1600にダウンロードされて用いられるように構成されていてもよい。
 図22は、上記実施の形態におけるコンピュータシステム800の概観図である。図23は、同コンピュータシステム800のブロック図である。
 これらの図においては、本明細書で述べたプログラムを実行して、上述した実施の形態の情報処理装置等を実現するコンピュータの構成が示されている。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現されうる。
 コンピュータシステム800は、CD-ROMドライブを含むコンピュータ801と、キーボード802と、マウス803と、モニタ804とを含む。
 コンピュータ801は、CD-ROMドライブ8012に加えて、MPU8013と、CD-ROMドライブ8012等に接続されたバス8014と、ブートアッププログラム等のプログラムを記憶するためのROM8015と、MPU8013に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM8016と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク8017とを含む。ここでは、図示しないが、コンピュータ801は、さらに、LANへの接続を提供するネットワークカードを含んでもよい。
 コンピュータシステム800に、上述した実施の形態の情報処理装置等の機能を実行させるプログラムは、CD-ROM8101に記憶されて、CD-ROMドライブ8012に挿入され、さらにハードディスク8017に転送されてもよい。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ801に送信され、ハードディスク8017に記憶されてもよい。プログラムは実行の際にRAM8016にロードされる。プログラムは、CD-ROM8101またはネットワークから直接、ロードされてもよい。
 プログラムは、コンピュータ801に、上述した実施の形態の情報処理装置等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等を、必ずしも含まなくてもよい。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいればよい。コンピュータシステム800がどのように動作するかは周知であり、詳細な説明は省略する。
 なお、上記プログラムにおいて、情報を送信する送信ステップや、情報を受信する受信ステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。
 また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。
 また、上記実施の形態において、一の装置に存在する2以上の構成要素は、物理的に一の媒体で実現されてもよい。
 上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、又は、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現されうる。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。また、そのプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。また、そのプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、又は分散処理を行ってもよい。
 また、上記実施の形態において、各処理(各機能)は、単一の装置(システム)によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい(この場合、分散処理を行う複数の装置により構成されるシステム全体を1つの「装置」として把握することが可能である)。例えば、上述の実施の形態において、情報処理装置が行うと記載されている動作の一部が、端末装置など、他の装置において実行されるようにしてもよい。
 また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、又は、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。
 また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、又は長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、又は、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、又は、図示しない読み出し部が行ってもよい。
 また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、又は、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。
 本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものである。
 上述の実施の形態の構成そのものに限られず、上述の実施の形態の一部の構成要素や機能が省略されていてもよい。
 以上のように、本発明にかかる情報処理装置は、腸の調子に関する客観的な情報を知ることができるという効果を有し、情報処理装置等として有用である。

Claims (19)

  1. 一のユーザの、腹部から出る音である腹部音に関する音情報を取得する音情報取得部と、
    前記音情報取得部により取得された音情報を含む入力情報と、予め用意された学習情報とを用いて、前記ユーザの腸の調子に関する腸スコアを取得する腸スコア取得部と、
    前記腸スコア取得部により取得された腸スコアを出力する腸スコア出力部とを備える、情報処理装置。
  2. 前記入力情報は、前記ユーザの生活状況に関する生活情報をさらに含む、請求項1に記載の情報処理装置。
  3. 前記生活情報は、前記ユーザの排泄の状況に関する排泄関係情報を含んでいる、請求項2に記載の情報処理装置。
  4. 前記排泄関係情報は、前記ユーザにより入力されたブリストルスツールフォームスケールにより示される情報を含む、請求項3に記載の情報処理装置。
  5. 前記腸スコア取得部は、
    前記排泄関係情報に基づいて、排泄スコアを取得する排泄スコア取得部をさらに備え、
    前記排泄スコア取得部により取得した排泄スコアを用いて、前記腸スコアを取得する、請求項3に記載の情報処理装置。
  6. 前記生活情報は、前記ユーザの飲食の状況に関する飲食情報を含む、請求項2に記載の情報処理装置。
  7. 前記飲食情報は、飲水量に関する情報、飲酒の有無若しくは飲酒量に関する情報、食事の有無若しくは内容に関する情報、及び摂取した特定群の食品の有無若しくは摂取量に関する情報のうち少なくとも1つを含む、請求項6に記載の情報処理装置。
  8. 前記腸スコア取得部は、
    前記飲食情報に基づいて、飲食スコアを取得する飲食スコア取得部をさらに備え、
    前記飲食スコア取得部により取得した飲食スコアを用いて、前記腸スコアを取得する、請求項6に記載の情報処理装置。
  9. 前記生活情報は、前記ユーザの活動状況に関する活動状況情報を含む、請求項2に記載の情報処理装置。
  10. 前記活動状況情報は、睡眠に関する睡眠情報及び運動に関する運動情報のうち少なくとも1つを含む、請求項9に記載の情報処理装置。
  11. 前記活動状況情報は、前記ユーザの活動量を取得する活動量計により取得された情報である、請求項9に記載の情報処理装置。
  12. 前記腸スコア取得部は、
    前記活動状況情報に基づいて、活動状況スコアを取得する活動状況スコア取得部をさらに備え、
    前記活動状況スコア取得部により取得した活動状況スコアを用いて、前記腸スコアを取得する、請求項9に記載の情報処理装置。
  13. 前記学習情報は、前記音情報を含む学習入力情報を入力する情報とし、腸の活動状態に関する所定の出力指標の値を出力する情報とするようにして作成されたものであり、
    前記腸スコア取得部は、前記学習情報を用いて取得した前記出力指標の値を用いて、腸スコアを取得する、請求項1に記載の情報処理装置。
  14. 前記出力指標は、便通の状態と、単位時間当たりの腸蠕動運動の回数とのうち、少なくとも1つである、請求項13に記載の情報処理装置。
  15. 前記腸スコア取得部は、前記入力情報に基づいて、2以上の評価要素のそれぞれについての要素スコアを取得する要素スコア取得部を有し、前記要素スコア取得部により取得された要素スコアを用いて前記腸スコアを取得し、
    前記出力部は、前記要素スコア取得部により取得された要素スコアを用いたレーダーチャートをさらに出力する、請求項1に記載の情報処理装置。
  16. 前記音情報に対応する、腹部音の取得に用いた機器の種類を識別する機器識別情報を取得する機器識別情報取得部をさらに備え、
    前記学習情報は、それぞれ機器識別情報に対応付けられて複数用意されており、
    前記腸スコア取得部は、前記機器識別情報取得部により取得された機器識別情報に対応する学習情報を用いて、前記腸スコアを取得する、請求項1に記載の情報処理装置。
  17. 前記腹部音を録音するためのマイクと、
    前記出力部により出力された腸スコアが表示される表示部とをさらに備える、請求項1に記載の情報処理装置。
  18. 音情報取得部と、腸スコア取得部と、出力部とにより実現される情報処理方法であって、
    前記音情報取得部が、一のユーザの、腹部から出る音である腹部音に関する音情報を取得する音情報取得ステップと、
    前記腸スコア取得部が、前記音情報取得ステップにより取得された音情報を含む入力情報と、予め用意された学習情報とを用いて、前記ユーザの腸の調子に関する腸スコアを取得する腸スコア取得ステップと、
    前記出力部が、前記腸スコア取得ステップにより取得された腸スコアを出力する出力ステップとを備える、情報処理方法。
  19. コンピュータを、
    一のユーザの、腹部から出る音である腹部音に関する音情報を取得する音情報取得部と、
    前記音情報取得部により取得された音情報を含む入力情報と、予め用意された学習情報とを用いて、前記ユーザの腸の調子に関する腸スコアを取得する腸スコア取得部と、
    前記腸スコア取得部により取得された腸スコアを出力する出力部と、として機能させるための、プログラムを記録した記録媒体。
PCT/JP2021/044234 2020-12-07 2021-12-02 情報処理装置、情報処理方法、及び記録媒体 WO2022124190A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2022568233A JPWO2022124190A1 (ja) 2020-12-07 2021-12-02
EP21903294.3A EP4257052A1 (en) 2020-12-07 2021-12-02 Information processing device, information processing method, and recording medium
US18/265,546 US20230386675A1 (en) 2020-12-07 2021-12-02 Information processing apparatus, information processing method, and recording medium
CN202180082366.6A CN116600717A (zh) 2020-12-07 2021-12-02 信息处理装置、信息处理方法及记录介质
KR1020237012659A KR20230117098A (ko) 2020-12-07 2021-12-02 정보 처리 장치, 정보 처리 방법, 및 기록 매체

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020202488 2020-12-07
JP2020-202488 2020-12-07

Publications (1)

Publication Number Publication Date
WO2022124190A1 true WO2022124190A1 (ja) 2022-06-16

Family

ID=81973216

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/044234 WO2022124190A1 (ja) 2020-12-07 2021-12-02 情報処理装置、情報処理方法、及び記録媒体

Country Status (7)

Country Link
US (1) US20230386675A1 (ja)
EP (1) EP4257052A1 (ja)
JP (1) JPWO2022124190A1 (ja)
KR (1) KR20230117098A (ja)
CN (1) CN116600717A (ja)
TW (1) TW202227017A (ja)
WO (1) WO2022124190A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007186495A (ja) * 2005-12-16 2007-07-26 Ezaki Glico Co Ltd 体調を改善する効果を持つ新規もろみ酢
JP2017041035A (ja) 2015-08-19 2017-02-23 株式会社野村総合研究所 健康管理支援システムおよび健康管理支援プログラム
WO2019216320A1 (ja) 2018-05-08 2019-11-14 国立大学法人徳島大学 機械学習装置、解析装置、機械学習方法および解析方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007186495A (ja) * 2005-12-16 2007-07-26 Ezaki Glico Co Ltd 体調を改善する効果を持つ新規もろみ酢
JP2017041035A (ja) 2015-08-19 2017-02-23 株式会社野村総合研究所 健康管理支援システムおよび健康管理支援プログラム
WO2019216320A1 (ja) 2018-05-08 2019-11-14 国立大学法人徳島大学 機械学習装置、解析装置、機械学習方法および解析方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "why? A whirling sound from the stomach | How to eliminate diarrhea, abdominal pain, and gas. What is the possibility of illness?", 10 March 2020 (2020-03-10), pages 1 - 7, XP055940669, Retrieved from the Internet <URL:https://web.archive.org/web/20200506051908/https://epark.jp/medicalook/stomach-growling/> *
KASHIWAMURA TASUKU: "AI Shakes Up the Toilet: The Health Revolution Learned from Fecal Shapes", LIFE DESIGN REPORT, 1 April 2020 (2020-04-01), pages 1 - 3, XP055940663 *
LIFE LOG TECHNOLOGY, INC.: "The health management app "Caromill" has exceeded 700,000 downloads in total! Increased interest in health due to Korona-ka, an increase of 200,000 people in half a year from May", 19 November 2020 (2020-11-19), XP055940671, Retrieved from the Internet <URL:https://prtimes.jp/main/html/rd/p/000000056.000018894.html> [retrieved on 20220113] *

Also Published As

Publication number Publication date
JPWO2022124190A1 (ja) 2022-06-16
EP4257052A1 (en) 2023-10-11
US20230386675A1 (en) 2023-11-30
KR20230117098A (ko) 2023-08-07
TW202227017A (zh) 2022-07-16
CN116600717A (zh) 2023-08-15

Similar Documents

Publication Publication Date Title
Kalantarian et al. A survey of diet monitoring technology
Makeyev et al. Automatic food intake detection based on swallowing sounds
JP2008176816A (ja) 健康状態によるアバター映像の生成方法及び装置
JP2019046058A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2017174168A (ja) 健康管理サーバ及び健康管理システム
JP6948095B1 (ja) プログラム、方法、およびシステム
CN109817325A (zh) 对象进展的统计学分析以及影响数字内容的响应生成
Joshi et al. Artificial intelligence assisted food science and nutrition perspective for smart nutrition research and healthcare
WO2022124190A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2022168827A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US20210391047A1 (en) Document creation apparatus, method, and program
CN116848585A (zh) 信息处理装置、信息处理方法及记录介质
KR102426924B1 (ko) 생체 임피던스 측정장치를 이용한 건강 관리시스템 및 건강 관리 장치
JP2022120258A (ja) 情報処理装置、情報処理方法、及びプログラム
Bujorianu Developing a Recommendation Algorithm for Patients Using the Healthentia Platform
Grzywalski et al. Fully interactive lungs auscultation with AI enabled digital stethoscope
US11688506B2 (en) Methods and systems for calculating an edible score in a display interface
US20220036998A1 (en) Methods and systems for calculating an edible score in a display interface
WO2021171596A1 (ja) 推論システム、学習依頼装置、および学習依頼方法
US20230274812A1 (en) Methods and systems for calculating an edible score in a display interface
US20240087719A1 (en) Methods and systems for calculating an edible score in a display interface
KR102631340B1 (ko) 제품 추천 방법 및 장치
WO2023162829A1 (ja) 情報処理装置、情報処理方法、および記録媒体
Al-Maghrabi Measuring Food Volume and Nutritional Values from Food Images
WO2022014538A1 (ja) 被験者の健康度を計測するための方法、装置、プログラム、およびシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21903294

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022568233

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180082366.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021903294

Country of ref document: EP

Effective date: 20230707