WO2024128038A1 - 情報処理システム、情報処理装置、制御方法、およびプログラム - Google Patents

情報処理システム、情報処理装置、制御方法、およびプログラム Download PDF

Info

Publication number
WO2024128038A1
WO2024128038A1 PCT/JP2023/043150 JP2023043150W WO2024128038A1 WO 2024128038 A1 WO2024128038 A1 WO 2024128038A1 JP 2023043150 W JP2023043150 W JP 2023043150W WO 2024128038 A1 WO2024128038 A1 WO 2024128038A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
information processing
signal
processing system
posture
Prior art date
Application number
PCT/JP2023/043150
Other languages
English (en)
French (fr)
Inventor
浩造 中村
康之 白坂
純一 松崎
章太 上西
亮介 須藤
Original Assignee
積水化学工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 積水化学工業株式会社 filed Critical 積水化学工業株式会社
Publication of WO2024128038A1 publication Critical patent/WO2024128038A1/ja

Links

Images

Definitions

  • the present invention relates to an information processing system that detects vibrations emitted by a subject.
  • Patent Document 1 discloses a bowel sound measuring device for determining the state of the intestines based on the peristaltic sounds of the intestines.
  • Methods that measure gastrointestinal peristalsis sounds by attaching or contacting a sensor to the subject can cause discomfort to the subject and are therefore not suitable for long-term or continuous monitoring.
  • An information processing system includes a sensor that is placed at a predetermined position that does not come into contact with a subject and detects vibrations generated by the subject, and a peristalsis sound generation determination unit that determines whether or not gastrointestinal peristalsis sounds are being generated by the subject based on a detection signal output from the sensor.
  • An information processing system includes a sensor that is placed at a predetermined position that does not come into contact with a subject and detects vibrations generated by the subject, and a signal extraction unit that extracts a peristalsis sound signal indicative of gastrointestinal peristalsis sound of the subject based on a detection signal output from the sensor.
  • An information processing system includes a sensor that is placed at a predetermined position that does not come into contact with a subject and detects vibrations generated by the subject, a signal extraction unit that extracts a peristalsis sound signal indicative of gastrointestinal peristalsis sounds of the subject from the detection signal output from the sensor, and a posture determination unit that determines the posture of the subject based on the detection signal, and the signal extraction unit extracts the peristalsis sound signal corresponding to the determined posture.
  • An information processing system includes a sensor disposed at a predetermined position not in contact with a subject and detecting vibrations emitted by the subject, a signal extraction unit extracting a heart sound signal indicative of the subject's heart sounds and a peristaltic sound signal indicative of gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, and a posture determination unit determining the posture of the subject based on the extracted heart sound signal, and the signal extraction unit extracts the peristaltic sound signal having a signal strength according to the determined posture.
  • An information processing system includes a sensor that is placed at a predetermined position that does not come into contact with a subject and detects vibrations emitted by the subject, a signal extraction unit that extracts a peristalsis sound signal indicating gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, a posture determination unit that determines the posture of the subject, and a generation position estimation unit that estimates the generation position of the peristalsis sound indicated by the peristalsis sound signal based on the extracted peristalsis sound signal and the determined posture.
  • An information processing device includes a sensor that is placed at a predetermined position that does not come into contact with a subject and detects vibrations emitted by the subject, and a signal extraction unit that extracts a peristalsis sound signal indicative of gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor.
  • a control method is a control method executed by one or more information processing devices, and includes an output step of outputting a detection signal from a sensor that is placed at a predetermined position not in contact with the subject and detects vibrations emitted from the subject, an extraction step of extracting a peristalsis sound signal indicating gastrointestinal peristalsis sound of the subject from the output detection signal, and a determination step of determining the posture of the subject based on the detection signal.
  • the information processing system and information processing device may be realized by a computer.
  • the information processing system that realizes the information processing system and the information processing device by operating a computer as each part (software element) of the information processing system and the information processing device, the control program of the information processing device, and the computer-readable recording medium on which it is recorded also fall within the scope of the present invention.
  • a simple configuration allows the subject's gastrointestinal peristalsis to be accurately understood without causing discomfort to the subject.
  • FIG. 1 is a sonograph showing a peristaltic sound signal included in a detection signal.
  • FIG. 1 is a conceptual diagram illustrating an example of a configuration of an information processing system.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an information processing device of an information processing system.
  • FIG. 13 is a diagram illustrating another example of a schematic configuration of an information processing device in the information processing system.
  • FIG. 13 is a diagram illustrating another example of a schematic configuration of an information processing device of the information processing system.
  • FIG. 11 is a diagram showing frequency characteristics and signal intensity of a peristaltic sound signal.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a processing flow of the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 4 is a diagram showing a feature signal included in a detection signal.
  • FIG. 2 is a flow diagram illustrating an example of a processing flow of the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a processing flow of the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a processing flow of the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a processing flow of the information processing system.
  • FIG. 11 is a functional block diagram showing another example of the configuration of the information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram showing an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram showing an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram illustrating an example of a flow of processing performed by the information processing system.
  • FIG. 1 is a functional block diagram illustrating an example of a configuration of an information processing system.
  • FIG. 2 is a flow diagram showing an example of a flow of processing performed by the information processing system.
  • FIG. 2 is a diagram illustrating an example of a display screen displayed on a display unit of the information processing system.
  • FIG. 1 is a schematic diagram for explaining a neuron model.
  • FIG. 1 is a diagram for explaining a neural network.
  • Fig. 1 is a sonograph showing a peristaltic sound signal included in a detection signal.
  • a "sonograph” is a graph showing sound or vibration. In this figure, the horizontal axis represents time, the vertical axis represents frequency, and the energy distribution (signal strength) is represented by color (shade).
  • the information processing system 100 is a system that extracts a peristaltic sound signal corresponding to the posture of the subject W1 based on a detection signal output from a sensor that detects vibrations emitted from the subject W1 at a position that does not contact the subject W1.
  • a "subject” typically refers to a patient reclining in bed, who requires monitoring by a medical professional W2 or the like.
  • a “heart sound signal” is a signal that indicates the sound of the subject's heart beating.
  • a “ballistocardiogram signal” is a signal that indicates all vibrations that occur on the body surface due to the beating of the heart.
  • the first meaning of “not directly contacting the subject” is not to contact the subject's skin.
  • the second meaning of “not directly contacting the subject” is not to contact the subject's skin and not to contact through clothing worn by the subject.
  • the sensor may be placed between the bed on which the subject lies and the mattress on the bed, between the bed sheet on the mattress and the mattress, or inside the mattress.
  • FIG. 1 shows sonographs of the peristaltic sound signal extracted from the detection signal output from the sensor when the subject W1 takes various postures.
  • the upper left diagram of FIG. 1 is a sonograph of the peristaltic sound signal when the sensor is placed on the abdominal side of the subject W1 in the prone position
  • the upper right diagram of FIG. 1 is a sonograph of the peristaltic sound signal when the sensor is placed on the right side of the subject W1 in the right lateral position
  • FIG. 1 is a sonograph of the peristaltic sound signal when the sensor is placed on the back of the subject W1 in the supine position
  • the lower right diagram of FIG. 1 is a sonograph of the peristaltic sound signal when the sensor is placed on the left side of the subject W1 in the left lateral position.
  • the information processing system 100 employs a configuration in which a peristalsis sound signal indicating peristalsis sounds corresponding to the posture of the subject W1 is extracted from a detection signal obtained by detecting vibrations emitted from the subject W1.
  • a peristalsis sound signal indicating peristalsis sounds corresponding to the posture of the subject W1 is extracted from a detection signal obtained by detecting vibrations emitted from the subject W1.
  • This realizes an information processing system capable of measuring the gastrointestinal peristalsis sounds of the subject W1 regardless of the posture of the subject W1 at the time of measurement.
  • the information processing system 100 detects vibrations at a predetermined position that does not come into contact with the subject W1, thereby reducing the possibility of the subject feeling uncomfortable.
  • a peristalsis sound signal corresponding to the posture of the subject W1 is extracted, appropriate measurement can be performed regardless of the posture of the subject W1.
  • the information processing system 100 measures peristalsis sounds corresponding to the posture of the subject W1 without causing discomfort to the subject W
  • Fig. 2 is a conceptual diagram showing an example of the configuration of the information processing system 100.
  • the information processing system 100 includes one or more computers serving as information processing devices. As an example, as shown in FIG. 2, the information processing system 100 may include an information processing device 1 and a communication device 3. The number of information processing devices 1 and communication devices 3 may each be one or more.
  • the information processing device 1 is a computer that is installed near the subject W1.
  • the information processing device 1 extracts a peristalsis sound signal that corresponds to the posture of the subject W1 based on the vibrations emitted by the subject W1, and outputs the peristalsis sound signal to an external device.
  • a typical example of an external device to which the peristalsis sound signal is output is a communication device 3.
  • the communication device 3 is typically a computer, smartphone, tablet terminal, or the like used by medical personnel W2, and is installed, for example, in a nurse's station.
  • the information processing device 1 and the communication device 3 may be directly connected.
  • the form of the communication network 9 is not limited, and may be a local area network (LAN) or the Internet.
  • LAN local area network
  • a connection form in which there is little delay in the time from when the peristalsis sound signal is extracted by the information processing device 1 to when information indicating the peristalsis sound signal is displayed on the communication device 3 is preferable.
  • the information processing system 100 may also include a server device (not shown) that is communicatively connected to the information processing device 1 and the communication device 3.
  • the server device may be configured to store and manage information sent from multiple information processing devices 1 for each subject.
  • medical personnel W2 may use the communication device 3 to access information on subject W1 managed by the server device.
  • Fig. 7 is a functional block diagram showing an example of the configuration of an information processing system 100.
  • the information processing device 1 detects vibrations emitted by the subject W1 at a predetermined position that does not contact the subject W1, and extracts a peristaltic sound signal corresponding to the posture of the subject W1 from the detected signal (detection signal).
  • the information processing device 1 includes, as an example, a sensor 11, a control unit 12 including a signal extraction unit 121, a posture determination unit 122, and an output unit 123, and a memory unit 13.
  • the sensor 11 does not have to be included in the information processing device 1, and may be provided outside the information processing device 1 and connected to the information processing device 1.
  • the sensor 11 is a non-contact (non-invasive) sensor capable of detecting vibrations emitted from the subject W1 at a predetermined position that does not contact the subject W1.
  • the type of the sensor 11 is not particularly limited.
  • the sensor 11 is preferably a sensor that detects vibrations, and more preferably a piezoelectric sensor. If a piezoelectric sensor is used as the sensor 11, it is easy to make the sensor thin, so that the possibility of causing discomfort to the subject W1 can be reduced.
  • the sensor 11 is a piezoelectric sensor, even if the sensor 11 is placed at a position that does not directly contact the subject W1, it can detect vibrations emitted from the subject W1, and long-term or constant monitoring of peristaltic sounds is possible without causing discomfort to the subject W1.
  • Specific examples of piezoelectric sensors include piezoelectric sensors that generate a current in response to compression deformation, piezoelectric sensors that generate a current in response to extension deformation, and piezoelectric sensors that generate a current in response to twist deformation.
  • a piezoelectric sensor including a foam as the sensor 11 .
  • the detection signal is either the signal (waveform data) itself indicating the vibrations emitted by the subject W1, or a signal that has been subjected to amplification or noise removal processing. Noise removal can be performed, for example, by filtering any frequency range.
  • the sensor 11 can detect vibrations in various frequency ranges that originate from the subject W1. In other words, the detection signal output from the sensor 11 is a signal in which multiple vibrations with various frequency characteristics overlap each other.
  • the senor 11 has a wide frequency band of detectable vibrations. This eliminates the need to deploy multiple types of sensors with different frequency bands, simplifying maintenance and management by medical personnel W2 and improving convenience.
  • FIGS. 3 to 5 are diagrams showing an example of the schematic configuration of the information processing device 1.
  • the sensor 11 is preferably installed at a predetermined position that does not come into contact with the subject W1 so as to prevent the subject W1 from feeling uncomfortable.
  • the sensor 11 may be installed at a position that supports the torso of the bed on which the subject W1 lies.
  • the sensor 11 is preferably formed in a thin plate (sheet-like) shape.
  • the sensor 11 may be installed at a position that supports the torso of a chair on which the subject W1 sits. In this way, the sensor 11 can detect vibrations emitted from the subject W1 in a natural posture while lying on the bed or sitting on the chair.
  • the sensor 11 When the sensor 11 is installed on a bed, the sensor 11 may be installed, for example, between the bed on which the subject W1 lies and a mattress on the bed. The sensor 11 may also be installed between a bed sheet on the mattress and the mattress. Also, when the subject W1 is wearing clothes, the sensor 11 may be installed on the top surface of the bed.
  • the sensor 11 may be attached to clothing worn by the subject W1.
  • 5001 in FIG. 5 shows an example of attaching the sensor 11 to clothing.
  • 5002 and 5003 in FIG. 5 show an example of the subject W1 wearing the clothing with the sensor 11 attached.
  • the sensor 11 may be attached to the clothing such that the sensor 11 is located on the chest side of the subject W1 when the subject W1 wears the clothing.
  • the sensor 11 may be attached to the clothing such that the sensor 11 is located on the back side of the subject W1 when the subject W1 wears the clothing.
  • the sensor 11 of the information processing device 1 when the sensor 11 of the information processing device 1 is installed in the clothes worn by the subject W1, as shown in 5003 in FIG. 5, the sensor 11 may be installed in a position on the clothes worn by the subject W1 (reference symbol X1 in FIG. 5) where the clothes are sandwiched between the sensor 11 and the torso (reference symbol X2 in FIG. 5). In this case, it is possible to detect vibrations emitted from the subject W1 without contact between the subject W1 and the sensor 11. In addition, according to the above configuration, even if the subject W1 moves from one place to another, as long as the subject W1 is wearing clothes equipped with the sensor 11, it is possible to measure the gastrointestinal peristalsis sounds of the subject W1.
  • the senor 11 is typically formed in a thin plate (sheet-like) shape. This makes it possible to detect vibrations emitted by the subject W1 without causing discomfort to the subject W1 using the bed or chair or the subject W1 wearing the clothes.
  • the sensor 11 may have one or more detection areas. If the sensor 11 has multiple detection areas, the sensor 11 may output a detection signal detected in each of the multiple detection areas.
  • the information processing device 1 shown in 3001 of FIG. 3 includes a sensor 11 with one detection area D.
  • the information processing device 1 shown in 3002 of FIG. 3 includes a sensor 11 with detection areas D1 to D3 arranged in three columns.
  • the information processing device 1 shown in 3003 of FIG. 3 includes a sensor 11 with detection areas D1a to D3d arranged in four rows and three columns.
  • the detection signals detected in each of the detection areas D1 to D3 are output separately.
  • the detection signals detected in each of the detection areas D1a to D3d are output separately.
  • Each of the detection areas D1a to D3d may be, for example, 10 cm square.
  • the information processing device 1 can measure the peristaltic sound with high accuracy by individually analyzing the detection signals detected in each detection area and comparing the analysis results with each other.
  • the control unit 12 may be, for example, a CPU (Central Processing Unit).
  • the control unit 12 reads a control program, which is software stored in the storage unit 13, expands it in a memory such as a RAM (Random Access Memory), and controls each component of the information processing device 1. Note that, in the storage unit 13 shown in FIG. 7, the control program is omitted from the illustration in order to simplify the explanation.
  • control unit 12 includes a signal extraction unit 121, a posture determination unit 122, and an output unit 123.
  • the signal extraction unit 121 acquires the detection signal output from the sensor 11, and extracts from the acquired detection signal a heart sound signal indicating the heart sounds of the subject W1 and a peristaltic sound signal indicating the gastrointestinal peristalsis sound of the subject W1.
  • the signal extraction unit 121 also extracts a peristaltic sound signal corresponding to the posture determined by the posture determination unit 122 described below.
  • the signal extraction unit 121 may extract a heart sound signal or a peristalsis sound signal for each of the multiple detection areas.
  • the heart sound signal typically has a frequency characteristic of 200 Hz or less, and the peristalsis sound signal has a frequency characteristic of having a peak at least in one of 150 Hz to 300 Hz and 500 Hz to 700 Hz.
  • the signal extraction unit 121 applies well-known techniques such as frequency separation to the detection signal to extract the heart sound signal and the peristalsis sound signal having the frequency characteristics described above from the acquired detection signal, and further extracts the peristalsis sound signal having a signal strength according to the posture of the subject W1 determined by the posture determination unit 122.
  • FIG. 6 is a diagram showing specific examples of peristalsis sound signals having signal strengths according to the posture of subject W1.
  • the upper diagram in FIG. 6 shows peristalsis sound signals extracted when a sensor is placed on the abdominal side of subject W1 in a prone position
  • the middle diagram in FIG. 6 shows peristalsis sound signals extracted when a sensor is placed on the right side of subject W1 in a right lateral position
  • the lower diagram in FIG. 6 shows peristalsis sound signals extracted when a sensor is placed on the back of subject W1 in a supine position.
  • the diagram on the right shows a peristalsis sound signal having peaks at 150 Hz to 350 Hz
  • the diagram on the left shows a peristalsis sound signal having peaks at 400 Hz to 700 Hz.
  • the circled positions in the graphs indicate the peak frequencies.
  • the signal extraction unit 121 may further remove other signals that may be noise from the detection signal.
  • other signals that may be noise may be signals that correspond to vibrations emitted from machines such as air conditioners and televisions.
  • the signal extraction unit 121 removes, as noise, signals that correspond to the features or characteristics of signals that correspond to vibrations emitted from machines such as air conditioners and televisions from the detection signal.
  • the features or characteristics of the signals for each machine may be stored in advance in the memory unit 13.
  • the signal extraction unit 121 may also store in the storage unit 13 information indicating the detection signal acquired from the sensor 11 and information related to the processing in the signal extraction unit 121.
  • Information related to the processing in the signal extraction unit 121 includes information indicating the heart sound signal and peristalsis sound signal extracted from the detection signal (detection signal 131, heart sound signal 132, and peristalsis sound signal 133 shown in FIG. 7). These signals may also be stored together with time information indicating the time when the detection signal from which they were extracted was detected.
  • the posture determination unit 122 determines the posture of the subject W1 at the time when the subject W1 emits vibration.
  • the posture determination unit 122 identifies a ballistocardiogram signal indicating the ballistocardiogram of the subject W1 from the heart sound signal extracted by the signal extraction unit 121, and determines the posture of the subject W1 based on the identified ballistocardiogram signal.
  • the posture determination unit 122 may determine the posture of the subject W1 by inputting the ballistocardiogram signal identified from the heart sound signal extracted by the signal extraction unit 121 into a posture determination model that has been machine-learned using teacher data in which the ballistocardiogram signal is an explanatory variable and the posture of the subject W1 corresponding to the ballistocardiogram signal is an objective variable.
  • a known machine learning algorithm may be applied to the machine learning for generating the posture determination model.
  • the posture determination model may be stored in the storage unit 13, or may be stored in a device other than the information processing device 1.
  • the posture determination unit 122 determines the posture of the subject W1 based on the results of comparing at least one of the frequency characteristics and signal strength for each ballistocardiogram signal identified from the heart sound signal extracted for each detection area.
  • the posture determination unit 122 may determine the posture of the subject W1 by inputting each of the ballistocardiogram signals identified from the heart sound signals extracted for each of the multiple detection areas in the signal extraction unit 121 to a posture determination model that has been machine-learned using teacher data with the same number of ballistocardiogram signals as the multiple detection areas as explanatory variables and the posture of the subject W1 corresponding to the ballistocardiogram signals as the objective variable.
  • a known machine learning algorithm may be applied to the machine learning for generating the posture determination model.
  • the posture determination model may be stored in the storage unit 13, or may be stored in a device other than the information processing device 1.
  • the posture determination unit 122 may also store the processing results of the posture determination unit 122 in the storage unit 13. Examples of the processing results of the posture determination unit 122 include information indicating a ballistocardiogram signal identified from the heart sound signal extracted by the signal extraction unit 121 (ballistocardiogram signal 134 shown in FIG. 7) or information indicating the result of posture determination of the subject W1 (determination result 136 shown in FIG. 7).
  • the output unit 123 outputs to an external device the detection signal output from the sensor 11, the processing results in the control unit 12, or various information stored in the memory unit 13.
  • the output unit 123 outputs to the communication device 3 the detection signal output from the sensor 11, the heart sound signal and peristaltic sound signal extracted in the signal extraction unit 121, or the ballistocardiogram signal identified in the posture determination unit 122 and information indicating the results of posture determination.
  • the storage unit 13 may also store processing criteria 135, which is information indicating criteria for processing (e.g., signal extraction, posture determination, etc.) that may be executed by each unit of the control unit 12 described above.
  • processing criteria 135 is information indicating criteria for processing (e.g., signal extraction, posture determination, etc.) that may be executed by each unit of the control unit 12 described above.
  • the configuration of the communication device 3 will be described with reference to Fig. 7.
  • the communication device 3 communicates with the information processing device 1 via a communication network 9, and receives information output from the information processing device 1. Furthermore, the communication device 3 may transmit a transmission request for various information to the information processing device 1 as necessary.
  • the communication device 3 includes an input unit 31, a control unit 32, a memory unit 33, and a display unit 34.
  • the input unit 31 accepts input operations by the user on the communication device 3, and transmits a signal (instruction signal) corresponding to the input operation to the control unit 32.
  • An input operation by the user is, for example, switching the target person information displayed on the display unit 34.
  • Specific examples of the input unit 31 include a keyboard, a touch panel, and a mouse.
  • the control unit 32 controls each of the components of the communication device 3.
  • the control unit 32 reads a control program (not shown), which is software stored in the storage unit 33, expands it in a memory such as a RAM, and controls each of the components of the communication device 3.
  • the control unit 32 includes an input receiving unit 321 that receives an instruction signal sent by the input unit 31, and a display control unit 322 that outputs various information to the display unit 34.
  • the memory unit 33 stores the detection signal received by the signal extraction unit 121 from the sensor 11, the heart sound signal and peristaltic sound signal extracted by the signal extraction unit 121, or information indicating the ballistocardiogram signal and posture determination result identified by the posture determination unit 122.
  • the display unit 34 displays the display image output from the control unit 32.
  • the display unit 34 displays an image including at least one of the detection signal received by the signal extraction unit 121 from the information processing device 1, the heart sound signal and peristaltic sound signal extracted by the signal extraction unit 121, or the ballistocardiogram signal identified by the posture determination unit 122 and information indicating the result of posture determination.
  • Fig. 8 is a flow diagram showing an example of the flow of processing performed by the information processing system 100 (for example, the information processing device 1).
  • the sensor 11 of the information processing device 1 which is installed at a predetermined position that does not come into contact with the subject W1, detects vibrations emitted by the subject W1 (S101).
  • the sensor 11 outputs a detection signal corresponding to the detected vibrations to the control unit 12 (S102: output step).
  • the signal extraction unit 121 of the control unit 12 acquires a detection signal from the sensor 11, it extracts a heart sound signal and a peristalsis sound signal from the detection signal (S103: first extraction step). In addition, the signal extraction unit 121 outputs the extracted heart sound signal to the posture determination unit 122.
  • the posture determination unit 122 determines the posture of the subject W1 based on the ballistocardiogram signal identified from the heart sound signal acquired from the signal extraction unit 121 (S104: determination step). In addition, the posture determination unit 122 outputs the result of the posture determination to the signal extraction unit 121.
  • the signal extraction unit 121 extracts a peristaltic sound signal corresponding to the posture determined in S104 based on the posture determination result obtained from the posture determination unit 122 and the peristaltic sound signal extracted in step S103 (S105: second extraction step).
  • the output unit 123 After extracting the peristalsis sound signal corresponding to the posture, the output unit 123 outputs various information including information indicating the peristalsis sound signal to the communication device 3, and the display control unit 322 may display the acquired various information on the display unit 34.
  • the timing at which the information processing system 100 executes each process shown in FIG. 8 can be set arbitrarily.
  • the information processing system 100 may execute each process shown in FIG. 8 at predetermined intervals (e.g., one hour), or may execute each time the sensor 11 determines that the subject W1 has left the bed.
  • FIG. 9 A first modified example of the configuration of the information processing system 100 (hereinafter, referred to as "information processing system 100a") will be described with reference to Fig. 9 and Fig. 10.
  • information processing system 100a A first modified example of the configuration of the information processing system 100 (hereinafter, referred to as "information processing system 100a") will be described with reference to Fig. 9 and Fig. 10.
  • the same reference numerals are given to members having the same functions as the members described above, and the description thereof will not be repeated.
  • Fig. 9 is a functional block diagram showing an example of the configuration of the information processing system 100a.
  • information processing system 100a differs from information processing system 100 in that information processing system 100a includes information processing device 1a instead of information processing device 1, but otherwise has the same configuration.
  • the information processing device 1a differs from the information processing device 1 in that it includes a control unit 12a instead of the control unit 12.
  • the control unit 12a further differs from the control unit 12 in that it includes a peristaltic sound generation determination unit 124a.
  • the peristaltic sound generation determination unit 124a determines whether or not a peristaltic sound has been generated in the vibrations emitted by the subject W1. As an example, the peristaltic sound generation determination unit 124a determines that a peristaltic sound has been generated when the peristaltic sound signal extracted by the signal extraction unit 121 has at least one of a predetermined frequency characteristic and a predetermined signal strength at a predetermined frequency.
  • predetermined frequency characteristic is a frequency characteristic that has a peak at least in the range of 150 Hz to 300 Hz and 500 Hz to 700 Hz, which are the frequency characteristics of peristaltic sounds.
  • predetermined signal strength at a predetermined frequency may be a signal strength around 200 Hz or around 600 Hz when a peristaltic sound having a peak at least one of 150 Hz to 300 Hz and 500 Hz to 700 Hz is acquired.
  • FIG. 10 is a flow diagram showing an example of the flow of processing performed by the information processing system 100a (for example, the information processing device 1a).
  • Steps S101 to S105 are the same as those shown in FIG. 8, so the explanation will be omitted here.
  • the peristalsis sound generation determination unit 124a acquires the peristalsis sound signal corresponding to the posture of the subject W1 extracted by the signal extraction unit 121 in S105, it determines whether or not peristalsis sound is occurring in the stomach and intestines of the subject W1 based on the peristalsis sound signal (S106).
  • the peristalsis sound generation determination unit 124a determines that a peristalsis sound has occurred when the peristalsis sound signal corresponding to the posture of the subject W1 extracted by the signal extraction unit 121 has at least one of a predetermined frequency characteristic and a predetermined signal strength at a predetermined frequency.
  • the peristalsis sound generation determination unit 124a outputs the determination result to the output unit 123, and the output unit 123 may output information including the determination result to the communication device 3.
  • the timing at which the information processing system 100a executes each process shown in FIG. 10 can be set arbitrarily.
  • the information processing system 100a may execute each process shown in FIG. 10 at predetermined intervals (e.g., one hour), or may execute each time the sensor 11 determines that the subject W1 has left the bed.
  • Fig. 11 is a functional block diagram showing an example of the configuration of the information processing system 100b
  • Fig. 12 is a diagram showing a feature signal included in a detection signal.
  • information processing system 100b differs from information processing system 100a in that information processing system 100b includes information processing device 1b instead of information processing device 1a, but otherwise has the same configuration.
  • the information processing device 1b differs from the information processing device 1a in that it includes a control unit 12b instead of the control unit 12a.
  • the control unit 12b differs from the control unit 12a in that it includes a signal extraction unit 121b instead of the signal extraction unit 121, and further includes a sleep determination unit 125b.
  • the signal extraction unit 121b differs from the signal extraction unit 121 in that it further extracts a feature signal from the detection signal output from the sensor 11.
  • the "feature signal” includes at least one of a heartbeat signal indicating the heartbeat of the subject W1, a respiratory vibration signal indicating the respiratory vibration of the subject W1, a body movement signal indicating the body movement of the subject W1, and a snoring signal indicating the snoring of the subject W1, as shown in FIG. 12.
  • the sleep determination unit 125b determines the sleep state of the subject W1. As an example, the sleep determination unit 125b determines the sleep state of the subject W1 based on the feature signal extracted by the signal extraction unit 121b.
  • the sleep determination unit 125b may determine the sleep state of the subject W1 by inputting a set of the same elements as the explanatory variables, among the feature signals extracted by the signal extraction unit 121b, into a sleep determination model machine-learned using teacher data in which a set having at least one of the above-mentioned feature signals as elements is an explanatory variable and the sleep state of the subject W1 corresponding to the set is an objective variable.
  • a known machine learning algorithm may be applied to the machine learning for generating the sleep determination model.
  • the sleep determination model may be stored in the storage unit 13 or in a device other than the information processing device 1b.
  • Fig. 13 is a flow diagram showing an example of the flow of processing performed by the information processing system 100b.
  • the information processing system 100b executes the processes of steps S101, S102, S103b, S104, S105, S107, and S106.
  • the processes of S101, S102, S104, S105, and S106 are the same as those described above, and therefore will not be described again.
  • the signal extraction unit 121b extracts a heart sound signal, a peristaltic sound signal, and a feature signal from the acquired detection signal (S103b).
  • the signal extraction unit 121b outputs the extracted heart sound signal to the posture determination unit 122, and outputs the detection signal and the extracted feature signal to the sleep determination unit 125b.
  • the sleep determination unit 125b determines the sleep state of the subject W1 based on at least one of the detection signal and the feature signal acquired from the signal extraction unit 121b (S107). Specifically, it determines whether the subject W1 is in a sleep state.
  • step S107 is YES, i.e., if the sleep determination unit 125b determines that the subject W1 is asleep, the peristaltic sound generation determination unit 124a executes the process of step S106. If step S107 is NO, i.e., if the sleep determination unit 125b determines that the subject W1 is not asleep, the process returns to step S101.
  • FIG. 14 is a functional block diagram showing an example of the configuration of an information processing system 100c according to embodiment 2. As shown in Fig. 14, the information processing system 100c is different from the information processing system 100 in that it includes an information processing device 1c instead of the information processing device 1, but the other configurations are the same.
  • information processing device 1c differs from information processing device 1 in that it includes control unit 12c instead of control unit 12.
  • Control unit 12c differs from control unit 12 in that it includes state determination unit 126c.
  • the condition determination unit 126c determines the gastrointestinal condition of the subject W1 based on the peristalsis sound signal extracted by the signal extraction unit 121. As an example, if the peristalsis sound signal extracted by the signal extraction unit 121 has a peak near 600 Hz and the peristalsis sound signal is extracted 12 or more times per minute, the condition determination unit 126c determines that the gastrointestinal condition of the subject W1 is diarrhea or ileus; if the peristalsis sound signal extracted by the signal extraction unit 121 has a peak near 200 Hz and the peristalsis sound signal is extracted 1 to 3 times per minute, the condition determination unit 126c determines that the gastrointestinal condition of the subject W1 is constipation; and if a peristalsis sound signal cannot be extracted for 5 or more minutes, the condition determination unit 126c determines that the gastrointestinal condition of the subject W1 is ileus or peritonitis.
  • the peristaltic sound signal extracted by the signal extraction unit 121 may be input to a state determination model that has been machine-learned using teacher data in which the peristaltic sound signal extracted by the signal extraction unit 121 is used as an explanatory variable and the gastrointestinal state of the subject W1 corresponding to the extracted peristaltic sound signal is used as a target variable, thereby determining the gastrointestinal state of the subject W1.
  • a known machine learning algorithm may be applied to the machine learning for generating the state determination model.
  • the state determination model may be stored in the storage unit 13, or may be stored in a device other than the information processing device 1c.
  • Fig. 15 is a flow diagram showing an example of the flow of processing performed by the information processing system 100c.
  • the information processing system 100c executes the processes of steps S101 to S105 and S108. Steps S101 to S105 are the same as described above, so the explanation is omitted.
  • the state determination unit 126c acquires a peristalsis sound signal corresponding to the posture of the subject W1 extracted by the signal extraction unit 121, and determines the gastrointestinal state of the subject W1 based on the peristalsis sound signal (S108).
  • the state determination unit 126c outputs the determination result to the output unit 123, and the output unit 123 may output information including the determination result to the communication device 3.
  • FIG. 16 is a functional block diagram showing an example of the configuration of an information processing system 100d according to embodiment 3. As shown in FIG. 16, the information processing system 100d differs from the information processing system 100 in that it includes an information processing device 1d instead of the information processing device 1, but otherwise has the same configuration.
  • information processing device 1d differs from information processing device 1 in that it includes control unit 12d instead of control unit 12.
  • Control unit 12d differs from control unit 12 in that it further includes content position estimation unit 127d.
  • the contents position estimation unit 127d estimates the position of contents in the stomach and intestines of the subject W1. Examples of contents in the stomach and intestines include ingested food, gas, and feces. As an example, the contents position estimation unit 127d estimates the position of contents in the stomach and intestines of the subject W1 based on each of the peristalsis sound signals extracted for each detection area by the signal extraction unit 121, placement information indicating the placement of each of the multiple detection areas, and the posture determined by the posture determination unit 122.
  • the contents position estimation unit 127d may estimate the position of the contents in the stomach and intestines of the subject W1 by inputting each of the peristalsis sound signals extracted for each detection area by the signal extraction unit 121, the position information indicating the position of each of the detection areas, and the posture determined by the posture determination unit 122 into a position estimation model trained by machine learning using teacher data with each of the peristalsis sound signals extracted for each detection area by the signal extraction unit 121, the position information indicating the position of each of the detection areas, and the posture determined by the posture determination unit 122 as explanatory variables and the position of the contents as a target variable.
  • Fig. 17 is a flow diagram showing an example of the flow of processing performed by the information processing system 100d.
  • the information processing system 100d executes the processes of steps S101 to S105 and S109. Steps S101 to S105 are the same as those described above, so the explanation is omitted.
  • the contents position estimation unit 127d estimates the position of the gastrointestinal contents of the subject W1 based on each of the peristaltic sound signals extracted by the acquired signal extraction unit 121, the arrangement information indicating the arrangement of each of the multiple detection areas, and the posture determined by the posture determination unit 122 (S109).
  • the contents position estimation unit 127d outputs the estimation result to the output unit 123, and the output unit 123 may output information including the estimation result to the communication device 3.
  • the information processing system of the present invention may be configured to extract a peristalsis sound signal indicating the peristalsis sound of subject W1 from vibrations emitted from the subject W1, like information processing system 100 of embodiment 1, or may be configured to extract a peristalsis sound signal indicating the gastrointestinal peristalsis sound of subject W1 from vibrations emitted from the subject W1, like information processing system 200 of embodiment 4, and to estimate the position at which the peristalsis sound is generated.
  • An information processing system 200 is a system that extracts a peristaltic sound signal indicating the peristaltic sound of a subject W1 based on a detection signal output from a sensor that detects vibrations emitted from the subject W1 at a position that does not contact the subject W1, and estimates the position at which the peristaltic sound signal is generated.
  • Fig. 18 is a functional block diagram showing an example of the configuration of an information processing system 200 according to embodiment 4. As shown in Fig. 18, the information processing system 200 differs from the information processing system 100 in that it includes an information processing device 2 instead of the information processing device 1, but the other configurations are the same.
  • information processing device 2 differs from information processing device 1 in that it includes control unit 22 instead of control unit 12.
  • Control unit 22 further differs from control unit 12 in that it includes a generation position estimation unit 224.
  • the generation position estimation unit 224 estimates the generation position of the peristaltic sound indicated by the peristaltic sound signal based on the peristaltic sound signal extracted by the signal extraction unit 121 and the posture determined by the posture determination unit 122.
  • Fig. 19 is a flow diagram showing an example of the flow of processing performed by the information processing system 200.
  • the sensor 11 of the information processing device 2 which is installed at a predetermined position that does not contact the subject W1, detects vibrations emitted by the subject W1 (S201).
  • the sensor 11 outputs a detection signal corresponding to the detected vibrations to the control unit 22 (S202: output step).
  • the signal extraction unit 121 of the control unit 22 acquires a detection signal from the sensor 11, it extracts a heart sound signal and a peristalsis sound signal from the detection signal (S203: extraction step). In addition, the signal extraction unit 121 outputs the extracted heart sound signal to the posture determination unit 122, and outputs the extracted peristalsis sound signal to the generation position estimation unit 224.
  • the posture determination unit 122 determines the posture of the subject W1 based on the ballistocardiogram signal identified from the heart sound signal acquired from the signal extraction unit 121 (S204: determination step). In addition, the posture determination unit 122 outputs the result of the posture determination to the generation position estimation unit 224.
  • the generation position estimation unit 224 estimates the generation position of the peristaltic sound indicated by the peristaltic sound based on the judgment result obtained from the posture judgment unit 122 and the peristaltic sound signal obtained from the signal extraction unit 121 (S205: estimation step). In addition, the generation position estimation unit 224 outputs the estimation result to the output unit 123, and the output unit 123 may output information including the estimation result to the communication device 3.
  • Fig. 20 is a functional block diagram showing an example of the configuration of the information processing system 200a.
  • information processing system 200a differs from information processing system 200 in that it includes information processing device 2a instead of information processing device 2, but otherwise has the same configuration.
  • the information processing device 2a differs from the information processing device 2 in that it includes a control unit 22a instead of the control unit 22.
  • the control unit 22a differs from the control unit 22 in that it includes a signal extraction unit 221 instead of the signal extraction unit 121, and further includes a sleep determination unit 225.
  • the signal extraction unit 221 is similar to the signal extraction unit 121b described above, and the sleep determination unit 225 is similar to the sleep determination unit 125b described above, so a description thereof will be omitted here.
  • FIG. 21 is a flow diagram showing an example of the flow of processing performed by the information processing system 200a.
  • the information processing system 200a executes the processes of steps S201, S202, S203a, S204, S206, and S205.
  • the processes of S201, S202, S204, and S205 are the same as those described above, and therefore will not be described again.
  • the signal extraction unit 221 extracts a heart sound signal, a peristalsis sound signal, and a feature signal from the acquired detection signal (S203a).
  • the signal extraction unit 221 outputs the extracted heart sound signal to the posture determination unit 122, and outputs the detection signal and the extracted feature signal to the sleep determination unit 225.
  • the sleep determination unit 225 determines the sleep state of the subject W1 based on at least one of the detection signal and the feature signal acquired from the signal extraction unit 221 (S206). Specifically, it determines whether the subject W1 is in a sleep state.
  • step S206 is YES, i.e., if the sleep determination unit 225 determines that the subject W1 is asleep, the occurrence position estimation unit 224 executes the process of step S205. If step S206 is NO, i.e., if the sleep determination unit 225 determines that the subject W1 is not asleep, the occurrence position estimation unit 224 returns to step S201.
  • Fig. 22 is a functional block diagram showing an example of the configuration of an information processing system 200b according to embodiment 5. As shown in Fig. 22, the information processing system 200b is different from the information processing system 200 in that the information processing system 200b includes an information processing device 2b instead of the information processing device 2, and the other configurations are the same.
  • information processing device 2b differs from information processing device 2 in that it includes control unit 22b instead of control unit 22.
  • Control unit 22b differs from control unit 22 in that it includes state determination unit 226.
  • the state determination unit 226 is similar to the state determination unit 126c described above, so a description of it will be omitted here.
  • Fig. 23 is a flow diagram showing an example of the flow of processing performed by the information processing system 200b.
  • the information processing system 200b executes the processes of steps S201 to S205 and S207. Steps S201 to S205 are the same as those described above, so the description will be omitted.
  • the state determination unit 226 determines the gastrointestinal state of the subject W1 based on the peristalsis sound signal extracted by the signal extraction unit 121 (S207). The state determination unit 226 outputs the determination result to the output unit 123, and the output unit 123 may output information including the determination result to the communication device 3.
  • FIG. 24 is a functional block diagram showing an example of the configuration of an information processing system 200c according to embodiment 6. As shown in FIG. 24, the information processing system 200c differs from the information processing system 200 in that it includes an information processing device 2c instead of the information processing device 2, but otherwise has the same configuration.
  • information processing device 2c differs from information processing device 2 in that it includes control unit 22c instead of control unit 22.
  • Control unit 22c further differs from control unit 22 in that it includes content position estimation unit 227.
  • the contents position estimation unit 227 is similar to the contents position estimation unit 127d described above, so a description thereof will be omitted here.
  • Fig. 25 is a flow diagram showing an example of the flow of processing performed by the information processing system 200c.
  • the information processing system 200c executes the processes of steps S201 to S205 and S208. Steps S201 to S205 are the same as described above, so the explanation is omitted.
  • the contents position estimation unit 227 estimates the position of the contents in the stomach and intestines of the subject W1 based on each of the peristalsis sound signals extracted by the acquired signal extraction unit 121, the arrangement information indicating the arrangement of each of the multiple detection areas, and the posture determined by the posture determination unit 122 (S208).
  • the contents position estimation unit 227 outputs the estimation result to the output unit 123, and the output unit 123 may output information including the estimation result to the communication device 3.
  • the information processing system is configured to extract a heart sound signal and a peristaltic sound signal from a detection signal indicating vibrations emitted from the subject W1, and to determine the posture of the subject W1 based on a ballistocardiogram signal determined from the heart sound signal, thereby extracting a peristaltic sound signal corresponding to the posture of the subject W1.
  • the present invention is not limited to this configuration.
  • An information processing system 400 having this configuration will be described with reference to Figs. 26 and 27.
  • the same reference numerals are used for members having the same functions as the above-mentioned members, and their description will not be repeated.
  • Fig. 26 is a functional block diagram showing an example of the configuration of an information processing system 400 according to embodiment 7. As shown in Fig. 26, the information processing system 400 differs from the information processing system 100 in that it includes an information processing device 4 instead of the information processing device 1, but has the same other configurations.
  • the information processing device 4 includes a sensor 11, a control unit 42, and a memory unit 43.
  • the control unit 42 may be, for example, a CPU (Central Processing Unit).
  • the control unit 42 reads a control program, which is software stored in the memory unit 43, expands it into a memory such as a RAM (Random Access Memory), and controls each component of the information processing device 1. Note that, in the memory unit 43 shown in Figure 26, the control program is not illustrated to simplify the explanation.
  • control unit 42 includes a signal extraction unit 421, a posture determination unit 422, and an output unit 423.
  • the signal extraction unit 421 differs from the signal extraction unit 121 in that it extracts a peristalsis sound signal indicating the peristalsis sound of the stomach and intestines of the subject W1 from the detection signal output from the sensor 11, and further extracts a peristalsis sound signal corresponding to the posture determined by the posture determination unit 422 described later.
  • the signal extraction unit 421 may also extract a ballistocardiogram signal indicating the ballistocardiogram of the subject W1 from the detection signal output from the sensor 11.
  • the peristalsis sound signal has a frequency characteristic of having a peak at least one of 150 Hz to 350 Hz and 400 Hz to 700 Hz.
  • the ballistocardiogram signal has a frequency characteristic in which the signal strength is high in the 1 to 50 Hz frequency band, and in particular, has a frequency characteristic in which the signal strength is high in the 1 to 3 Hz frequency band.
  • the signal extraction unit 421 applies a well-known method such as frequency separation to the detection signal to extract the peristalsis sound signal and ballistocardiogram signal having the above-mentioned frequency characteristics from the acquired detection signal.
  • the signal extraction unit 421 may extract a peristaltic sound signal or ballistocardiogram signal for each of the multiple detection areas.
  • the signal extraction unit 421 may also store in the storage unit 43 information indicating the detection signal acquired from the sensor 11 and information related to the processing in the signal extraction unit 421.
  • Information related to the processing in the signal extraction unit 421 includes information indicating the peristalsis sound signal extracted from the detection signal (detection signal 431 and peristalsis sound signal 432 shown in FIG. 26). These signals may also be stored together with time information indicating the time when the detection signal from which they were extracted was detected.
  • the posture determination unit 422 determines the posture of the subject W1 based on the detection signal output from the sensor 11. As an example, when determining the posture of the subject W1, the posture determination unit 422 may determine the posture of the subject W1 by inputting the detection signal output from the sensor 11 to a posture determination model that has been machine-learned using teacher data in which the detection signal is an explanatory variable and the posture of the subject W1 corresponding to the detection signal is an objective variable. A known machine learning algorithm may be applied to the machine learning for generating the posture determination model.
  • the posture determination model may be stored in the storage unit 43, or may be stored in a device other than the information processing device 4.
  • the posture determination unit 422 may determine the posture of the subject W1 based on the results of comparing the signal strength of the detection signals output from each of the multiple detection areas.
  • the posture determination unit 422 may determine the posture of the subject W1 based on the ballistocardiogram signal. As an example, when determining the posture of the subject W1, the posture determination unit 422 may determine the posture of the subject W1 by inputting the ballistocardiogram signal extracted from the signal extraction unit 421 into a posture determination model that has been machine-learned using teacher data in which the ballistocardiogram signal is an explanatory variable and the posture of the subject W1 corresponding to the ballistocardiogram signal is an objective variable.
  • the posture determination unit 422 may determine the posture of the subject W1 based on the results of comparing at least one of the frequency characteristics and signal strength for each of the ballistocardiogram signals extracted for each of the multiple detection areas by the signal extraction unit 421.
  • the posture determination unit 422 may determine the posture of the subject W1 by inputting each of the ballistocardiogram signals extracted for each of the multiple detection areas by the signal extraction unit 421 into a posture determination model that has been machine-learned using teacher data in which the same number of ballistocardiogram signals as the multiple detection areas are used as explanatory variables and the posture of the subject W1 corresponding to the ballistocardiogram signals is used as a target variable.
  • a known machine learning algorithm may be applied to the machine learning for generating the posture determination model.
  • the posture determination model may be stored in the storage unit 43, or may be stored in a device other than the information processing device 4.
  • the posture determination unit 422 may also store the processing result of the posture determination unit 422 in the storage unit 43.
  • the processing result of the posture determination unit 422 may include information indicating the result of posture determination of the subject W1 (determination result 434 shown in FIG. 26).
  • the output unit 423 outputs to an external device the detection signal output from the sensor 11, the processing results in the control unit 42, or various information stored in the memory unit 43.
  • the output unit 423 outputs to the communication device 3 the detection signal output from the sensor 11, the peristaltic sound signal extracted in the signal extraction unit 421, or information indicating the result of the posture determination determined in the posture determination unit 422.
  • the storage unit 43 may also store processing criteria 433, which is information indicating criteria for processing (e.g., signal extraction, posture determination, etc.) that may be executed by each unit of the control unit 42 described above.
  • processing criteria 433 is information indicating criteria for processing (e.g., signal extraction, posture determination, etc.) that may be executed by each unit of the control unit 42 described above.
  • Fig. 27 is a flow diagram showing an example of the flow of processing performed by the information processing system 400 (for example, the information processing device 4).
  • the information processing system 400 executes the processes of steps S401 to S405. Since steps S401, S402, and S405 are similar to steps S101, S102, and S105, respectively, a description thereof will be omitted here.
  • the signal extraction unit 421 of the control unit 42 acquires the detection signal output by the sensor 11 in S102, it extracts a peristaltic sound signal from the detection signal (S403: first extraction step).
  • the posture determination unit 422 acquires the detection signal output by the sensor 11, it determines the posture of the subject W1 based on the detection signal (S404: determination step). In addition, the posture determination unit 422 outputs the result of the posture determination to the signal extraction unit 421.
  • the timing at which the information processing system 400 executes each process shown in FIG. 27 can be set arbitrarily.
  • the information processing system 400 may execute each process shown in FIG. 27 at predetermined intervals (e.g., one hour), or may execute each time the sensor 11 determines that the subject W1 has left the bed.
  • FIG. 28 A first modified example of the configuration of the information processing system 400 (hereinafter, referred to as "information processing system 400a") will be described with reference to Fig. 28 and Fig. 29.
  • information processing system 400a A first modified example of the configuration of the information processing system 400 (hereinafter, referred to as "information processing system 400a") will be described with reference to Fig. 28 and Fig. 29.
  • the same reference numerals are given to members having the same functions as the above-mentioned members, and the description thereof will not be repeated.
  • Fig. 28 is a functional block diagram showing an example of the configuration of the information processing system 400a.
  • information processing system 400a differs from information processing system 400 in that information processing system 400a includes information processing device 4a instead of information processing device 4, but otherwise has the same configuration.
  • the information processing device 4a differs from the information processing device 4 in that it includes a control unit 42a instead of the control unit 42.
  • the control unit 42a further differs from the control unit 42 in that it includes a peristaltic sound generation determination unit 424a.
  • the peristalsis sound generation determination unit 424a determines whether or not a peristalsis sound has been generated in the vibrations emitted by the subject W1. As an example, the peristalsis sound generation determination unit 424a determines that a peristalsis sound has been generated when the peristalsis sound signal extracted by the signal extraction unit 421 has at least one of a predetermined frequency characteristic, a change in frequency characteristic over a predetermined time, a predetermined signal strength at a predetermined frequency, and a change in signal strength at a predetermined frequency over a predetermined time.
  • An example of the "change in signal strength at a specified frequency at a specified time” is a change in the signal strength of the peristaltic sound signal in the frequency band of 150 to 350 Hz or 400 to 700 Hz at a specified time. Note that the specified time can be set arbitrarily.
  • Fig. 29 is a flow diagram showing an example of the flow of processing performed by the information processing system 400a (for example, the information processing device 4a).
  • Steps S401 to S405 are similar to the steps shown in FIG. 32, so a description thereof will be omitted here.
  • the peristalsis sound generation determination unit 424a acquires the peristalsis sound signal corresponding to the posture of the subject W1 extracted by the signal extraction unit 421 in S405, it determines whether or not peristalsis sound is occurring in the stomach and intestines of the subject W1 based on the peristalsis sound signal (S406).
  • the peristalsis sound generation determination unit 424a determines that a peristalsis sound has occurred when the peristalsis sound signal corresponding to the posture of the subject W1 extracted by the signal extraction unit 421 has at least any one of a predetermined frequency characteristic, a change in frequency characteristic at a predetermined time, a predetermined signal strength at a predetermined frequency, and a change in signal strength at a predetermined frequency at a predetermined time.
  • the peristalsis sound generation determination unit 424a outputs the determination result to the output unit 423, and the output unit 423 may output information including the determination result to the communication device 3.
  • the timing at which the information processing system 400a executes each process shown in FIG. 29 can be set arbitrarily.
  • the information processing system 400a may execute each process shown in FIG. 29 at a predetermined interval (e.g., one hour), or may execute each time the sensor 11 determines that the subject W1 has left the bed.
  • FIG. 30 A second modified example of the configuration of the information processing system 400 (hereinafter, referred to as "information processing system 400b") will be described with reference to Fig. 30 and Fig. 31.
  • information processing system 400b A second modified example of the configuration of the information processing system 400 (hereinafter, referred to as "information processing system 400b") will be described with reference to Fig. 30 and Fig. 31.
  • the same reference numerals are given to members having the same functions as the above-mentioned members, and the description thereof will not be repeated.
  • Fig. 30 is a functional block diagram showing an example of the configuration of the information processing system 400b.
  • information processing system 400b differs from information processing system 400a in that information processing system 400b includes information processing device 4b instead of information processing device 4a, but otherwise has the same configuration.
  • the information processing device 1b differs from the information processing device 4a in that it includes a control unit 42b instead of the control unit 42a.
  • the control unit 42b differs from the control unit 42a in that it includes a signal extraction unit 421b instead of the signal extraction unit 421, and further includes a sleep determination unit 425b.
  • the signal extraction unit 421b differs from the signal extraction unit 421 in that it further extracts a feature signal from the detection signal output from the sensor 11.
  • the "feature signal” is the same as the feature signal shown in FIG. 12 and includes at least one of these feature signals.
  • the signal extraction unit 421b may store the feature signal extracted from the detection signal in the storage unit 43.
  • the sleep determination unit 425b determines the sleep state of the subject W1. As an example, the sleep determination unit 425b determines the sleep state of the subject W1 based on the feature signal extracted by the signal extraction unit 421b.
  • the sleep determination unit 425b may determine the sleep state of the subject W1 by inputting a set of the same elements as the explanatory variables, among the feature signals extracted by the signal extraction unit 421b, into a sleep determination model machine-learned using teacher data in which a set having at least one of the above-mentioned feature signals as elements is an explanatory variable and the sleep state of the subject W1 corresponding to the set is an objective variable.
  • a known machine learning algorithm may be applied to the machine learning for generating the sleep determination model.
  • the sleep determination model may be stored in the storage unit 43 or in a device other than the information processing device 4b.
  • FIG. 31 is a flow diagram showing an example of the flow of processing performed by the information processing system 400b.
  • the information processing system 400b executes the processes of steps S401, S402, S403b, S404, S405, S407, and S406.
  • the processes of S401, S402, S404, S405, and S406 are the same as those described above, and therefore will not be described again.
  • the signal extraction unit 421b extracts a peristaltic sound signal and a feature signal from the detection signal acquired from the sensor 11 (S403b).
  • the signal extraction unit 421b outputs the detection signal and the extracted feature signal to the sleep determination unit 425b.
  • the sleep determination unit 425b determines the sleep state of the subject W1 based on at least one of the detection signal and the feature signal acquired from the signal extraction unit 421b (S407). Specifically, it determines whether the subject W1 is in a sleep state.
  • step S407 is YES, i.e., if the sleep determination unit 425b determines that the subject W1 is asleep, the peristaltic sound generation determination unit 424a executes the process of step S406. If step S407 is NO, i.e., if the sleep determination unit 425b determines that the subject W1 is not asleep, the process returns to step S401.
  • the timing at which the information processing system 400b executes each process shown in FIG. 31 can be set arbitrarily.
  • the information processing system 400b may execute each process shown in FIG. 31 at predetermined intervals (e.g., one hour), or may execute each time the sensor 11 determines that the subject W1 has left the bed.
  • FIG. 32 is a functional block diagram showing an example of the configuration of an information processing system 400c according to embodiment 8. As shown in Fig. 32, the information processing system 400c is different from the information processing system 400 in that it includes an information processing device 4c instead of the information processing device 4, but the other configurations are the same.
  • the information processing device 4c differs from the information processing device 4 in that it includes a control unit 42c instead of the control unit 42.
  • the control unit 42c differs from the control unit 42 in that it further includes a state determination unit 426c.
  • the state determination unit 426c is similar to the state determination unit 126c.
  • Fig. 33 is a flow diagram showing an example of the flow of processing performed by the information processing system 400c.
  • the information processing system 400c executes the processes of steps S401 to S405 and S408.
  • Steps S401 to S405 are the same as described above, and step S408 is the same as step S108.
  • FIG. 34 is a functional block diagram showing an example of the configuration of an information processing system 400d according to embodiment 9. As shown in FIG. 34, the information processing system 400d differs from the information processing system 400 in that it includes an information processing device 4d instead of the information processing device 4, but otherwise has the same configuration.
  • information processing device 4d differs from information processing device 1 in that it includes control unit 42d instead of control unit 42.
  • Control unit 42d differs from control unit 42 in that it further includes content position estimation unit 427d.
  • Content position estimation unit 427d is similar to content position estimation unit 127d.
  • Fig. 35 is a flow diagram showing an example of the flow of processing performed by the information processing system 400d.
  • the information processing system 400d executes the processes of steps S401 to S405 and S409. Steps S401 to S405 are the same as described above, and step S409 is the same as step S109.
  • the information processing system may be configured to determine the posture of the subject W1 from a detection signal indicating vibrations emitted from the subject W1, extract a peristaltic sound signal corresponding to the posture, and estimate the position at which the peristaltic sound indicated by the peristaltic sound signal is generated.
  • An information processing system 500 having this configuration will be described using Figures 36 and 37.
  • the same reference numerals will be used to denote members having the same functions as the above-mentioned members, and their description will not be repeated.
  • the information processing system is configured to extract a heart sound signal and a peristaltic sound signal from a detection signal indicating vibrations emitted from the subject W1, determine the posture of the subject W1 based on a ballistocardiogram signal identified from the heart sound signal, extract a peristaltic sound signal corresponding to the posture of the subject W1, and estimate the generation position of the peristaltic sound indicated by the peristaltic sound signal based on the extracted peristaltic sound signal and the determined posture.
  • the present invention is not limited to this configuration.
  • a detection signal indicating vibrations emitted from the subject W1 it is also possible to determine the posture of the subject W1 from a detection signal indicating vibrations emitted from the subject W1, extract a peristaltic sound signal corresponding to the posture, and estimate the generation position of the peristaltic sound indicated by the peristaltic sound signal based on the extracted peristaltic sound signal and the determined posture.
  • An information processing system 400 having this configuration will be described with reference to Figs. 31 and 32.
  • the same reference numerals are attached to members having the same functions as the above-mentioned members, and their description will not be repeated.
  • Fig. 36 is a functional block diagram showing an example of the configuration of an information processing system 500 according to embodiment 10. As shown in Fig. 36, the information processing system 500 differs from the information processing system 200 in that it includes an information processing device 5 instead of the information processing device 2, but the other configurations are the same.
  • information processing device 5 differs from information processing device 2 in that it includes a control unit 52 and a memory unit 53 instead of control unit 22 and memory unit 23.
  • Control unit 52 includes a signal extraction unit 521, a posture determination unit 522, a generation position estimation unit 524, and an output unit 523.
  • Signal extraction unit 521, posture determination unit 522, and output unit 523 are similar to signal extraction unit 421, posture determination unit 422, and output unit 423, respectively, and memory unit 53 is similar to memory unit 43, so a description thereof will be omitted here.
  • the generation position estimation unit 524 estimates the generation position of the peristaltic sound indicated by the peristaltic sound signal based on the peristaltic sound signal extracted by the signal extraction unit 421 and the posture determined by the posture determination unit 422.
  • Fig. 37 is a flow diagram showing an example of the flow of processing performed by the information processing system 500.
  • the information processing system 500 executes the processes of steps S501 to S505. Since steps S501, S502, and S505 are similar to steps S201, S202, and S205, respectively, a description thereof will be omitted here.
  • the signal extraction unit 521 of the control unit 52 acquires the detection signal output by the sensor 11 in S502, it extracts a peristaltic sound signal from the detection signal (S503: first extraction step).
  • the posture determination unit 522 acquires the detection signal output by the sensor 11, it determines the posture of the subject W1 based on the detection signal (S504: determination step). In addition, the posture determination unit 522 outputs the result of the posture determination to the signal extraction unit 521.
  • the generation position estimation unit 524 estimates the generation position of the peristaltic sound indicated by the peristaltic sound based on the judgment result obtained from the posture judgment unit 522 and the peristaltic sound signal obtained from the signal extraction unit 521 (S505: estimation step). In addition, the generation position estimation unit 524 outputs the estimation result to the output unit 523, and the output unit 523 may output information including the estimation result to the communication device 3.
  • Fig. 38 is a functional block diagram showing an example of the configuration of the information processing system 500a.
  • information processing system 500a differs from information processing system 500 in that information processing system 500a includes information processing device 5a instead of information processing device 5, but otherwise has the same configuration.
  • the information processing device 5a differs from the information processing device 5 in that it includes a control unit 52a instead of the control unit 52.
  • the control unit 52a differs from the control unit 52 in that it includes a signal extraction unit 521a instead of the signal extraction unit 521, and further includes a sleep determination unit 525a.
  • the signal extraction unit 521a is similar to the signal extraction unit 421b described above, and the sleep determination unit 525a is similar to the sleep determination unit 425b described above, so a description thereof will be omitted here.
  • Fig. 39 is a flow diagram showing an example of the flow of processing performed by the information processing system 500a.
  • the information processing system 500a executes the processes of steps S501, S502, S503a, S504, S506, and S505.
  • S501, S502, S504, and S505 are the same as described above, and S503a and S506 are the same as S203a and S206, respectively.
  • Fig. 40 is a functional block diagram showing an example of the configuration of an information processing system 500b according to embodiment 11. As shown in Fig. 40, the information processing system 500b is different from the information processing system 500 in that it includes an information processing device 5b instead of the information processing device 5, and the other configurations are the same.
  • information processing device 5b differs from information processing device 5 in that it includes control unit 52b instead of control unit 52.
  • Control unit 52b differs from control unit 52 in that it further includes state determination unit 526b.
  • State determination unit 526b is similar to state determination unit 126c.
  • Fig. 41 is a flow diagram showing an example of the flow of processing performed by the information processing system 500b.
  • the information processing system 500b executes steps S501 to S505 and S507. Steps S501 to S505 are the same as described above, and S507 is the same as S207.
  • Fig. 42 is a functional block diagram showing an example of the configuration of an information processing system 500c according to embodiment 12. As shown in Fig. 42, the information processing system 500c is different from the information processing system 500 in that it includes an information processing device 5c instead of the information processing device 5, and the other configurations are the same.
  • information processing device 5c differs from information processing device 5 in that it includes control unit 52c instead of control unit 52.
  • Control unit 52c differs from control unit 52 in that it further includes content position estimation unit 527c.
  • Content position estimation unit 527c is similar to content position estimation unit 127d.
  • Fig. 43 is a flow diagram showing an example of the flow of processing performed by the information processing system 500c.
  • the information processing system 500c executes the processes of steps S501 to S505 and S508.
  • Steps S501 to S505 are the same as described above, and S508 is the same as S208.
  • Fig. 44 is a diagram showing an example of a display screen displayed on the display unit 34 of the information processing systems 100, 100a to 100d, 200, 200a to 200c, 400, 400a to 400d, 500, and 500a to 500c.
  • the display unit 34 may display an area R1 that displays waveform data of the detection signal output by the sensor 11 that detects vibrations of the subject W1, an area R2 that displays waveform data of the peristaltic sound signal extracted by the signal extraction unit 121, and an area R3 that displays an estimation result of the location M where the peristaltic sound is generated.
  • the above shows an example of a display screen displayed in the information processing systems 100, 100a to 100d, 200, 200a to 200c, 400, 400a to 400d, 500, and 500a to 500c, but is not limited to this. Any information related to the processing executed in each embodiment may be displayed, and any information may be selected and displayed.
  • each process executed by the control unit may be executed by one or more information processing devices.
  • each process executed by the control unit may be executed by one information processing device, or may be shared and executed by multiple information processing devices.
  • an information processing device constituting an information processing system may be configured to include a state determination unit that determines the gastrointestinal state of the subject W1, and a contents position estimation unit that estimates the position of the contents.
  • Figs. 44 and 46 The neural network is composed of a processor and a memory that realize a neural network that imitates the neuron model shown in Fig. 45, for example.
  • Fig. 45 is a schematic diagram for explaining the neuron model
  • Fig. 46 is a diagram for explaining the neural network.
  • a neural network is composed of, for example, an input layer made up of a plurality of neurons, a hidden layer (intermediate layer) made up of a plurality of neurons, and an output layer made up of a plurality of neurons.
  • a neuron outputs a result y for a plurality of inputs x.
  • Each input x is multiplied by a corresponding weighting factor w.
  • input x1 is multiplied by a weighting factor w1
  • input x2 is multiplied by a weighting factor w2
  • input x3 is multiplied by a weighting factor w3 .
  • a neuron adds up the multiplication results for each input, and outputs the result y by substituting the result taking into account a bias B into the activation function f.
  • FIG. 46 is a schematic diagram showing a neural network having an input layer L1, a hidden layer L2, and an output layer L3.
  • a plurality of inputs x are input to the input layer L1, and a result y is output from the output layer L3.
  • the number of hidden layers may be multiple.
  • the inputs x 1 to x 3 are multiplied by the corresponding weight coefficients w a and input to each of the three neurons N1a to N1c.
  • the neurons N1a to N1c output p 11 to p 13 , respectively.
  • the vector (p 11 , p 12 , p 13 ) can be regarded as a feature vector obtained by extracting the feature amount of the input vector (x 1 , x 2 , x 3 ).
  • This feature vector (p 11 , p 12 , p 13 ) is a feature vector between the input layer L1 and the hidden layer L2.
  • the vector ( p21 , p22 ) is a feature vector between the hidden layer L2 and the output layer L3.
  • p21 and p22 are multiplied by a corresponding weighting coefficient wc and input to each of three neurons N3a to N3c, which output results y1 to y3 , respectively.
  • Neural networks operate in a learning mode and an estimation mode.
  • the neural network learns (adjusts) parameters that indicate the weighting coefficient w using training data that includes explanatory variables and a target variable.
  • the neural network outputs an estimation result from input data (e.g., feature signals) using parameters that have been adjusted through learning.
  • any known method can be applied to adjust the parameters, for example, the backpropagation method can be applied. Parameter adjustment can be repeated until the error falls within a predetermined range or until all explanatory variables included in the training data have been input.
  • systems information processing systems 100, 100a-100d, 200, 200a-200c, 400, 400a-400d, and 500, 500a-500c (hereinafter referred to as "systems") and information processing devices 1, 1a-1d, 2, 2a-2c, 4, 4a-4d, 5, 5a-5c (hereinafter referred to as "devices”) can be realized by a program for causing a computer to function as the system and the device, and a program for causing a computer to function as each control block (particularly each part included in the control unit) of the system and the device.
  • the device includes a computer having at least one control device (e.g., a processor) and at least one storage device (e.g., a memory) as hardware for executing the program.
  • control device e.g., a processor
  • storage device e.g., a memory
  • the program may be recorded on one or more computer-readable recording media, not on a temporary basis.
  • the recording media may or may not be included in the device. In the latter case, the program may be supplied to the device via any wired or wireless transmission medium.
  • each of the above control blocks can be realized by a logic circuit.
  • a logic circuit for example, an integrated circuit in which a logic circuit that functions as each of the above control blocks is formed is also included in the scope of the present invention.
  • each process described in each of the above embodiments may be executed by AI (Artificial Intelligence).
  • AI Artificial Intelligence
  • the AI may run on the control device, or may run on another device (such as an edge computer or a cloud server).
  • an information processing system comprises a sensor that is placed at a predetermined position not in contact with a subject and detects vibrations generated by the subject, a signal extraction unit that extracts a peristalsis sound signal indicative of gastrointestinal peristalsis sounds of the subject from the detection signal output from the sensor, and a posture determination unit that determines the posture of the subject based on the detection signal, wherein the signal extraction unit extracts the peristalsis sound signal having a signal strength corresponding to the determined posture.
  • Peristaltic sounds are sounds that are generated when the digestive tract contracts to push the contents (e.g., ingested food, gas, etc.). If there is some abnormality in the subject's stomach and intestines, the peristaltic sounds of the subject may differ from normal peristaltic sounds. Peristaltic sounds that differ from normal may, for example, occur more frequently or less frequently, have a change in sound quality, or have a change in intensity. In addition, because the peristaltic sounds that occur differ depending on the type of stomach and intestines abnormality, it becomes possible to accurately estimate the condition of the subject's stomach and intestines based on the peristaltic sounds of the subject.
  • the information processing system extracts a peristalsis sound signal from a detection signal output from a sensor that detects vibrations emitted by the subject.
  • the information processing system determines the posture of the subject based on the detection signal, and extracts a peristalsis sound signal having a signal strength according to the determined posture.
  • the information processing system can extract only the peristalsis sound signal that has a signal strength according to the posture of the subject from among the peristalsis sound signals that indicate the peristalsis sound contained in the vibrations emitted by the subject. In other words, it is possible to appropriately measure the peristalsis sound regardless of the posture of the subject at the time of measurement.
  • the information processing system includes a sensor disposed at a predetermined position that does not come into contact with the subject and detects vibrations emitted by the subject, a signal extraction unit that extracts a heart sound signal indicating the heart sounds of the subject and a peristaltic sound signal indicating gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, and a posture determination unit that determines the posture of the subject based on a ballistocardiogram signal indicating ballistocardiogram determined from the extracted heart sound signal, and the signal extraction unit extracts the peristaltic sound signal having a signal strength according to the determined posture.
  • the information processing system extracts a heart sound signal and a peristalsis sound signal from a detection signal output from a sensor that detects vibrations emitted by the subject.
  • the information processing system identifies a ballistocardiogram signal from the heart sound signal, determines the posture of the subject based on the identified ballistocardiogram signal, and extracts a peristalsis sound signal having a signal strength according to the determined posture. This provides the same effects as the information processing system according to aspect 1 above.
  • the information processing system includes a sensor that is placed at a predetermined position that does not come into contact with the subject and detects vibrations emitted by the subject, a signal extraction unit that extracts a peristalsis sound signal indicating gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, a posture determination unit that determines the posture of the subject based on the detection signal, and a generation position estimation unit that estimates the generation position of the peristalsis sound indicated by the peristalsis sound signal based on the extracted peristalsis sound signal and the determined posture.
  • the information processing system extracts a peristaltic sound signal from a detection signal output from a sensor that detects vibrations emitted by the subject.
  • the information processing system determines the posture based on the detection signal, and estimates the position where the peristaltic sound is generated based on the extracted peristaltic sound signal and the determined posture.
  • the information processing system can estimate the location where the peristaltic sounds contained in the vibrations emitted by the subject are originating. For example, if the extracted peristaltic sound signal indicates a gastrointestinal abnormality, medical personnel can determine that the abnormality is occurring at the location where the peristaltic sound is originating and take appropriate measures.
  • the information processing system includes a sensor disposed at a predetermined position not in contact with the subject, which detects vibrations emitted from the subject, a signal extraction unit which extracts a heart sound signal indicating the heart sound of the subject and a peristaltic sound signal indicating the gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, a posture determination unit which determines the posture of the subject based on a ballistocardiogram signal indicating ballistocardiogram identified from the extracted heart sound signal, and a generation position estimation unit which estimates the generation position of the peristaltic sound indicated by the peristaltic sound signal based on the extracted peristaltic sound signal and the determined posture.
  • the information processing system extracts a heart sound signal and a peristaltic sound signal from a detection signal output from a sensor that detects vibrations emitted by the subject.
  • the information processing system determines the posture based on a ballistocardiogram signal identified from the extracted heart sound signal, and estimates the position where the peristaltic sound is generated based on the extracted peristaltic sound signal and the determined posture. This provides the same effects as the information processing system according to aspect 3 above.
  • the information processing system further includes a peristaltic sound generation determination unit that determines whether the peristaltic sound is generated, and the peristaltic sound generation determination unit may determine that the peristaltic sound is generated when the extracted peristaltic sound signal has at least any one of a predetermined frequency characteristic, a change in frequency characteristic at a predetermined time, a predetermined signal strength at a predetermined frequency, and a change in signal strength at a predetermined frequency at a predetermined time.
  • the information processing system determines that a peristaltic sound has occurred when the subject's peristaltic sound signal has at least any of the following: frequency characteristics, signal strength, a change in frequency characteristics over a specified time, a specified signal strength at a specified frequency, and a change in signal strength at a specified frequency over a specified time. This allows the information processing system to accurately determine the peristaltic sound contained in the vibrations emitted by the subject.
  • the signal extraction unit may further extract a ballistocardiogram signal indicating the ballistocardiogram of the subject from the detection signal, and the posture determination unit may determine the posture of the subject based on the ballistocardiogram signal.
  • the information processing system extracts a ballistocardiogram signal from a detection signal output from a sensor that detects vibrations emitted by the subject.
  • the information processing system determines the posture of the subject based on the extracted ballistocardiogram signal, and extracts a peristaltic sound signal having a signal strength according to the determined posture. This provides the same effects as the information processing system according to aspect 1 above.
  • the senor may have a plurality of detection areas that output the detection signal, and the posture determination unit may determine the posture of the subject based on a result of comparing the signal strength of the detection signal output for each of the plurality of detection areas.
  • the information processing system extracts a peristalsis sound signal for each detection signal output from each of the multiple detection areas, and determines the posture of the subject based on the signal strength of the peristalsis sound signal extracted for each of the multiple areas. This allows the information processing system to accurately determine the posture of the subject at the time the sensor detects vibrations emitted by the subject.
  • the signal extraction unit may extract, from the detection signal, at least one of a signal having a peak between 150 and 350 Hz and a signal having a peak between 400 and 700 Hz as the peristaltic sound signal.
  • the information processing system can extract a peristaltic sound signal from the detection signal based on the frequency characteristics.
  • the posture determination unit may determine the posture of the subject by inputting the identified detection signal into a posture determination model trained using teacher data in which the detection signal is an explanatory variable and the posture of the subject is an objective variable.
  • the information processing system can determine the posture of the subject with greater accuracy by using a machine learning model.
  • the senor has a plurality of detection areas that output the detection signal
  • the signal extraction unit extracts a ballistocardiogram signal indicating the subject's ballistocardiogram for each of the plurality of detection areas
  • the posture determination unit may determine the posture of the subject based on a result of comparing at least one of the frequency characteristics and the signal strength for each of the ballistocardiogram signals extracted for each of the detection areas.
  • the information processing system extracts a ballistocardiogram signal from each of the detection signals output from each of the multiple detection areas, and determines the subject's posture based on at least one of the frequency characteristics and signal strength of the ballistocardiogram signal extracted from each of the multiple detection areas. This allows the information processing system to more accurately determine the posture of the subject at the time the sensor detects vibrations emitted from the subject.
  • the senor has a plurality of detection areas that output the detection signal
  • the signal extraction unit extracts a ballistocardiogram signal indicating the ballistocardiogram of the subject for each of the plurality of detection areas
  • the posture determination unit may determine the posture of the subject by inputting each of the ballistocardiogram signals extracted for each of the detection areas into a posture determination model trained using teacher data in which the same number of ballistocardiogram signals as the plurality of detection areas are explanatory variables and the posture of the subject is the objective variable.
  • the information processing system can determine the posture of the subject more accurately using a machine-learned model.
  • the signal extraction unit extracts from the detection signal a feature signal including at least one of a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal indicating the respiratory vibration of the subject, a body movement signal indicating the body movement of the subject, and a snoring signal indicating the snoring of the subject, and further includes a sleep determination unit that determines the sleeping state of the subject based on at least one of the detection signal and the feature signal, and the peristalsis sound generation determination unit may determine whether the peristalsis sound is generated when it is determined that the subject is in a sleeping state.
  • the information processing system determines the sleeping state of the subject based on at least one of the detection signal and the feature signal, and if the subject is determined to be in a sleeping state, determines whether or not peristalsis sounds are occurring.
  • the information processing system can accurately determine whether or not peristalsis sounds are occurring.
  • the sleep determination unit may determine the sleep state of the subject by inputting a set of elements that are the same as the detection signal output from the sensor and the feature signal extracted from the detection signal to a sleep determination model trained using teacher data that uses a set of elements that are at least one of the detection signal and the feature signal as explanatory variables and the subject's sleep state as a target variable.
  • the information processing system can more accurately determine the subject's sleep state using a machine-learned model.
  • the signal extraction unit extracts from the detection signal a feature signal including at least one of a heart rate signal indicating the heart rate of the subject, a respiratory vibration signal indicating the respiratory vibration of the subject, a body movement signal indicating the body movement of the subject, and a snoring signal indicating the snoring of the subject, and further includes a sleep determination unit that determines the sleeping state of the subject based on at least one of the detection signal and the feature signal, and the generation position estimation unit may estimate the generation position when it is determined that the subject is in a sleeping state.
  • the information processing system determines the sleeping state of the subject based on at least one of the detection signal and the feature signal, and estimates the location where the peristaltic sound is generated when the subject is determined to be in a sleeping state.
  • the information processing system can accurately estimate the location where the peristaltic sound is generated.
  • the sleep determination unit may determine the sleep state of the subject by inputting a set of elements that are the same as the detection signal output from the sensor and the feature signal extracted from the detection signal to a sleep determination model trained using teacher data that uses a set of elements that are at least one of the detection signal and the feature signal as explanatory variables and the subject's sleep state as a target variable.
  • the information processing system can more accurately determine the subject's sleep state using a machine-learned model.
  • the senor may be installed between the bed on which the subject lies and a mattress on the bed, between a bed sheet on the mattress and the mattress, on the top surface of the bed, on the back of a chair on which the subject sits, or on the seat of the chair.
  • the senor can detect vibrations emitted by the subject from a position that does not come into contact with the subject. This makes it possible to grasp gastrointestinal peristalsis without causing discomfort to the subject.
  • the senor may include an electrode and a piezoelectric material that generates a voltage by expanding and contracting in a direction perpendicular to the extension direction of the electrode.
  • the above configuration makes it easy to make the sensor thinner, reducing the possibility of causing discomfort to the subject.
  • the piezoelectric material may be a foam.
  • the senor can detect vibrations emitted by the subject with greater accuracy.
  • the senor may be thin plate-shaped.
  • the senor can be attached to various locations.
  • it can be attached to clothing worn by the subject.
  • the senor may have a plurality of detection areas that output the detection signal
  • the signal extraction unit may further include a contents position estimation unit that extracts the peristalsis sound signal for each of the plurality of detection areas and estimates the position of the gastrointestinal contents of the subject based on each of the extracted peristalsis sound signals, position information indicating the position of each of the detection areas, and the determined posture.
  • the information processing system extracts a peristalsis sound signal for each detection signal output from each of the multiple detection areas.
  • the information processing system estimates the position of the gastrointestinal contents based on the extracted peristalsis sound signal, the position information of the detection areas, and the determined posture.
  • the contents position estimation unit may estimate the position of the contents by inputting each of the extracted peristaltic sound signals, the position information of each of the detection areas, and the determined posture into a position estimation model trained using teacher data in which each of the peristaltic sound signals, the position information of each of the detection areas, and the posture of the subject are explanatory variables, and the position of the contents is a target variable.
  • the information processing system can use a machine-learned model to more accurately estimate the location of contents in the subject's stomach and intestines.
  • the information processing system may further include a condition determination unit that determines the gastrointestinal condition of the subject from the extracted peristaltic sound signal.
  • the information processing system can determine the subject's gastrointestinal condition that corresponds to the extracted peristaltic sound signal. For example, medical personnel who refer to the determined gastrointestinal condition can begin medical intervention for the subject at an early stage.
  • the condition may be at least one of ileus, peritonitis, constipation, and diarrhea.
  • the above configuration makes it possible to determine the subject's gastrointestinal condition as at least one of ileus, peritonitis, constipation, and diarrhea.
  • peristaltic sounds are not detected.
  • high-pitched, high-frequency peristaltic sounds are detected.
  • constipation weak, low-pitched peristaltic sounds are detected.
  • the state determination unit may determine the state by inputting the extracted peristaltic sound signal into a state determination model trained using teacher data in which the peristaltic sound signal is an explanatory variable and the state is a target variable.
  • the information processing system can more accurately determine the subject's gastrointestinal condition using a machine learning model.
  • the information processing device is arranged at a predetermined position that does not contact the subject, and includes a sensor that detects vibrations emitted by the subject, a signal extraction unit that extracts a peristalsis sound signal indicative of gastrointestinal peristalsis sounds of the subject from the detection signal output from the sensor, and a posture determination unit that determines the posture of the subject based on the detection signal, and the signal extraction unit extracts the peristalsis sound signal having a signal strength according to the determined posture.
  • This configuration provides the same effects as the information processing system according to aspect 1 above.
  • the information processing device includes a sensor disposed at a predetermined position not in contact with the subject, which detects vibrations emitted by the subject, a signal extraction unit which extracts a heart sound signal indicative of the subject's heart sounds and a peristaltic sound signal indicative of the gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, and a posture determination unit which determines the posture of the subject based on a ballistocardiogram signal indicative of ballistocardiogram identified from the extracted heart sound signal, and the signal extraction unit extracts the peristaltic sound signal having a signal strength according to the determined posture.
  • This configuration provides the same effect as the information processing system according to aspect 1 above.
  • the information processing device is arranged at a predetermined position that does not contact the subject, and includes a sensor that detects vibrations emitted by the subject, and a signal extraction unit that extracts a peristaltic sound signal of the subject from the detection signal output from the sensor, and includes a posture determination unit that determines the posture of the subject based on the detection signal acquired from the signal extraction device, and a generation position estimation unit that estimates the generation position of the peristaltic sound indicated by the peristaltic sound signal based on the peristaltic sound signal acquired from the signal extraction device and the determined posture.
  • This configuration achieves the same effects as the information processing system according to aspect 3 above.
  • the information processing device is arranged at a predetermined position not in contact with the subject, and includes a sensor that detects vibrations emitted from the subject, and a signal extraction unit that extracts a heart sound signal indicating the heart sound of the subject and a peristaltic sound signal indicating the gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, and includes a posture determination unit that determines the posture of the subject based on a ballistocardiogram signal indicating ballistocardiogram identified from the heart sound signal acquired from a signal extraction device, and a generation position estimation unit that estimates the generation position of the peristaltic sound indicated by the peristaltic sound signal based on the peristaltic sound signal acquired from the signal extraction device and the determined posture.
  • This configuration achieves the same effects as the information processing system according to aspect 3 above.
  • the control method according to aspect 33 of the present disclosure is a control method executed by one or more information processing devices, and includes an output step of outputting a detection signal from a sensor that is placed at a predetermined position not in contact with the subject and detects vibrations emitted from the subject, an extraction step of extracting a peristalsis sound signal indicative of gastrointestinal peristalsis sounds of the subject from the output detection signal, and a determination step of determining the posture of the subject based on the detection signal, and in the extraction step, extracting the peristalsis sound signal having a signal strength according to the determined posture.
  • This configuration produces the same effects as the information processing system according to aspect 1 above.
  • the control method according to aspect 34 of the present disclosure is a control method executed by one or more information processing devices, and includes an output step of outputting a detection signal from a sensor that is placed at a predetermined position not in contact with the subject and detects vibrations emitted from the subject, an extraction step of extracting from the output detection signal a heart sound signal indicating the heart sound of the subject and a peristaltic sound signal indicating gastrointestinal peristalsis sound of the subject, and a determination step of determining the posture of the subject based on a ballistocardiogram signal indicating ballistocardiogram identified from the extracted heart sound signal, and in the extraction step, the peristaltic sound signal having a signal strength according to the determined posture is extracted.
  • This configuration achieves the same effect as the information processing system according to aspect 1 above.
  • the control method according to aspect 35 of the present disclosure is a control method executed by one or more information processing devices, and includes an output step of outputting a detection signal from a sensor that is placed at a predetermined position not in contact with the subject and detects vibrations emitted from the subject, an extraction step of extracting a peristalsis sound signal indicating gastrointestinal peristalsis sound of the subject from the output detection signal, a determination step of determining the posture of the subject based on the detection signal, and an estimation step of estimating the generation position of the peristalsis sound indicated by the peristalsis sound signal based on the extracted peristalsis sound signal and the determined posture.
  • This configuration produces the same effect as the information processing system according to aspect 3 above.
  • the control method according to aspect 36 of the present disclosure is a control method executed by one or more information processing devices, and includes an output step of outputting a detection signal from a sensor that is placed at a predetermined position not in contact with the subject and detects vibrations emitted from the subject, an extraction step of extracting a heart sound signal indicating the heart sound of the subject and a peristaltic sound signal indicating gastrointestinal peristalsis sound of the subject from the output detection signal, a determination step of determining the posture of the subject based on a ballistocardiogram signal indicating ballistocardiogram identified from the extracted heart sound signal, and an estimation step of estimating the generation position of the peristaltic sound indicated by the peristaltic sound signal based on the extracted peristaltic sound signal and the determined posture.
  • This configuration produces the same effect as aspect 3 above.
  • the information processing system according to aspects 1 to 28 of the present invention and the information processing device according to aspects 29 to 32 may be realized by a computer.
  • the information processing system that realizes the information processing system and the information processing device by operating a computer as each unit (software element) of the information processing system and the information processing device, the control program for the information processing device, and the computer-readable recording medium on which it is recorded also fall within the scope of the present invention.
  • the program according to aspect 37 of the present disclosure is a program for causing a computer to function as the information processing system described in aspect 1 or 2 above, and is a program for causing a computer to function as the signal extraction unit and the posture determination unit.
  • the program according to aspect 38 of the present disclosure is a program for causing a computer to function as the information processing system described in aspect 3 or 4 above, and is a program for causing a computer to function as the signal extraction unit, the attitude determination unit, and the generation position estimation unit.
  • An information processing system comprises a sensor that is placed at a predetermined position not in contact with a subject and detects vibrations emitted from the subject, a signal extraction unit that extracts a heart sound signal indicative of the subject's heart sounds and a peristaltic sound signal indicative of gastrointestinal peristalsis sounds of the subject from the detection signal output from the sensor, and a posture determination unit that determines the posture of the subject based on a ballistocardiogram signal indicative of ballistocardiogram identified from the extracted heart sound signal, and the signal extraction unit extracts the peristaltic sound signal having a signal strength corresponding to the determined posture.
  • the information processing system extracts a heart sound signal and a peristaltic sound signal from a detection signal output from a sensor that detects vibrations emitted by the subject.
  • the information processing system determines the posture based on a ballistocardiogram signal determined from the heart sound signal, and extracts a peristaltic sound signal having a signal strength according to the determined posture.
  • the information processing system can extract only the peristalsis sound signal that has a signal strength according to the posture of the subject from among the peristalsis sound signals that indicate the peristalsis sound contained in the vibrations emitted by the subject. In other words, it is possible to appropriately measure the peristalsis sound regardless of the posture of the subject at the time of measurement.
  • the information processing system may further include a peristaltic sound generation determination unit that determines whether the peristaltic sound is generated, and the peristaltic sound generation determination unit may determine that the peristaltic sound is generated when the extracted peristaltic sound signal has at least one of a predetermined frequency characteristic and a predetermined signal strength at a predetermined frequency.
  • the information processing system determines whether or not a peristaltic sound is occurring based on at least one of the frequency characteristics and the signal strength of the subject's peristaltic sound signal. This allows the information processing system to accurately determine the peristaltic sound contained in the vibrations emitted by the subject.
  • An information processing system includes a sensor disposed at a predetermined position not in contact with a subject, which detects vibrations emitted from the subject, a signal extraction unit which extracts a heart sound signal indicating the heart sound of the subject and a peristaltic sound signal indicating gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, a posture determination unit which determines the posture of the subject based on a ballistocardiogram signal indicating ballistocardiogram identified from the extracted heart sound signal, and a generation position estimation unit which estimates the generation position of the peristaltic sound indicated by the peristaltic sound signal based on the extracted peristaltic sound signal and the determined posture.
  • the information processing system extracts a heart sound signal and a peristaltic sound signal from a detection signal output from a sensor that detects vibrations emitted by the subject.
  • the information processing system determines the posture based on a ballistocardiogram signal identified from the heart sound signal, and estimates the position where the peristaltic sound is generated based on the extracted peristaltic sound signal and the determined posture.
  • the information processing system can estimate the location where the peristaltic sounds contained in the vibrations emitted by the subject are originating. For example, if the extracted peristaltic sound signal indicates a gastrointestinal abnormality, medical personnel can determine that the abnormality is occurring at the location where the peristaltic sound is originating and take appropriate measures.
  • the signal extraction unit may extract, from the detection signal, at least one of a signal having a peak between 150 and 300 Hz and a signal having a peak between 500 and 700 Hz as the peristaltic sound signal.
  • the information processing system can extract a peristaltic sound signal from the detection signal based on the frequency characteristics.
  • the posture determination unit may determine the posture of the subject by inputting the identified ballistocardiogram signal into a posture determination model trained using teacher data in which the ballistocardiogram signal is an explanatory variable and the posture of the subject is an objective variable.
  • the information processing system can determine the posture of the subject with greater accuracy by using a machine learning model.
  • the senor has a plurality of detection areas that output the detection signal
  • the signal extraction unit extracts a ballistocardiogram signal indicating the subject's ballistocardiogram for each of the plurality of detection areas
  • the posture determination unit may determine the posture of the subject based on a result of comparing at least one of the frequency characteristics and the signal strength for each of the ballistocardiogram signals extracted for each of the detection areas.
  • the information processing system extracts a ballistocardiogram signal from each of the detection signals output from each of the multiple detection areas, and determines the subject's posture based on at least one of the frequency characteristics and signal strength of the ballistocardiogram signal extracted from each of the multiple detection areas. This allows the information processing system to more accurately determine the posture of the subject at the time the sensor detects vibrations emitted from the subject.
  • the senor has a plurality of detection areas that output the detection signal
  • the signal extraction unit extracts a ballistocardiogram signal indicative of the ballistocardiogram of the subject
  • the posture determination unit may determine the posture of the subject by inputting each of the ballistocardiogram signals identified from the heart sound signal extracted for each of the detection areas into a posture determination model trained using teacher data in which the same number of ballistocardiogram signals as the plurality of detection areas are explanatory variables and the posture of the subject is the objective variable.
  • the information processing system can determine the posture of the subject more accurately using a machine-learned model.
  • the signal extraction unit extracts from the detection signal a feature signal including at least one of a heart rate signal indicating the heart rate of the subject, a respiratory vibration signal indicating the respiratory vibration of the subject, a body movement signal indicating the body movement of the subject, and a snoring signal indicating the snoring of the subject, and further includes a sleep determination unit that determines the sleeping state of the subject based on at least one of the detection signal and the feature signal, and the peristaltic sound generation determination unit may determine whether the peristaltic sound is generated when it is determined that the subject is in a sleeping state.
  • the information processing system determines the sleeping state of the subject based on at least one of the detection signal and the feature signal, and if the subject is determined to be in a sleeping state, determines whether or not peristalsis sounds are occurring.
  • the information processing system can accurately determine whether or not peristalsis sounds are occurring.
  • the signal extraction unit extracts from the detection signal a feature signal including at least one of a heart rate signal indicating the heart rate of the subject, a respiratory vibration signal indicating the respiratory vibration of the subject, a body movement signal indicating the body movement of the subject, and a snoring signal indicating the snoring of the subject, and further includes a sleep determination unit that determines the sleeping state of the subject based on at least one of the detection signal and the feature signal, and the generation position estimation unit may estimate the generation position when it is determined that the subject is in a sleeping state.
  • the information processing system determines the sleeping state of the subject based on at least one of the detection signal and the feature signal, and estimates the location where the peristaltic sound is generated when the subject is determined to be in a sleeping state.
  • the information processing system can accurately estimate the location where the peristaltic sound is generated.
  • the sleep determination unit may determine the sleep state of the subject by inputting a set of elements that are the same as the detection signal output from the sensor and the feature signal extracted from the detection signal to a sleep determination model trained using teacher data that uses a set of elements that are at least one of the detection signal and the feature signal as explanatory variables and the subject's sleep state as a target variable.
  • the information processing system can more accurately determine the subject's sleep state using a machine-learned model.
  • the senor may be installed between the bed on which the subject lies and a mattress on the bed, between a bed sheet on the mattress and the mattress, on the top surface of the bed, on the back of a chair on which the subject sits, or on the seat of the chair.
  • the senor can detect vibrations emitted by the subject from a position that does not come into contact with the subject. This makes it possible to grasp gastrointestinal peristalsis without causing discomfort to the subject.
  • the senor may include an electrode and a piezoelectric material that generates a voltage by expanding and contracting in a direction perpendicular to the extension direction of the electrode.
  • the above configuration makes it easy to make the sensor thinner, reducing the possibility of causing discomfort to the subject.
  • the piezoelectric material may be a foam.
  • the senor can detect vibrations emitted by the subject with greater accuracy.
  • the senor may be thin plate-shaped.
  • the senor can be attached to various locations.
  • it can be attached to clothing worn by the subject.
  • the senor may have a plurality of detection areas that output the detection signal
  • the signal extraction unit may further include a contents position estimation unit that extracts the peristalsis sound signal for each of the plurality of detection areas and estimates the position of the gastrointestinal contents of the subject based on each of the extracted peristalsis sound signals, position information indicating the position of each of the detection areas, and the determined posture.
  • the information processing system extracts a peristalsis sound signal for each detection signal output from each of the multiple detection areas.
  • the information processing system estimates the position of the gastrointestinal contents based on the extracted peristalsis sound signal, the position information of the detection areas, and the determined posture.
  • the contents position estimation unit may estimate the position of the contents by inputting each of the extracted peristaltic sound signals, the position information of each of the detection areas, and the determined posture into a position estimation model trained using teacher data in which each of the peristaltic sound signals, the position information of each of the detection areas, and the posture of the subject are explanatory variables, and the position of the contents is a target variable.
  • the information processing system can use a machine-learned model to more accurately estimate the location of contents in the subject's stomach and intestines.
  • the information processing system may further include a condition determination unit that determines the gastrointestinal condition of the subject from the extracted peristaltic sound signal.
  • the information processing system can determine the subject's gastrointestinal condition that corresponds to the extracted peristaltic sound signal. For example, medical personnel who refer to the determined gastrointestinal condition can begin medical intervention for the subject at an early stage.
  • the condition is at least one of ileus, peritonitis, constipation, and diarrhea.
  • the above configuration makes it possible to determine the subject's gastrointestinal condition as at least one of ileus, peritonitis, constipation, and diarrhea.
  • peristaltic sounds are not detected.
  • high-pitched, high-frequency peristaltic sounds are detected.
  • constipation weak, low-pitched peristaltic sounds are detected.
  • the state determination unit may determine the state by inputting the extracted peristaltic sound signal into a state determination model trained using teacher data in which the peristaltic sound signal is an explanatory variable and the state is a target variable.
  • the information processing system can more accurately determine the subject's gastrointestinal condition using a machine learning model.
  • An information processing device includes a sensor disposed at a predetermined position not in contact with a subject, which detects vibrations emitted by the subject, a signal extraction unit which extracts a heart sound signal indicative of the subject's heart sounds and a peristaltic sound signal indicative of gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, and a posture determination unit which determines the posture of the subject based on a ballistocardiogram signal indicative of ballistocardiogram identified from the extracted heart sound signal, and the signal extraction unit extracts the peristaltic sound signal having a signal strength according to the determined posture.
  • This configuration provides the same effect as the information processing system according to aspect 1 above.
  • An information processing device is disposed at a predetermined position not in contact with a subject, and includes a sensor that detects vibrations emitted from the subject, and a signal extraction unit that extracts a heart sound signal indicating the heart sound of the subject and a peristaltic sound signal indicating gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, and includes a posture determination unit that determines the posture of the subject based on a ballistocardiogram signal indicating ballistocardiogram identified from the heart sound signal acquired from a signal extraction device, and a generation position estimation unit that estimates the generation position of the peristaltic sound indicated by the peristaltic sound signal based on the peristaltic sound signal acquired from the signal extraction device and the determined posture.
  • This configuration provides the same effect as the information processing system according to aspect 3 above.
  • a control method is a control method executed by one or more information processing devices, and includes an output step of outputting a detection signal from a sensor that is disposed at a predetermined position not in contact with the subject and detects vibrations emitted from the subject, an extraction step of extracting a heart sound signal indicating the heart sound of the subject and a peristaltic sound signal indicating gastrointestinal peristalsis sound of the subject from the output detection signal, and a determination step of determining the posture of the subject based on a ballistocardiogram signal indicating ballistocardiogram identified from the extracted heart sound signal, and in the extraction step, the control method extracts the peristaltic sound signal having a signal strength corresponding to the determined posture.
  • a control method is a control method executed by one or more information processing devices, and includes an output step of outputting a detection signal from a sensor that is disposed at a predetermined position not in contact with the subject and detects vibrations emitted from the subject, an extraction step of extracting a heart sound signal indicating the heart sound of the subject and a peristaltic sound signal indicating gastrointestinal peristalsis sound of the subject from the output detection signal, a determination step of determining the posture of the subject based on a ballistocardiogram signal indicating ballistocardiogram identified from the extracted heart sound signal, and an estimation step of estimating the generation position of the peristaltic sound indicated by the peristaltic sound signal based on the extracted peristaltic sound signal and the determined posture.
  • the information processing system can estimate the generation position of the peristaltic sound contained in the vibrations emitted from the subject. For example, if the extracted peristaltic sound signal indicates a gastrointestinal abnormality, medical personnel can determine that an abnormality has occurred at the generation position of the peristaltic sound and take appropriate measures.
  • the information processing system according to one aspect of the present disclosure and the information processing device according to one aspect of the present disclosure may be realized by a computer.
  • the information processing system that realizes the information processing system and the information processing device by operating a computer as each unit (software element) of the information processing system and the information processing device, the control program for the information processing device, and the computer-readable recording medium on which it is recorded also fall within the scope of the present invention.
  • the information processing system includes a sensor that is placed at a predetermined position that does not come into contact with a subject and detects vibrations generated by the subject, and a peristalsis sound generation determination unit that determines whether or not gastrointestinal peristalsis sounds are being generated by the subject based on the detection signal output from the sensor.
  • the information processing system includes a sensor that is placed at a predetermined position that does not come into contact with the subject and detects vibrations generated by the subject, and a signal extraction unit that extracts a peristalsis sound signal indicative of gastrointestinal peristalsis sound of the subject based on the detection signal output from the sensor.
  • the information processing system may be the same as in aspect 2 above, but may also include a posture determination unit that determines the posture of the subject, and the signal extraction unit may extract the peristalsis sound signal according to the determined posture.
  • the information processing system includes a sensor that is placed at a predetermined position that does not come into contact with the subject and detects vibrations generated by the subject, a signal extraction unit that extracts a peristalsis sound signal indicative of gastrointestinal peristalsis sounds of the subject from the detection signal output from the sensor, and a posture determination unit that determines the posture of the subject based on the detection signal, and the signal extraction unit extracts the peristalsis sound signal corresponding to the determined posture.
  • the information processing system includes a sensor disposed at a predetermined position not in contact with the subject and detecting vibrations emitted by the subject, a signal extraction unit extracting a heart sound signal indicative of the subject's heart sounds and a peristaltic sound signal indicative of the gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, and a posture determination unit determining the posture of the subject based on the extracted heart sound signal, and the signal extraction unit extracts the peristaltic sound signal having a signal strength according to the determined posture.
  • the information processing system includes a sensor that is placed at a predetermined position that does not come into contact with the subject and detects vibrations emitted by the subject, a signal extraction unit that extracts a peristalsis sound signal indicating gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor, a posture determination unit that determines the posture of the subject, and a generation position estimation unit that estimates the generation position of the peristalsis sound indicated by the peristalsis sound signal based on the extracted peristalsis sound signal and the determined posture.
  • the senor may have a plurality of detection areas that output the detection signal, and the posture determination unit may determine the posture of the subject based on a result of comparing the signal strength of the detection signal output for each of the plurality of detection areas.
  • the senor has a plurality of detection areas that output the detection signal
  • the signal extraction unit extracts a heart sound signal indicating the subject's heart sound for each of the plurality of detection areas
  • the posture determination unit may determine the posture of the subject based on a result of comparing at least one of the frequency characteristics and the signal strength for each of the heart sound signals extracted for each of the detection areas.
  • the information processing system may further include a sleep determination unit that determines the sleep state of the subject in the above-mentioned aspect 1, and the peristalsis sound generation determination unit may determine whether the peristalsis sound is generated when the subject is determined to be in a sleep state.
  • the information processing system includes a signal extraction unit that extracts a peristalsis sound signal indicative of gastrointestinal peristalsis sound of the subject based on the detection signal output from the sensor, and the signal extraction unit extracts feature signals including at least one of a heartbeat signal indicative of the subject's heartbeat, a respiratory vibration signal indicative of the subject's respiratory vibration, a body movement signal indicative of the subject's body movement, and a snoring signal indicative of the subject's snoring from the detection signal, and further includes a sleep determination unit that determines the sleep state of the subject based on at least one of the detection signal and the feature signal, and the peristalsis sound generation determination unit may determine whether the peristalsis sound is generated when it is determined that the subject is in a sleep state.
  • the signal extraction unit extracts from the detection signal a feature signal including at least one of a heart rate signal indicating the heart rate of the subject, a respiratory vibration signal indicating the respiratory vibration of the subject, a body movement signal indicating the body movement of the subject, and a snoring signal indicating the snoring of the subject, and further includes a sleep determination unit that determines the sleeping state of the subject based on at least one of the detection signal and the feature signal, and the generation position estimation unit may estimate the generation position when it is determined that the subject is in a sleeping state.
  • the senor may be installed between the bed on which the subject lies and a mattress on the bed, between a bed sheet on the mattress and the mattress, on the top surface of the bed, on the back of a chair on which the subject sits, or on the seat of the chair.
  • the senor may include an electrode and a piezoelectric material that generates a voltage by expanding and contracting in a direction perpendicular to the extension direction of the electrode.
  • the piezoelectric material may be a foam.
  • the senor in any one of aspects 1 to 14 above, the sensor may be thin plate-shaped.
  • the information processing system may be any of aspects 1 to 15 above, and may include a signal extraction unit that extracts a peristalsis sound signal indicating gastrointestinal peristalsis sound of the subject based on a detection signal output from the sensor, the sensor having a plurality of detection areas that output the detection signal, and the signal extraction unit may further include a contents position estimation unit that extracts the peristalsis sound signal for each of the plurality of detection areas and estimates the position of the gastrointestinal contents of the subject based on each of the extracted peristalsis sound signals, position information indicating the position of each of the detection areas, and the determined posture.
  • the information processing system may further include a state determination unit that determines the gastrointestinal state of the subject from the extracted peristaltic sound signal in any of aspects 1 to 16 above.
  • the condition may be at least one of ileus, peritonitis, constipation, and diarrhea.
  • the state determination unit may determine the state by inputting the extracted peristaltic sound signal into a state determination model trained using teacher data in which the peristaltic sound signal is an explanatory variable and the state is an objective variable.
  • the information processing device includes a sensor that is placed at a predetermined position that does not come into contact with the subject and detects vibrations emitted by the subject, and a signal extraction unit that extracts a peristalsis sound signal indicative of gastrointestinal peristalsis sound of the subject from the detection signal output from the sensor.
  • the control method according to aspect 21 of the present disclosure is a control method executed by one or more information processing devices, and includes an output step of outputting a detection signal from a sensor that is placed at a predetermined position not in contact with the subject and detects vibrations emitted from the subject, an extraction step of extracting a peristalsis sound signal indicating gastrointestinal peristalsis sound of the subject from the output detection signal, and a determination step of determining the posture of the subject based on the detection signal.
  • the program according to aspect 22 of the present disclosure is a program for causing a computer to function as the information processing system described in aspect 1 above, and is a program for causing a computer to function as the peristaltic sound generation determination unit.
  • the program according to aspect 23 of the present disclosure is a program for causing a computer to function as the information processing system described in aspect 2 above, and is a program for causing a computer to function as the signal extraction unit.

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

対象者の姿勢に応じた蠕動音を示す蠕動音信号を精度良く抽出する。情報処理システム(1)は、対象者に接触しない所定位置に配置され、前記対象者から発生られた振動を検知するセンサ(11)と、センサ(11)から出力される検知信号に基づき、対象者の胃腸の蠕動音の発生有無を判定する蠕動音発生判定部(124a、424a)と、を備える。

Description

情報処理システム、情報処理装置、制御方法、およびプログラム
 本発明は、対象者が発する振動を検知する情報処理システム等に関する。
 対象者の胃腸の蠕動を測定する多様な手法が開発されている。例えば特許文献1には、腸の蠕動音に基づいて腸の状態を把握するための腸音測定装置が開示されている。
日本国特開2016-36637号公報
 対象者にセンサを装着または接触させて胃腸の蠕動音を測定する手法では、対象者が不快感を抱くことがあり、それゆえ、長期モニタリングおよび常時モニタリングには適していない。
 本開示の一態様に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発生られた振動を検知するセンサと、前記センサから出力される検知信号に基づき、前記対象者の胃腸の蠕動音の発生有無を判定する蠕動音発生判定部と、を備える。
 本開示の一態様に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発生られた振動を検知するセンサと、前記センサから出力される検知信号に基づき、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、を備える。
 本開示の一態様に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発生られた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記検知信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、を備え、前記信号抽出部は、前記判定された姿勢に応じた前記蠕動音信号を抽出する。
 本開示の一態様に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記抽出された心音信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、を備え、前記信号抽出部は、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する。
 本開示の一態様に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記対象者の姿勢を判定する姿勢判定部と、前記抽出された蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する発生位置推定部と、を備える。
 本開示の一態様に係る情報処理装置は、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、を備える。
 本開示の一態様に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサから検知信号を出力する出力ステップと、前記出力された検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する抽出ステップと、前記検知信号に基づいて、前記対象者の姿勢を判定する判定ステップと、を含む。
 本発明の上記態様に係る情報処理システム、および情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記情報処理システム、および、前記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより前記情報処理システム、および、前記情報処理装置をコンピュータにて実現させる前記情報処理システム、および、前記情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本開示の一態様によれば、対象者の胃腸の蠕動について、簡素な構成により、対象者が不快感を抱くことなく、かつ、精度良く把握できる。
検知信号に含まれる蠕動音信号を示すソノグラフである。 情報処理システムの構成の一例を示す概念図である。 情報処理システムの情報処理装置の概略構成の一例を示す図である。 情報処理システムの情報処理装置の概略構成の別の一例を示す図である。 情報処理システムの情報処理装置の概略構成の他の一例を示す図である。 蠕動音信号の周波数特性および信号強度を示す図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムの処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムの処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 検知信号に含まれる特徴信号を示す図である。 情報処理システムの処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムの処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムの処理の流れの一例を示すフロー図である。 情報処理システムの構成の別の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフロー図である。 情報処理システムの表示部に表示される表示画面の一例を示す図である。 ニューロンのモデルを説明するための模式図である。 ニューラルネットワークを説明するための図である。
 〔実施形態1〕
 以下、本発明の一実施形態について、図1~図13を用いて説明する。
 (情報処理システム100の概要)
 本開示の実施形態1に係る情報処理システム100の概要について、図1を参照しながら説明する。図1は、検知信号に含まれる蠕動音信号を示すソノグラフである。「ソノグラフ」とは、音や振動を表したグラフである。本図では、横軸を時間、縦軸を周波数、エネルギー分布(信号強度)を色彩(濃淡)で表している。
 情報処理システム100は、対象者W1から発せられた振動を対象者W1に接触しない位置で検知するセンサから出力される検知信号に基づいて、対象者W1の姿勢に応じた蠕動音信号を抽出するシステムである。
 本明細書において、「対象者」とは、典型的には、ベッド塔に臥床する患者等の、医療関係者W2等によるモニタリングを要する者である。また、「心音信号」とは、対象者の心臓の拍動の音を示す信号である。また、「心弾動信号」とは、心臓の拍動に由来する体表面に発生する全ての振動を示す信号である。
 対象者の胃腸の蠕動音を測定する従来の装置は、対象者にセンサを装着もしくは接触させた状態で使用するものであるため、対象者が不快感を抱くことがあり。それゆえ、長期モニタリングまたは常時モニタリングには適していない。なお、対象者に直接接触しないセンサを用いて蠕動音を測定する場合には、対象者の姿勢(右臥位、左臥位、仰臥位、伏臥位、および座位など)によっては適切に測定できないことがある。
 本開示において「対象者に直接接触しない」の第1の意味は、対象者の皮膚に接触しないことである。本発明において「対象者に直接接触しない」の第2の意味は、対象者の皮膚に接触しないことおよび対象者が着用している衣服を介して接触しないことである。例えばセンサを、対象者が臥床するベッドとベッド上のマットレスとの間へ配置すること、マットレス上のベッドシーツとマットレスとの間へ配置すること、マットレス中へ配置すること等が挙げられる。
 本発明者らは、センサを所定位置に配置したときに当該センサから出力される検知信号に含まれる蠕動音信号は、対象者W1の姿勢に応じて異なる信号強度を有することを見出した。図1は、対象者W1が様々な姿勢をとるとき、センサから出力された検知信号から抽出した蠕動音信号のソノグラフを示す。図1の左上図は、伏臥位の対象者W1に対してセンサを対象者W1の腹部側に配置した場合、図1の右上図は、右臥位の対象者W1に対してセンサを対象者W1の右側部側に配置した場合、図1の左下図は、仰臥位の対象者W1に対してセンサを対象者W1の背中側に配置した場合、図1の右下図は、左臥位の対象者W1に対してセンサを対象者W1の左側部側に配置した場合の蠕動音信号のソノグラフである。図1の各図を比較したとき、エネルギー密度(信号強度)を示す濃淡が異なることから蠕動音信号は、対象者W1の姿勢に応じて異なる信号強度を有している。
 そこで、情報処理システム100では、対象者W1から発せられた振動を検知することにより得られる検知信号から対象者W1の姿勢に応じた蠕動音を示す蠕動音信号を抽出する構成を採用した。これにより、測定時の対象者W1の姿勢によらず当該対象者W1の胃腸の蠕動音を測定することができる情報処理システムを実現する。また、測定時において情報処理システム100は、振動の検知を対象者W1に接触しない所定位置で行うため、対象者が不快感を抱く可能性を低減することができる。また、対象者W1の姿勢に応じた蠕動音信号を抽出するため、対象者W1の姿勢によらず適切に測定することができる。以上のように、情報処理システム100は、対象者W1に不快感を抱かせることなく、当該対象者W1の姿勢に応じた蠕動音を測定するため、高精度かつ長期間に亘る常時モニタリングを実現することができる。
 (情報処理システム100の構成)
 情報処理システム100の概略構成について、図2を参照して説明する。図2は、情報処理システム100の構成の一例を示す概念図である。
 情報処理システム100は、1または複数の情報処理装置としてのコンピュータを備えている。一例として、図2に示すように、情報処理システム100は、情報処理装置1と通信装置3とを備えていてもよい。情報処理装置1と通信装置3の数は、それぞれ1つであってもよいし、複数であってもよい。
 情報処理装置1は、対象者W1の近傍に設置されるコンピュータである。情報処理装置1は、対象者W1から発せられる振動に基づき対象者の姿勢に応じた蠕動音信号を抽出し、蠕動音信号を外部装置に出力するものである。
 蠕動音信号の出力先である外部装置の典型例は、通信装置3である。通信装置3は、典型的には、医療関係者W2が使用するコンピュータ、スマートフォンまたはタブレット端末等であり、例えばナースステーションに設置される。情報処理装置1および通信装置3は、直接接続されてもよい。通信ネットワーク9の形態は限定されるものではなく、ローカルエリアネットワーク(LAN)でもよいし、インターネットでもよい。ただし、対象者W1のモニタリングはリアルタイム性が求められることが多いため、情報処理装置1にて蠕動音信号を抽出してから通信装置3に蠕動音信号を示す情報を表示するまでの時間の遅延が少ない接続形態であることが好ましい。
 また、情報処理システム100は、情報処理装置1および通信装置3に加えて、情報処理装置1および通信装置3と通信可能に接続されるサーバ装置(図示せず)を備えていてもよい。例えば、サーバ装置は、複数の情報処理装置1から送信される情報を対象者毎に記憶し、管理する構成であってもよい。この場合、医療関係者W2は、通信装置3を用いてサーバ装置に管理されている対象者W1の情報にアクセスしてもよい。
 (情報処理装置1の構成)
 情報処理装置1の概略構成について、図3~図6を参照しながら、図7を用いて説明する。図7は、情報処理システム100の構成の一例を示す機能ブロック図である。
 情報処理装置1は、対象者W1から発せられた振動を対象者W1に接触しない所定位置で検知し、検知された信号(検知信号)から対象者W1の姿勢に応じた蠕動音信号を抽出する。図7に示すように、情報処理装置1は、一例として、センサ11と、信号抽出部121、姿勢判定部122、および出力部123を備える制御部12と、記憶部13とを備えている。なお、センサ11は、情報処理装置1に備わっていなくてもよく、情報処理装置1の外部に設けられ、情報処理装置1と接続される形態であってもよい。
 [センサ11]
 センサ11は、対象者W1から発せられた振動を対象者W1に接触しない所定位置で検知可能な非接触(非侵襲)センサである。センサ11の種類は特に限定されるものではない。例えば、センサ11は、振動を検知するセンサが好ましく、より好ましくは圧電センサである。センサ11として圧電センサを採用すれば、薄型化が容易になるため、対象者W1に不快感を抱かせる可能性を低減することができる。センサ11が圧電センサである場合、対象者W1に直接接触しない位置に配置された場合であっても、当該対象者W1から発せられた振動を検知可能であり、対象者W1に不快感を抱かせることなく蠕動音の長期モニタリングまたは常時モニタリングが可能である。圧電センサの具体例としては、圧縮変形に対して電流が発生する圧電センサ、伸びの変形に対して電流が発生する圧電センサ、またはねじれの変形に対して電流が発生する圧電センサ等が挙げられる。蠕動音、心音、および体動等をより高精度に検知したい場合には、センサ11としては、圧縮変形によって電流が発生する圧電センサを適用することが好ましい。一方、周波数の低い信号をより高精度で検知したい場合には、センサ11として、発泡体を含む圧電センサを適用することが好ましい。
 検知信号は、対象者W1から発せられた振動を示す信号(波形データ)そのもの、或いは、当該信号に対して増幅処理またはノイズ除去処理が施された信号である。ノイズ処理は、例えば、任意の周波数領域をフィルタリング処理することにより行われ得る。センサ11は、対象者W1を発生源とする多様な周波数域の振動を検知し得る。つまり、センサ11から出力される検知信号は、様々な周波数特性を有する複数の振動が互いに重なり合った信号である。
 センサ11は、検知可能な振動の周波数帯が広いものであることが好ましい。これにより、周波数帯が異なる複数種類のセンサを配置する必要がなく、医療関係者W2による保守および管理が簡易化され、利便性が向上する。
 図3~図5は、情報処理装置1の概略構成の例を示す図である。センサ11は、対象者W1が不快感を抱かないように、対象者W1に接触しない所定位置に設置されることが好ましい。図1に示すように、センサ11は、対象者W1が臥床するベッドにおける、胴体を支持する位置に設置されてもよい。センサ11がベッドに設置される場合、図3に示すように、センサ11は、薄板状(シート状)に形成されることが好ましい。または、図4に示すように、センサ11は、対象者W1が着座する椅子における、胴体を支持する位置に設置されてもよい。これにより、センサ11は、ベッドに臥床している状態、または椅子に着座している状態の自然な体勢の対象者W1から発された振動を検知することができる。
 センサ11がベッドに設置される場合、当該センサ11は、一例として、対象者W1が臥床するベッドと該ベッド上のマットレスとの間に設置されてもよい。センサ11は、マットレス上のベッドシーツとマットレスとの間に設置されてもよい。また、対象者W1が衣服を着用している場合、センサ11は、ベッドの最上面に設置されてもよい。
 その他、図5に示すように、センサ11は、対象者W1が着衣する衣服に設置されてもよい。図5の5001は、センサ11の衣服への設置例を示す。また、図5の5002および5003は、センサ11が設置された衣服を対象者W1が着衣した様子の一例を示す。図5の5001に示すように、センサ11は対象者W1が衣服を着衣した時にセンサ11が対象者W1の胸部側に位置するように衣服に設置されてもよい。また、図5の5003に示すように、センサ11は対象者W1が衣服を着衣した時にセンサ11が対象者W1の背中側に位置するように衣服に設置されてもよい。
 また、対象者W1が着衣する衣服に情報処理装置1のセンサ11が設置される場合、図5の5003に示すように、センサ11は、対象者W1が着衣する衣服(図5の符号X1)における、当該センサ11と胴体(図5の符号X2)とで衣服を挟む位置に設置されてもよい。この場合、対象者W1とセンサ11とを接触させることなく対象者W1から発せられた振動を検知することができる。また、上記の構成によれば、対象者W1がある場所から別の場所へ移動した場合であっても、対象者W1がセンサ11を備える衣服を着用していれば、対象者W1の胃腸の蠕動音を測定することができる。例えば、対象者W1が、椅子に着座し背凭れにもたれかかる状態から、移動してベッドに寝転ぶ状態となった場合においても、対象者W1の胃腸の蠕動音を測定することができる。
 これらの位置に設置するにあたり、センサ11は、典型的には、薄板状(シート状)に形成されることが好ましい。これにより、ベッドまたは椅子を使用する対象者W1または衣服を着用する対象者W1に不快感を与えることなく、対象者W1から発せられた振動を検知することができる。
 センサ11は、1または複数の検知領域を備えていてもよい。センサ11が複数の検知領域を備えている場合、センサ11は、複数の検知領域のそれぞれにおいて検知した検知信号を出力してもよい。
 センサ11が薄板状に形成される場合、複数の検知領域は、同一平面上に並んで配置されていてもよい。例えば、図3の3001に示す情報処理装置1は、検知領域Dを1つ備えるセンサ11を備えている。図3の3002に示す情報処理装置1は、3列に並ぶ検知領域D1~D3を備えるセンサ11を備えている。図3の3003に示す情報処理装置1は、4行3列に並ぶ検知領域D1a~D3dを備えるセンサ11を備えている。
 例えば、図3の3002に示す情報処理装置1の場合、検知領域D1~D3のそれぞれにおいて検知された検知信号が個別に出力される。同様に、図3の3003に示す情報処理装置1の場合、検知領域D1a~D3dのそれぞれにおいて検知された検知信号が個別に出力される。検知領域D1a~D3dの各々は、例えば10cm四方であってもよい。
 複数の検知領域を備える構成を採用すれば、情報処理装置1は、各検知領域にて検出された検知信号を個別に解析し、解析結果を相互に比較することによって、高精度に蠕動音を測定することができる。
 [制御部12および記憶部13]
 制御部12は、一例として、CPU(Central Processing Unit)であってもよい。制御部12は、記憶部13に記憶されているソフトウェアである制御プログラムを読み取ってRAM(Random Access Memory)等のメモリに展開し、情報処理装置1が備える各構成要素を制御する。なお、図7に示す記憶部13では、説明の簡略化のために、制御プログラムの図示を省略している。
 図5に示すように、制御部12は、信号抽出部121、姿勢判定部122、および出力部123を備えている。
 信号抽出部121は、センサ11から出力される検知信号を取得し、取得した検知信号から対象者W1の心音を示す心音信号および対象者W1の胃腸の蠕動音を示す蠕動音信号を抽出する。また、信号抽出部121は、後述する姿勢判定部122において判定された姿勢に応じる蠕動音信号を抽出する。
 センサ11が複数の検知領域を有する場合には、信号抽出部121は、複数の検知領域毎に心音信号または蠕動音信号を抽出してもよい。
 心音信号は、典型的には、200Hz以下という周波数特性を有し、蠕動音信号は、150Hz~300Hzおよび500Hz~700Hzの少なくともいずれか一方にピークを有するという周波数特性を有する。信号抽出部121は、周知の周波数分離等の手法を検知信号に適用して、取得した検知信号から上述のような周波数特性を有する心音信号および蠕動音信号を抽出し、姿勢判定部122において判定される対象者W1の姿勢に応じた信号強度を有する蠕動音信号をさらに抽出する。
 信号抽出部121において抽出される、対象者W1の姿勢に応じた信号強度を有する蠕動音信号の具体例を図6に示す。図6は、対象者W1の姿勢に応じた信号強度を有する蠕動音信号の具体例を示す図である。なお、図6の上図は、伏臥位の対象者W1に対してセンサを対象者W1の腹部側に配置したとき、図6の中図は、右臥位の対象者W1に対してセンサを対象者W1の右側部側に配置したとき、図6の下図は、仰臥位の対象者W1に対してセンサを対象者W1の背中側に配置したときに抽出された蠕動音信号を示す。右側の図は、150Hz~350Hzにピークを有する蠕動音信号、左側の図は、400Hz~700Hzにピークを有する蠕動音信号を示す。グラフ中の丸で囲んだ位置は、ピーク周波数を示す。
 150Hz~350Hzまたは400Hz~700Hzにピークを有する蠕動音信号において、ピーク周波数の信号強度を比較すると、姿勢に応じて異なることが示されている。
 なお、信号抽出部121は、検知信号から、ノイズとなり得る他の信号をさらに除去してもよい。一例として、ノイズとなり得る他の信号とは、エアコンやテレビ等の機械から発せられる振動に対応する信号等であってもよい。信号抽出部121は、検知信号から、例えば、エアコンやテレビ等の機械から発せられる振動に対応する信号の特徴または特性に該当する信号をノイズとして除去する。この場合、事前に機械ごとの信号の特徴または特性を記憶部13に記憶させておけばよい。
 また、信号抽出部121は、センサ11から取得した検知信号を示す情報と、当該信号抽出部121における処理に関連する情報を記憶部13に格納してもよい。信号抽出部121における処理に関連する情報としては、検知信号から抽出した心音信号および蠕動音信号を示す情報(図7に示す検知信号131、心音信号132、および蠕動音信号133)が挙げられる。また、これらの信号は、抽出元の検知信号が検出された時刻を示す時刻情報と共に記憶されてもよい。
 姿勢判定部122は、対象者W1が振動を発した時点における該対象者W1の姿勢を判定する。姿勢判定部122は、信号抽出部121において抽出される心音信号から対象者W1の心弾動を示す心弾動信号を特定し、特定した心弾動信号に基づいて対象者W1の姿勢を判定する。
 姿勢判定部122は、対象者W1の姿勢を判定する際に、心弾動信号を説明変数とし、当該心弾動信号に対応する対象者W1の姿勢を目的変数とする教師データを用いて機械学習された姿勢判定モデルに、信号抽出部121で抽出された心音信号から特定される心弾動信号を入力することにより、対象者W1の姿勢を判定してもよい。姿勢判定モデルを生成するための機械学習には、公知の機械学習アルゴリズムが適用され得る。なお、姿勢判定モデルは記憶部13に記憶されてもよいし、情報処理装置1以外の装置に格納されていてもよい。
 センサ11が複数の検知領域を有する場合には、姿勢判定部122は、検知領域毎に抽出された心音信号から特定される心弾動信号の各々について、周波数特性および信号強度の少なくとも一方で比較した結果に基づいて対象者W1の姿勢を判定する。
 センサ11が複数の検知領域を有する場合には、姿勢判定部122は、対象者W1の姿勢を判定する際に、複数の検知領域と同数の心弾動信号を説明変数とし、当該心弾動信号に対応する対象者W1の姿勢を目的変数とする教師データを用いて機械学習された姿勢判定モデルに、信号抽出部121において、複数の検知領域毎に抽出された心音信号から特定される心弾動信号の各々を入力することにより、対象者W1の姿勢を判定してもよい。姿勢判定モデルを生成するための機械学習には、公知の機械学習アルゴリズムが適用され得る。なお、姿勢判定モデルは記憶部13に記憶されてもよいし、情報処理装置1以外の装置に格納されていてもよい。
 また、姿勢判定部122は、当該姿勢判定部122における処理結果を記憶部13に格納してもよい。姿勢判定部122における処理結果としては、信号抽出部121で抽出された心音信号から特定した心弾動信号を示す情報(図7に示す心弾動信号134)または対象者W1の姿勢判定の結果を示す情報(図7に示す判定結果136)が挙げられる。
 出力部123は、センサ11から出力される検知信号、制御部12における処理結果、または記憶部13に格納されている各種情報を外部装置に出力する。一例として、出力部123は、センサ11から出力される検知信号、信号抽出部121において抽出された心音信号および蠕動音信号、または姿勢判定部122において特定された心弾動信号および姿勢判定の結果を示す情報を通信装置3に出力する。
 また、記憶部13には、上述した制御部12が備える各部において実行され得る処理(例えば、信号の抽出、姿勢判定等)における基準を示す情報である処理基準135が格納されていてもよい。
 (通信装置3の構成)
 通信装置3の構成について、図7を用いて説明する。通信装置3は、情報処理装置1と通信ネットワーク9を介して通信を行い、情報処理装置1から出力される情報を受信する。また、通信装置3は、必要に応じて、各種情報の送信要求を情報処理装置1に送信してもよい。
 図5に示すように、通信装置3は、入力部31、制御部32、記憶部33、および表示部34を備えている。
 入力部31は、通信装置3に対するユーザによる入力操作を受け付け、入力操作に応じた信号(指示信号)を制御部32に送信する。ユーザによる入力操作とは、例えば、表示部34に表示される対象者情報の切り替え等である。入力部31の具体例としては、キーボード、タッチパネル、およびマウス等が挙げられる。
 制御部32は、通信装置3が備える各構成要素を制御する。一例として、制御部32は、記憶部33に記憶されているソフトウェアである制御プログラム(図示せず)を読み取ってRAM等のメモリに展開し、通信装置3が備える各構成要素を制御する。制御部32は、入力部31が送信する指示信号を取得する入力受付部321および各種情報を表示部34に出力する表示制御部322を備えている。
 記憶部33には、各種情報が記憶される。一例として、記憶部33には、上述した制御プログラムの他に信号抽出部121がセンサ11から受信した検知信号、信号抽出部121において抽出された心音信号および蠕動音信号、または姿勢判定部122において特定された心弾動信号および姿勢判定の結果を示す情報が記憶される。
 表示部34は、制御部32から出力された表示画像を表示する。一例として、表示部34は、情報処理装置1から受信する信号抽出部121が受信した検知信号、信号抽出部121において抽出された心音信号および蠕動音信号、または姿勢判定部122において特定された心弾動信号および姿勢判定の結果を示す情報の少なくともいずれかを含む表示画像を表示部34に表示する。
 (情報処理システム100が行う処理)
 情報処理システム100が行う処理の流れについて、図8を用いて説明する。図8は、情報処理システム100(例えば、情報処理装置1)が行う処理の流れの一例を示すフロー図である。
 まず、対象者W1に接触しない所定位置に設置された情報処理装置1のセンサ11が、対象者W1から発せられた振動を検知する(S101)。センサ11は、検知した振動に応じた検知信号を制御部12に出力する(S102:出力ステップ)。
 制御部12の信号抽出部121は、センサ11から検知信号を取得すると、当該検知信号から心音信号および蠕動音信号を抽出する(S103:第1の抽出ステップ)。また、信号抽出部121は、抽出した心音信号を姿勢判定部122に出力する。
 姿勢判定部122は、信号抽出部121から取得した心音信号から特定される心弾動信号に基づいて対象者W1の姿勢を判定する(S104:判定ステップ)。また、姿勢判定部122は、姿勢判定の結果を信号抽出部121に出力する。
 信号抽出部121は、姿勢判定部122から取得した姿勢判定の結果と、ステップS103において抽出された蠕動音信号とに基づいて、S104で判定された姿勢に応じた蠕動音信号を抽出する(S105:第2の抽出ステップ)。
 姿勢に応じた蠕動音信号を抽出した後、出力部123は、当該蠕動音信号を示す情報を含む各種情報を通信装置3に出力し、表示制御部322は、取得した各種情報を表示部34に表示してもよい。
 なお、情報処理システム100が図8に示す各処理を実行するタイミングは任意に設定され得る。例えば、情報処理システム100は、図8に示す各処理を所定期間(例えば、1時間)毎に実行してもよいし、対象者W1の離床がセンサ11によって判定される度に実行してもよい。
 (情報処理システム100の構成における変形例1)
 情報処理システム100の構成における変形例1(以下、「情報処理システム100a」と記載する)について、図9および図10を用いて説明する。なお、説明の便宜上、上述した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 [情報処理システム100aの構成]
 情報処理システム100aの構成について、図9を用いて説明する。図9は、情報処理システム100aの構成の一例を示す機能ブロック図である。
 図9に示すように、情報処理システム100aは、情報処理装置1に代えて情報処理装置1aを備える点で情報処理システム100と異なり、その他の構成は同じである。
 図9に示すように、情報処理装置1aは、制御部12に代えて制御部12aを備えている点において情報処理装置1と異なる。制御部12aは、さらに蠕動音発生判定部124aを備える点において制御部12と異なる。
 蠕動音発生判定部124aは、対象者W1から発せられた振動において蠕動音が発生したか否かを判定する。一例として、蠕動音発生判定部124aは、信号抽出部121において抽出される蠕動音信号が、所定の周波数特性および所定の周波数における所定の信号強度の少なくともいずれかを有する場合に、蠕動音が発生したと判定する。
 上記「所定の周波数特性」の一例としては、蠕動音の周波数特性である150Hz~300Hzおよび500Hz~700Hzの少なくともいずれかにピークを有するという周波数特性が挙げられる。
 上記「所定の周波数における所定の信号強度」の一例としては、150Hz~300Hzおよび500Hz~700Hzの少なくともいずれかにピークを有する蠕動音を取得した状態における200Hz付近または600Hz付近の信号強度としてもよい。
 [情報処理システム100aが行う処理]
 情報処理システム100aが行う処理の流れについて、図10を用いて説明する。図10は、情報処理システム100a(例えば、情報処理装置1a)が行う処理の流れの一例を示すフロー図である。
 図10に示すように、情報処理システム100aは、ステップS101~S106の各処理を実行する。S101~S105までは、図8に示すステップと同様であるため、ここでの説明は省略する。
 蠕動音発生判定部124aは、S105にて信号抽出部121が抽出した対象者W1の姿勢に応じた蠕動音信号を取得すると、当該蠕動音信号に基づいて対象者W1の胃腸における蠕動音の発生有無を判定する(S106)。蠕動音発生判定部124aは、信号抽出部121が抽出した対象者W1の姿勢に応じた蠕動音信号が、所定の周波数特性、および所定の周波数において所定の信号強度の少なくともいずれかを有する場合に、蠕動音が発生したと判定する。蠕動音発生判定部124aは、判定結果を出力部123に出力し、出力部123は、判定結果を含む情報を通信装置3に出力してもよい。
 なお、情報処理システム100aが図10に示す各処理を実行するタイミングは任意に設定され得る。例えば、情報処理システム100aは、図10に示す各処理を所定期間(例えば、1時間)毎に実行してもよいし、対象者W1の離床がセンサ11によって判定される度に実行してもよい。
 (情報処理システム100の構成における変形例2)
 情報処理システム100の構成における変形例2(以下、「情報処理システム100b」と記載する)について、図11~図13を用いて説明する。なお、説明の便宜上、上述した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 [情報処理システム100bの構成]
 情報処理システム100bの構成について、図11および図12を用いて説明する。図11は、情報処理システム100bの構成の一例を示す機能ブロック図であり、図12は、検知信号に含まれる特徴信号を示す図である。
 図11に示すように、情報処理システム100bは、情報処理装置1aに代えて情報処理装置1bを備える点で情報処理システム100aとは異なり、その他の構成は同じである。
 図11に示すように、情報処理装置1bは、制御部12aに代えて制御部12bを備える点において情報処理装置1aとは異なる。制御部12bは、信号抽出部121に代えて信号抽出部121bを備え、さらに睡眠判定部125bを備える点において制御部12aとは異なる。
 信号抽出部121bは、センサ11から出力される検知信号から、さらに特徴信号を抽出する点で信号抽出部121と異なる。ここで「特徴信号」は、図12に示すように、対象者W1の心拍を示す心拍信号、対象者W1の呼吸振動を示す呼吸振動信号、対象者W1の体動を示す体動信号、および対象者W1の鼾を示す鼾信号の少なくともいずれかを含む。
 睡眠判定部125bは、対象者W1の睡眠状態を判定する。一例として、睡眠判定部125bは、信号抽出部121bにおいて抽出された特徴信号に基づいて対象者W1の睡眠状態を判定する。
 睡眠判定部125bは、対象者W1の睡眠状態を判定する際に、上述した特徴信号の少なくともいずれかを要素とする集合を説明変数とし、当該集合に対応する対象者W1の睡眠状態を目的変数とする教師データを用いて機械学習された睡眠判定モデルに、信号抽出部121bで抽出された特徴信号のうち、説明変数と同じ要素からなる集合を入力することにより、対象者W1の睡眠状態を判定してもよい。睡眠判定モデルを生成するための機械学習には、公知の機械学習アルゴリズムが適用され得る。なお、睡眠判定モデルは、記憶部13に格納されていてもよいし、情報処理装置1b以外の装置に格納されていてもよい。
 [情報処理システム100bが行う処理]
 情報処理システム100bが行う処理の流れについて、図13を用いて説明する。図13は、情報処理システム100bが行う処理の流れの一例を示すフロー図である。
 図13に示すように、情報処理システム100bは、ステップS101、S102、S103b、S104、S105、S107、およびS106の処理を実行する。S101、S102、S104、S105、およびS106については、上述の記載と同様であるため、説明を省略する。
 信号抽出部121bは、取得した検知信号から心音信号、蠕動音信号および特徴信号を抽出する(S103b)。信号抽出部121bは、抽出した心音信号を姿勢判定部122に出力し、検知信号および抽出した特徴信号を睡眠判定部125bに出力する。
 睡眠判定部125bは、信号抽出部121bから取得した検知信号および特徴信号の少なくともいずれかに基づいて対象者W1の睡眠状態を判定する(S107)。具体的には、対象者W1が睡眠状態であるか否かを判定する。
 蠕動音発生判定部124aは、ステップS107でYESの場合、すなわち、睡眠判定部125bにおいて、対象者W1は睡眠状態であると判定された場合、ステップS106の処理を実行する。ステップS107でNOの場合、すなわち、睡眠判定部125bにおいて、対象者W1は睡眠状態でないと判定された場合、ステップS101に戻る。
 〔実施形態2〕
 本開示の実施形態2について、以下に説明する。なお、以下の各実施形態において、説明の便宜上、説明した実施形態の部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム100cの構成)
 図14は、実施形態2に係る情報処理システム100cの構成の一例を示す機能ブロック図である。図14に示すように、情報処理システム100cは、情報処理装置1に代えて情報処理装置1cを備える点で情報処理システム100と異なり、その他の構成は同じである。
 図14に示すように、情報処理装置1cは、制御部12に代えて制御部12cを備える点において情報処理装置1と異なる。制御部12cは、状態判定部126cを備える点において制御部12と異なる。
 状態判定部126cは、信号抽出部121において抽出される蠕動音信号に基づいて対象者W1の胃腸の状態を判定する。一例として、状態判定部126cは、信号抽出部121において抽出される蠕動音信号が600Hz付近にピークを有し、当該蠕動音信号が1分間に12回以上抽出される場合には、対象者W1の胃腸の状態は下痢またはイレウスであると判定したり、信号抽出部121において抽出される蠕動音信号が200Hz付近にピークを有し、該蠕動音信号が1分間に1~3回抽出される場合には、対象者W1の胃腸の状態は便秘であると判定したり、5分以上蠕動音信号を抽出できない場合には、対象者W1の胃腸の状態はイレウスまたは腹膜炎であると判定する。
 なお、状態判定部126cにおいて対象者W1の胃腸の状態を判定する際には、信号抽出部121において抽出された蠕動音信号を説明変数とし、当該抽出された蠕動音信号に対応する対象者W1の胃腸の状態を目的変数とする教師データを用いて機械学習された状態判定モデルに、信号抽出部121で抽出された蠕動音信号を入力することにより、対象者W1の胃腸の状態を判定してもよい。状態判定モデルを生成するための機械学習には、公知の機械学習アルゴリズムが適用され得る。なお、状態判定モデルは、記憶部13に格納されていてもよいし、情報処理装置1c以外の装置に格納されていてもよい。
 (情報処理システム100cが行う処理)
 情報処理システム100cが行う処理の流れについて、図15を用いて説明する。図15は、情報処理システム100cが行う処理の流れの一例を示すフロー図である。
 図15に示すように、情報処理システム100cは、ステップS101~S105およびS108の処理を実行する。ステップS101~S105については、上述の記載と同様であるため、説明を省略する。
 状態判定部126cは、信号抽出部121が抽出した対象者W1の姿勢に応じた蠕動音信号を取得し、当該蠕動音信号に基づいて対象者W1の胃腸の状態を判定する(S108)。状態判定部126cは、判定結果を出力部123に出力し、出力部123は、判定結果を含む情報を通信装置3に出力してもよい。
 〔実施形態3〕
 本開示の実施形態3について、図16および図17を用いて以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム100dの構成)
 センサ11が複数の検知領域を備え、複数の検知領域のそれぞれにおいて検知した検知信号を出力する構成を採用した情報処理システム100dについて、図16を用いて説明する。
 図16は、実施形態3に係る情報処理システム100dの構成の一例を示す機能ブロック図である。図16に示すように、情報処理システム100dは、情報処理装置1に代えて情報処理装置1dを備える点で情報処理システム100と異なり、その他の構成は同じである。
 図14に示すように、情報処理装置1dは、制御部12に代えて制御部12dを備える点において情報処理装置1と異なる。制御部12dは、さらに内容物位置推定部127dを備える点において制御部12と異なる。
 内容物位置推定部127dは、対象者W1の胃腸における内容物の位置を推定する。胃腸における内容物としては、摂取した食物、ガスまたは便等が挙げられる。一例として、内容物位置推定部127dは、信号抽出部121において検知領域毎に抽出された蠕動音信号の各々、複数の検知領域の各々の配置を示す配置情報、および姿勢判定部122において判定された姿勢に基づいて対象者W1の胃腸における内容物の位置を推定する。
 また、内容物位置推定部127dは、信号抽出部121において検知領域毎に抽出された蠕動音信号の各々、検知領域の配置を示す配置情報、姿勢判定部122において判定された姿勢を説明変数とし、内容物の位置を目的変数とする教師データを用いて機械学習された位置推定モデルに信号抽出部121において検知領域毎に抽出された蠕動音信号の各々、複数の検知領域の各々の配置を示す配置情報、および姿勢判定部122において判定された姿勢を入力することにより対象者W1の胃腸における内容物の位置を推定してもよい。
 (情報処理システム100dが行う処理)
 情報処理システム100dが行う処理の流れについて、図17を用いて説明する。図17は、情報処理システム100dが行う処理の流れの一例を示すフロー図である。
 図17に示すように、情報処理システム100dは、ステップS101~S105およびS109の処理を実行する。ステップS101~S105については、上述の記載と同様であるため、説明を省略する。
 内容物位置推定部127dは、取得した信号抽出部121において抽出された蠕動音信号の各々、複数の検知領域毎の配置を示す配置情報、および姿勢判定部122において判定された姿勢に基づいて対象者W1の胃腸の内容物の位置を推定する(S109)。内容物位置推定部127dは、推定結果を出力部123に出力し、出力部123は、推定結果を含む情報を通信装置3に出力してもよい。
 〔実施形態4〕
 本願発明に係る情報処理システムは、実施形態1に係る情報処理システム100のように、対象者W1から発せられた振動から該対象者W1の蠕動音を示す蠕動音信号を抽出する構成であってもよいし、本実施形態4に係る情報処理システム200のように対象者W1から発せられた振動から対象者W1の胃腸の蠕動音を示す蠕動音信号を抽出し、かつ、当該蠕動音の発生位置を推定する構成であってもよい。
 以下、本開示の実施形態4について、図18および図19を用いて説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム200の概要)
 本開示の実施形態4に係る情報処理システム200は、対象者W1から発せられた振動を対象者W1に接触しない位置で検知するセンサから出力される検知信号に基づいて、対象者W1の蠕動音を示す蠕動音信号を抽出し、かつ、当該蠕動音信号の発生位置を推定するシステムである。
 (情報処理システム200の構成)
 図18は、実施形態4に係る情報処理システム200の構成の一例を示す機能ブロック図である。図18に示すように、情報処理システム200は、情報処理装置1に代えて情報処理装置2を備える点において情報処理システム100と異なり、その他の構成は同じである。
 図18に示すように、情報処理装置2は、制御部12に代えて制御部22を備えている点において情報処理装置1と異なる。制御部22は、さらに発生位置推定部224を備える点において制御部12と異なる。
 発生位置推定部224は、信号抽出部121において抽出された蠕動音信号および姿勢判定部122で判定された姿勢に基づいて当該蠕動音信号で示される蠕動音の発生位置を推定する。
 (情報処理システム200が行う処理)
 情報処理システム200が行う処理の流れについて、図19を用いて説明する。図19は、情報処理システム200が行う処理の流れの一例を示すフロー図である。
 まず、対象者W1に接触しない所定位置に設置された情報処理装置2のセンサ11が、対象者W1から発せられた振動を検知する(S201)。センサ11は、検知した振動に応じた検知信号を制御部22に出力する(S202:出力ステップ)。
 制御部22の信号抽出部121は、センサ11から検知信号を取得すると、当該検知信号から心音信号および蠕動音信号を抽出する(S203:抽出ステップ)。また、信号抽出部121は、抽出した心音信号を姿勢判定部122に出力し、抽出した蠕動音信号を発生位置推定部224に出力する。
 姿勢判定部122は、信号抽出部121から取得した心音信号から特定される心弾動信号に基づいて対象者W1の姿勢を判定する(S204:判定ステップ)。また、姿勢判定部122は、姿勢判定の結果を発生位置推定部224に出力する。
 発生位置推定部224は、姿勢判定部122から取得した判定結果および信号抽出部121から取得した蠕動音信号に基づいて当該蠕動音で示される蠕動音の発生位置を推定する(S205:推定ステップ)。また、発生位置推定部224は、推定結果を出力部123に出力し、出力部123は当該推定結果を含む情報を通信装置3に出力してもよい。
 (情報処理システム200の構成における変形例)
 情報処理システム200の構成における変形例(以下、「情報処理システム200a」と記載する)について、図20および図21を用いて説明する。なお、説明の便宜上、上述した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 [情報処理システム200aの構成]
 情報処理システム200aの構成について、図20を用いて説明する。図20は、情報処理システム200aの構成の一例を示す機能ブロック図である。
 図20に示すように、情報処理システム200aは、情報処理装置2に代えて情報処理装置2aを備える点で情報処理システム200と異なり、その他の構成は同じである。
 図20に示すように、情報処理装置2aは、制御部22に代えて制御部22aを備えている点において情報処理装置2と異なる。制御部22aは、信号抽出部121に代えて信号抽出部221を備え、さらに睡眠判定部225を備える点において制御部22と異なる。
 信号抽出部221は、上述の信号抽出部121bと同様であり、睡眠判定部225は、上述の睡眠判定部125bと同様であるため、ここでは説明を省略する。
 [情報処理システム200aが行う処理]
 情報処理システム200aが行う処理の流れについて、図21を用いて説明する。図21は、情報処理システム200aが行う処理の流れの一例を示すフロー図である。
 図21に示すように、情報処理システム200aは、ステップS201、S202、S203a、S204、S206、およびS205の処理を実行する。S201、S202、S204、およびS205については、上述の記載と同様であるため、説明を省略する。
 信号抽出部221は、取得した検知信号から心音信号、蠕動音信号および特徴信号を抽出する(S203a)。信号抽出部221は、抽出した心音信号を姿勢判定部122に出力し、検知信号および抽出した特徴信号を睡眠判定部225に出力する。
 睡眠判定部225は、信号抽出部221から取得した検知信号および特徴信号の少なくともいずれかに基づいて対象者W1の睡眠状態を判定する(S206)。具体的には、対象者W1が睡眠状態であるか否かを判定する。
 発生位置推定部224は、ステップS206でYESの場合、すなわち、睡眠判定部225において、対象者W1は睡眠状態であると判定された場合、ステップS205の処理を実行する。ステップS206でNOの場合、すなわち、睡眠判定部225において、対象者W1は睡眠状態でないと判定された場合、ステップS201に戻る。
 〔実施形態5〕
 本開示の他の実施形態5について、図22および図23を用いて説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム200bの構成)
 図22は、実施形態5に係る情報処理システム200bの構成の一例を示す機能ブロック図である。図22に示すように、情報処理システム200bは、情報処理装置2に代えて情報処理装置2bを備える点で情報処理システム200と異なり、その他の構成は同じである。
 図22に示すように、情報処理装置2bは、制御部22に代えて制御部22bを備える点において情報処理装置2と異なる。制御部22bは、状態判定部226を備える点において制御部22と異なる。
 状態判定部226は、上述の状態判定部126cと同様であるため、ここでは説明を省略する。
 (情報処理システム200bが行う処理)
 情報処理システム200bが行う処理の流れについて、図23を用いて説明する。図23は、情報処理システム200bが行う処理の流れの一例を示すフロー図である。
 図23に示すように、情報処理システム200bは、ステップS201~S205、およびS207の処理を実行する。ステップS201~S205については、上述の記載と同様であるため、説明を省略する。
 状態判定部226は、信号抽出部121が抽出した蠕動音信号に基づいて対象者W1の胃腸の状態を判定する(S207)。状態判定部226は、判定結果を出力部123に出力し、出力部123は、判定結果を含む情報を通信装置3に出力してもよい。
 〔実施形態6〕
 本開示の他の実施形態について、図24および図25を用いて説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム200cの構成)
 センサ11が複数の検知領域を備え、複数の検知領域のそれぞれにおいて検知した検知信号を出力する構成を採用した情報処理システム200cについて、図24を用いて説明する。
 図24は、実施形態6に係る情報処理システム200cの構成の一例を示す機能ブロック図である。図24に示すように、情報処理システム200cは、情報処理装置2に代えて情報処理装置2cを備える点で情報処理システム200と異なり、その他の構成は同じである。
 図24に示すように、情報処理装置2cは、制御部22に代えて制御部22cを備える点において情報処理装置2と異なる。制御部22cは、さらに内容物位置推定部227を備える点において制御部22と異なる。
 内容物位置推定部227は、上述の内容物位置推定部127dと同様であるため、ここでは説明を省略する。
 (情報処理システム200cが行う処理)
 情報処理システム200cが行う処理の流れについて、図25を用いて説明する。図25は、情報処理システム200cが行う処理の流れの一例を示すフロー図である。
 図25に示すように、情報処理システム200cは、ステップS201~S205およびS208の処理を実行する。ステップS201~S205については、上述の記載と同様であるため、説明を省略する。
 内容物位置推定部227は、取得した信号抽出部121において抽出された蠕動音信号の各々、複数の検知領域毎の配置を示す配置情報、および姿勢判定部122において判定された姿勢に基づいて対象者W1の胃腸における内容物の位置を推定する(S208)。内容物位置推定部227は、推定結果を出力部123に出力し、出力部123は、推定結果を含む情報を通信装置3に出力してもよい。
 〔実施形態7〕
 上述の実施形態1~4において情報処理システムは、対象者W1から発せられた振動を示す検知信号から心音信号および蠕動音信号を抽出し、当該心音信号から特定される心弾動信号に基づいて対象者W1の姿勢を判定することにより、対象者W1の姿勢に応じた蠕動音信号を抽出する構成を採用している。しかし、本願発明はこの構成に限定されない。例えば、対象者W1から発せられた振動を示す検知信号から当該対象者W1の姿勢を判定し、その姿勢に応じた蠕動音信号を抽出することも可能である。この構成を備える情報処理システム400について、図26および図27を用いて説明する。なお、説明の便宜上、上述した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム400の構成)
 図26は、実施形態7に係る情報処理システム400の構成の一例を示す機能ブロック図である。図26に示すように、情報処理システム400は、情報処理装置1に代えて情報処理装置4を備える点において情報処理システム100とは異なり、その他の構成は同じである。
 図26に示すように、情報処理装置4は、センサ11、制御部42、および記憶部43を備えている。
 制御部42は、一例として、CPU(Central Processing Unit)であってもよい。制御部42は、記憶部43に記憶されているソフトウェアである制御プログラムを読み取ってRAM(Random Access Memory)等のメモリに展開し、情報処理装置1が備える各構成要素を制御する。なお、図26に示す記憶部43では、説明の簡略化のために、制御プログラムの図示を省略している。
 図26に示すように、制御部42は、信号抽出部421、姿勢判定部422および出力部423を備えている。
 信号抽出部421は、センサ11から出力される検知信号から対象者W1の胃腸の蠕動音を示す蠕動音信号を抽出し、後述する姿勢判定部422において判定された姿勢に応じた蠕動音信号をさらに抽出するという点において信号抽出部121と異なる。また、信号抽出部421は、センサ11から出力される検知信号から対象者W1の心弾動を示す心弾動信号を抽出してもよい。ここで蠕動音信号は、150Hz~350Hzおよび400Hz~700Hzの少なくともいずれか一方にピークを有するという周波数特性を有する。心弾動信号は、一例として、1~50Hzにおいて信号強度が高くなるという周波数特性を有し、特に1~3Hzの周波数帯において信号強度が高くなるという周波数特性を有する。信号抽出部421は、周知の周波数分離等の手法を検知信号に適用して、取得した検知信号から上述のような周波数特性を有する蠕動音信号および心弾動信号を抽出する。
 センサ11が複数の検知領域を有する場合には、信号抽出部421は、複数の検知領域毎に蠕動音信号または心弾動信号を抽出してもよい。
 また、信号抽出部421は、センサ11から取得した検知信号を示す情報と、当該信号抽出部421における処理に関連する情報を記憶部43に格納してもよい。信号抽出部421における処理に関連する情報としては、検知信号から抽出した蠕動音信号を示す情報(図26に示す検知信号431、および蠕動音信号432)が挙げられる。また、これらの信号は、抽出元の検知信号が検出された時刻を示す時刻情報と共に記憶されてもよい。
 姿勢判定部422は、センサ11から出力される検知信号に基づいて、対象者W1の姿勢を判定する。一例として、姿勢判定部422は、対象者W1の姿勢を判定する際に、検知信号を説明変数とし、当該検知信号に対応する対象者W1の姿勢を目的変数とする教師データを用いて機械学習された姿勢判定モデルに、センサ11から出力される検知信号を入力することにより、対象者W1の姿勢を判定してもよい。姿勢判定モデルを生成するための機械学習には、公知の機械学習アルゴリズムが適用され得る。なお、姿勢判定モデルは記憶部43に記憶されてもよいし、情報処理装置4以外の装置に格納されていてもよい。
 センサ11が複数の検知領域を有する場合には、姿勢判定部422は、複数の検知領域毎に出力された検知信号の信号強度を比較した結果に基づいて、対象者W1の姿勢を判定してもよい。
 また、姿勢判定部422は、信号抽出部421において心弾動信号を抽出した場合には、当該心弾動信号に基づいて対象者W1の姿勢を判定してよい。一例として、姿勢判定部422は、対象者W1の姿勢を判定する際に、心弾動信号を説明変数とし、当該心弾動信号に対応する対象者W1の姿勢を目的変数とする教師データを用いて機械学習された姿勢判定モデルに、信号抽出部421から抽出された心弾動信号を入力することにより、対象者W1の姿勢を判定してもよい。
 センサ11が複数の検知領域を有する場合には、姿勢判定部422は、信号抽出部421において、複数の検知領域毎に抽出された心弾動信号の各々について、周波数特性および信号強度の少なくとも一方で比較した結果に基づいて、対象者W1の姿勢を判定してもよい。
 また、センサ11が複数の検知領域を有する場合には、姿勢判定部422は、複数の検知領域と同数の心弾動信号を説明変数とし、当該心弾動信号に対応する対象者W1の姿勢を目的変数とする教師データを用いて機械学習された姿勢判定モデルに、信号抽出部421において、複数の検知領域毎に抽出された心弾動信号の各々を入力することにより、対象者W1の姿勢を判定してもよい。姿勢判定モデルを生成するための機械学習には、公知の機械学習アルゴリズムが適用され得る。なお、姿勢判定モデルは、記憶部43に格納されてもよいし、情報処理装置4以外の装置に格納されていてもよい。
 また、姿勢判定部422は、当該姿勢判定部422における処理結果を記憶部43に格納してもよい。姿勢判定部422における処理結果としては、対象者W1の姿勢判定の結果を示す情報(図26に示す判定結果434)が挙げられる。
 出力部423は、センサ11から出力される検知信号、制御部42における処理結果、または記憶部43に格納されている各種情報を外部装置に出力する。一例として、出力部423は、センサ11から出力される検知信号、信号抽出部421において抽出された蠕動音信号、または姿勢判定部422において判定された姿勢判定の結果を示す情報を通信装置3に出力する。
 また、記憶部43には、上述した制御部42が備える各部において実行され得る処理(例えば、信号の抽出、姿勢判定等)における基準を示す情報である処理基準433が格納されていてもよい。
 (情報処理システム400が行う処理)
 情報処理システム400が行う処理の流れについて、図27を参照して説明する。図27は、情報処理システム400(例えば、情報処理装置4)が行う処理の流れの一例を示すフロー図である。
 図27に示すように、情報処理システム400は、ステップS401~S405の各処理を実行する。S401、S402、およびS405は、S101、S102およびS105とそれぞれ同様であるため、ここでの説明は省略する。
 制御部42の信号抽出部421は、S102においてセンサ11が出力した検知信号を取得すると、当該検知信号から蠕動音信号を抽出する(S403:第1の抽出ステップ)。
 姿勢判定部422は、センサ11が出力した検知信号を取得すると、当該検知信号に基づいて対象者W1の姿勢を判定する(S404:判定ステップ)。また、姿勢判定部422は、姿勢判定の結果を信号抽出部421に出力する。
 なお、情報処理システム400が図27に示す各処理を実行するタイミングは任意に設定され得る。例えば、情報処理システム400は、図27に示す各処理を所定期間(例えば、1時間)毎に実行してもよいし、対象者W1の離床がセンサ11によって判定される度に実行してもよい。
 (情報処理システム400の構成における変形例1)
 情報処理システム400の構成における変形例1(以下、「情報処理システム400a」と記載する)について、図28および図29を用いて説明する。なお、説明の便宜上、上述した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 [情報処理システム400aの構成]
 情報処理システム400aの構成について、図28を用いて説明する。図28は、情報処理システム400aの構成の一例を示す機能ブロック図である。
 図28に示すように、情報処理システム400aは、情報処理装置4に代えて情報処理装置4aを備える点で情報処理システム400と異なり、その他の構成は同じである。
 図28に示すように、情報処理装置4aは、制御部42に代えて制御部42aを備えている点において情報処理装置4と異なる。制御部42aは、さらに蠕動音発生判定部424aを備える点において制御部42と異なる。
 蠕動音発生判定部424aは、対象者W1から発せられた振動において蠕動音が発生したか否かを判定する。一例として、蠕動音発生判定部424aは、信号抽出部421において抽出される蠕動音信号が、所定の周波数特性、所定時間における周波数特性の変化、所定の周波数における所定の信号強度、および所定時間における所定の周波数の信号強度の変化の少なくともいずれかを有する場合に、蠕動音が発生したと判定する。
 上記「所定時間における所定の周波数の信号強度の変化」の一例としては、所定時間において、蠕動音信号の150~350Hzまたは400~700Hzの周波数帯における信号強度が高くなるという変化が挙げられる。なお、所定時間は、任意に設定され得る時間である。
 [情報処理システム400aが行う処理]
 情報処理システム400aが行う処理の流れについて、図29を用いて説明する。図29は、情報処理システム400a(例えば、情報処理装置4a)が行う処理の流れの一例を示すフロー図である。
 図29に示すように、情報処理システム400aは、ステップS401~S406の各処理を実行する。S401~S405は、図32に示すステップと同様であるため、ここでの説明は省略する。
 蠕動音発生判定部424aは、S405にて信号抽出部421が抽出した対象者W1の姿勢に応じた蠕動音信号を取得すると、当該蠕動音信号に基づいて対象者W1の胃腸における蠕動音の発生有無を判定する(S406)。蠕動音発生判定部424aは、信号抽出部421が抽出した対象者W1の姿勢に応じた蠕動音信号が、所定の周波数特性、所定時間における周波数特性の変化、所定の周波数における所定の信号強度、および所定時間における所定の周波数の信号強度の変化の少なくともいずれかを有する場合に、蠕動音が発生したと判定する。蠕動音発生判定部424aは、判定結果を出力部423に出力し、出力部423は、判定結果を含む情報を通信装置3に出力してもよい。
 なお、情報処理システム400aが図29に示す各処理を実行するタイミングは任意に設定され得る。例えば、情報処理システム400aは、図29に示す各処理を所定期間(例えば、1時間)毎に実行してもよいし、対象者W1の離床がセンサ11によって判定される度に実行してもよい。
 (情報処理システム400の構成における変形例2)
 情報処理システム400の構成における変形例2(以下、「情報処理システム400b」と記載する)について、図30および図31を用いて説明する。なお、説明の便宜上、上述した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 [情報処理システム400bの構成]
 情報処理システム400bの構成について、図30を用いて説明する。図30は、情報処理システム400bの構成の一例を示す機能ブロック図である。
 図30に示すように、情報処理システム400bは、情報処理装置4aに代えて情報処理装置4bを備える点で情報処理システム400aとは異なり、その他の構成は同じである。
 図30に示すように、情報処理装置1bは、制御部42aに代えて制御部42bを備える点において情報処理装置4aとは異なる。制御部42bは、信号抽出部421に代えて信号抽出部421bを備え、さらに睡眠判定部425bを備える点において制御部42aとは異なる。
 信号抽出部421bは、センサ11から出力される検知信号から、さらに特徴信号を抽出する点で信号抽出部421と異なる。ここで「特徴信号」は、図12に示す特徴信号と同様であり、それらの特徴信号の少なくともいずれかを含む。また、信号抽出部421bは、検知信号から抽出した特徴信号を記憶部43に格納してもよい。
 睡眠判定部425bは、対象者W1の睡眠状態を判定する。一例として、睡眠判定部425bは、信号抽出部421bにおいて抽出された特徴信号に基づいて対象者W1の睡眠状態を判定する。
 睡眠判定部425bは、対象者W1の睡眠状態を判定する際に、上述した特徴信号の少なくともいずれかを要素とする集合を説明変数とし、当該集合に対応する対象者W1の睡眠状態を目的変数とする教師データを用いて機械学習された睡眠判定モデルに、信号抽出部421bで抽出された特徴信号のうち、説明変数と同じ要素からなる集合を入力することにより、対象者W1の睡眠状態を判定してもよい。睡眠判定モデルを生成するための機械学習には、公知の機械学習アルゴリズムが適用され得る。なお、睡眠判定モデルは、記憶部43に格納されていてもよいし、情報処理装置4b以外の装置に格納されていてもよい。
 [情報処理システム400bが行う処理]
 情報処理システム400bが行う処理の流れについて、図31を用いて説明する。図31は、情報処理システム400bが行う処理の流れの一例を示すフロー図である。
 図31に示すように、情報処理システム400bは、ステップS401、S402、S403b、S404、S405、S407、およびS406の処理を実行する。S401、S402、S404、S405、およびS406については、上述の記載と同様であるため、説明を省略する。
 信号抽出部421bは、センサ11から取得した検知信号から蠕動音信号および特徴信号を抽出する(S403b)。信号抽出部421bは、検知信号および抽出した特徴信号を睡眠判定部425bに出力する。
 睡眠判定部425bは、信号抽出部421bから取得した検知信号および特徴信号の少なくともいずれかに基づいて対象者W1の睡眠状態を判定する(S407)。具体的には、対象者W1が睡眠状態であるか否かを判定する。
 蠕動音発生判定部424aは、ステップS407でYESの場合、すなわち、睡眠判定部425bにおいて、対象者W1は睡眠状態であると判定された場合、ステップS406の処理を実行する。ステップS407でNOの場合、すなわち、睡眠判定部425bにおいて、対象者W1は睡眠状態でないと判定された場合、ステップS401に戻る。
 なお、情報処理システム400bが図31に示す各処理を実行するタイミングは任意に設定され得る。例えば、情報処理システム400bは、図31に示す各処理を所定期間(例えば、1時間)毎に実行してもよいし、対象者W1の離床がセンサ11によって判定される度に実行してもよい。
 〔実施形態8〕
 本開示の実施形態8について、図32および図33を用いて以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム100cの構成)
 図32は、実施形態8に係る情報処理システム400cの構成の一例を示す機能ブロック図である。図32に示すように、情報処理システム400cは、情報処理装置4に代えて情報処理装置4cを備える点で情報処理システム400と異なり、その他の構成は同じである。
 図32に示すように、情報処理装置4cは、制御部42に代えて制御部42cを備える点において情報処理装置4と異なる。制御部42cは、さらに状態判定部426cを備える点において制御部42と異なる。状態判定部426cは、状態判定部126cと同様である。
 (情報処理システム400cが行う処理)
 情報処理システム400cが行う処理の流れについて、図33を用いて説明する。図33は、情報処理システム400cが行う処理の流れの一例を示すフロー図である。
 図33に示すように、情報処理システム400cは、ステップS401~S405およびS408の処理を実行する。ステップS401~S405については、上述の記載と同様であり、ステップS408は、ステップS108と同様である。
 〔実施形態9〕
 本開示の実施形態9について、図34および図35を用いて以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム400dの構成)
 センサ11が複数の検知領域を備え、複数の検知領域のそれぞれにおいて検知した検知信号を出力する構成を採用した情報処理システム400dについて、図34を用いて説明する。
 図34は、実施形態9に係る情報処理システム400dの構成の一例を示す機能ブロック図である。図34に示すように、情報処理システム400dは、情報処理装置4に代えて情報処理装置4dを備える点で情報処理システム400と異なり、その他の構成は同じである。
 図34に示すように、情報処理装置4dは、制御部42に代えて制御部42dを備える点において情報処理装置1と異なる。制御部42dは、さらに内容物位置推定部427dを備える点において制御部42と異なる。内容物位置推定部427dは、内容物位置推定部127dと同様である。
 (情報処理システム400dが行う処理)
 情報処理システム400dが行う処理の流れについて、図35を用いて説明する。図35は、情報処理システム400dが行う処理の流れの一例を示すフロー図である。
 図35に示すように、情報処理システム400dは、ステップS401~S405およびS409の処理を実行する。ステップS401~S405については、上述の記載と同様であり、ステップS409は、ステップS109と同様である。
 〔実施形態10〕
 また、本願発明に係る情報処理システムは、以下の実施形態に示すように、対象者W1から発せられた振動を示す検知信号から当該対象者W1の姿勢を判定し、その姿勢に応じた蠕動音信号を抽出することに加えて、当該蠕動音信号で示される蠕動音の発生位置を推定する構成であってもよい。この構成を備える情報処理システム500について、図36および図37を用いて説明する。なお、説明の便宜上、上述した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム500の概要)
 上述の実施形態4~6において情報処理システムは、対象者W1から発せられた振動を示す検知信号から心音信号および蠕動音信号を抽出し、当該心音信号から特定される心弾動信号に基づいて対象者W1の姿勢を判定することにより、対象者W1の姿勢に応じた蠕動音信号を抽出するとともに、抽出された蠕動音信号および判定された姿勢に基づいて該蠕動音信号で示される蠕動音の発生位置を推定する構成を採用している。しかし、本願発明はこの構成に限定されない。例えば、対象者W1から発せられた振動を示す検知信号から当該対象者W1の姿勢を判定し、その姿勢に応じた蠕動音信号を抽出するとともに、抽出された蠕動音信号および判定された姿勢に基づいて該蠕動音信号で示される蠕動音の発生位置を推定することも可能である。この構成を備える情報処理システム400について、図31および図32を用いて説明する。なお、説明の便宜上、上述した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム500の構成)
 図36は、実施形態10に係る情報処理システム500の構成の一例を示す機能ブロック図である。図36に示すように、情報処理システム500は、情報処理装置2に代えて情報処理装置5を備える点において情報処理システム200と異なり、その他の構成は同じである。
 図36に示すように、情報処理装置5は、制御部22および記憶部23に代えて制御部52および記憶部53を備えている点において情報処理装置2と異なる。制御部52は、信号抽出部521、姿勢判定部522、発生位置推定部524、および出力部523を備えている。信号抽出部521、姿勢判定部522、および出力部523は、それぞれ信号抽出部421、姿勢判定部422、および出力部423と同様であり、記憶部53は記憶部43と同様であるため、ここでは説明を省略する。
 発生位置推定部524は、信号抽出部421において抽出された蠕動音信号および姿勢判定部422で判定された姿勢に基づいて該蠕動音信号で示される蠕動音の発生位置を推定する。
 (情報処理システム500が行う処理)
 情報処理システム500が行う処理の流れについて、図37を用いて説明する。図37は、情報処理システム500が行う処理の流れの一例を示すフロー図である。
 図37に示すように、情報処理システム500は、ステップS501~S505の各処理を実行する。S501、S502、およびS505は、S201、S202およびS205とそれぞれ同様であるため、ここでの説明は省略する。
 制御部52の信号抽出部521は、S502においてセンサ11が出力した検知信号を取得すると、当該検知信号から蠕動音信号を抽出する(S503:第1の抽出ステップ)。
 姿勢判定部522は、センサ11が出力した検知信号を取得すると、当該検知信号に基づいて対象者W1の姿勢を判定する(S504:判定ステップ)。また、姿勢判定部522は、姿勢判定の結果を信号抽出部521に出力する。
 発生位置推定部524は、姿勢判定部522から取得した判定結果および信号抽出部521から取得した蠕動音信号に基づいて当該蠕動音で示される蠕動音の発生位置を推定する(S505:推定ステップ)。また、発生位置推定部524は、推定結果を出力部523に出力し、出力部523は当該推定結果を含む情報を通信装置3に出力してもよい。
 (情報処理システム500の構成における変形例)
 情報処理システム500の構成における変形例(以下、「情報処理システム500a」と記載する)について、図38および図39を用いて説明する。なお、説明の便宜上、上述した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 [情報処理システム500aの構成]
 情報処理システム500aの構成について、図38を用いて説明する。図38は、情報処理システム500aの構成の一例を示す機能ブロック図である。
 図38に示すように、情報処理システム500aは、情報処理装置5に代えて情報処理装置5aを備える点で情報処理システム500と異なり、その他の構成は同じである。
 図38に示すように、情報処理装置5aは、制御部52に代えて制御部52aを備えている点において情報処理装置5と異なる。制御部52aは、信号抽出部521に代えて信号抽出部521aを備え、さらに睡眠判定部525aを備える点において制御部52と異なる。
 信号抽出部521aは、上述の信号抽出部421bと同様であり、睡眠判定部525aは、上述の睡眠判定部425bと同様であるため、ここでは説明を省略する。
 [情報処理システム500aが行う処理]
 情報処理システム500aが行う処理の流れについて、図39を用いて説明する。図39は、情報処理システム500aが行う処理の流れの一例を示すフロー図である。
 図39に示すように、情報処理システム500aは、ステップS501、S502、S503a、S504、S506、およびS505の処理を実行する。S501、S502、S504、およびS505については、上述の記載と同様であり、S503aおよびS506については、S203aおよびS206とそれぞれ同様である。
 〔実施形態11〕
 本開示の他の実施形態11について、図40および図41を用いて説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム500bの構成)
 図40は、実施形態11に係る情報処理システム500bの構成の一例を示す機能ブロック図である。図40に示すように、情報処理システム500bは、情報処理装置5に代えて情報処理装置5bを備える点で情報処理システム500と異なり、その他の構成は同じである。
 図40に示すように、情報処理装置5bは、制御部52に代えて制御部52bを備える点において情報処理装置5と異なる。制御部52bは、さらに状態判定部526bを備える点において制御部52と異なる。状態判定部526bは、状態判定部126cと同様である。
 (情報処理システム500bが行う処理)
 情報処理システム500bが行う処理の流れについて、図41を用いて説明する。図41は、情報処理システム500bが行う処理の流れの一例を示すフロー図である。
 図41に示すように、情報処理システム500bは、ステップS501~S505、およびS507の処理を実行する。ステップS501~S505については、上述の記載と同様であり、S507は、S207と同様である。
 〔実施形態12〕
 本開示の他の実施形態12について、図42および図43を用いて説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム500bの構成)
 図42は、実施形態12に係る情報処理システム500cの構成の一例を示す機能ブロック図である。図42に示すように、情報処理システム500cは、情報処理装置5に代えて情報処理装置5cを備える点で情報処理システム500と異なり、その他の構成は同じである。
 図42に示すように、情報処理装置5cは、制御部52に代えて制御部52cを備える点において情報処理装置5と異なる。制御部52cは、さらに内容物位置推定部527cを備える点において制御部52と異なる。内容物位置推定部527cは、内容物位置推定部127dと同様である。
 (情報処理システム500cが行う処理)
 情報処理システム500cが行う処理の流れについて、図43を用いて説明する。図43は、情報処理システム500cが行う処理の流れの一例を示すフロー図である。
 図43に示すように、情報処理システム500cは、ステップS501~S505、およびS508の処理を実行する。ステップS501~S505については、上述の記載と同様であり、S508は、S208と同様である。
 〔表示例〕
 上述した各実施形態において通信装置3の表示部34に表示される表示画面の具体例を、図44を用いて説明する。図44は、情報処理システム100、100a~100d、200、200a~200c、400、400a~400d、500、500a~500cの表示部34に表示される表示画面の一例を示す図である。
 図44に示すように、表示部34には、対象者W1の振動を検知したセンサ11が出力する検知信号の波形データを表示する領域R1、信号抽出部121において抽出された蠕動音信号の波形データを表示する領域R2、蠕動音の発生位置Mの推定結果を表示する領域R3が表示されてもよい。
 上記では、情報処理システム100、100a~100d、200、200a~200c、400、400a~400d、500、500a~500cにおいて表示される表示画面の一例を示したがこれに限らない。各実施形態において実行される処理に関するあらゆる情報を表示してよく、任意の情報を選択して表示してもよい。
 〔変形例〕
 上述の各実施形態で説明した各処理の実行主体は任意であり、上述の例に限られない。例えば、制御部が実行する各処理は、1または複数の情報処理装置が実行してもよい。つまり、制御部が実行する各処理は、1つの情報処理装置がすべてを実行してもよいし、複数の情報処理装置が分担して実行してもよい。
 また、上述の各実施形態で説明した制御部が備える構成の各々は、任意に組み替え可能であり、上述の例に限られない。例えば、情報処理システムを構成する情報処理装置は、対象者W1の胃腸の状態を判定する状態判定部と、内容物の位置を推定する内容物位置推定部とを含むように構成されていてもよい。
 〔姿勢判定モデル、睡眠判定モデル、状態判定モデル、および位置推定モデルを生成するための機械学習〕
 姿勢判定モデル、睡眠判定モデル、状態判定モデル、および位置推定モデルを生成するための機械学習には、ニューラルネットワークやサポートベクタマシン等の公知の機械学習アルゴリズムが適用され得る。ここで、姿勢判定モデル、睡眠判定モデル、状態判定モデル、および位置推定モデルにニューラルネットワークを用いる場合について、図44および図46を用いて説明する。ニューラルネットワークは、例えば、図45に示すニューロンのモデルを模したニューラルネットワークを実現するプロセッサおよびメモリ等で構成される。図45は、ニューロンのモデルを説明するための模式図であり、図46は、ニューラルネットワークを説明するための図である。
 ニューラルネットワークは、例えば、複数のニューロンからなる入力層、複数のニューロンからなる隠れ層(中間層)、および複数のニューロンからなる出力層で構成される。ニューロンは、図45に示すように、複数の入力xに対する結果yを出力するものである。各入力xのそれぞれには、対応する重み係数wが積算される。図45において、例えば、入力xには重み係数wが積算され、入力xには重み係数wが積算され、入力xには重み係数wが積算される。ニューロンは、各入力についての積算結果を合算し、これにバイアスBを考慮した結果を活性化関数fに代入することにより結果yを出力する。
 続いて、ニューロンを組み合わせたニューラルネットワークについて、図46を用いて説明する。図46は、入力層L1、隠れ層L2、および出力層L3を有するニューラルネットワークを示す模式図である。図46に示すニューラルネットワークでは、入力層L1に複数の入力xが入力され、出力層L3から結果yが出力される。ニューラルネットワークにおいて、隠れ層の数は複数であってもよい。図46において、例えば、入力x~入力xは対応する重み係数wが積算されて3つのニューロンN1a~N1cの各々に入力される。ここで、ニューロンN1a~N1cはそれぞれ、p11~p13を出力するものとする。ベクトル(p11,p12,p13)は、入力ベクトル(x,x,x)の特徴量を抽出した特徴ベクトルとみなすことができる。この特徴ベクトル(p11,p12,p13)は、入力層L1と隠れ層L2との間の特徴ベクトルである。
 p11~p13は対応する重み係数wが積算されて2つのニューロンN2aおよびN2bの各々に入力される。ここで、ニューロンN2aおよびN2bはそれぞれ、p21およびp22を出力するものとする。ベクトル(p21,p22)は、隠れ層L2と出力層L3との間の特徴ベクトルである。
 p21およびp22は対応する重み係数wが積算されて3つのニューロンN3a~N3cの各々に入力される。ニューロンN3a~N3cはそれぞれ、結果y~結果yを出力する。
 ニューラルネットワークの動作には、学習モードと推定モードとがある。ニューラルネットワークは、学習モードにおいて説明変数と目的変数とを含む教師データを用いて重み係数wを示すパラメータを学習(調整)する。また、ニューラルネットワークは、推定モードにおいて、入力データ(例えば、特徴信号)から、学習によって調整済のパラメータを用いて推定結果を出力する。
 学習モードでは、教師データに含まれる説明変数が入力層L1に入力された場合に出力層L3から出力される結果と、該説明変数に対応する目的変数との間の誤差が算出され、この誤差が小さくなるようにパラメータが調整される。
 パラメータの調整には、任意の公知の方法が適用可能であり、例えば、誤差逆伝播法を適用してもよい。誤差が所定の範囲内に納まるまで、あるいは、教師データに含まれるすべての説明変数が入力されるまで、パラメータの調整を繰り返してもよい。
 〔ソフトウェアによる実現例〕
 情報処理システム100、100a~100d、200、200a~200c、400、400a~400dおよび、500、500a~500c(以下、「システム」と呼ぶ)、情報処理装置1、1a~1d、2、2a~2c、4、4a~4d、5、5a~5c(以下、「装置」と呼ぶ)の機能は、当該システムおよび当該装置としてコンピュータを機能させるためのプログラムであって、当該システムおよび当該装置の各制御ブロック(特に制御部に含まれる各部)としてコンピュータを機能させるためのプログラムにより実現することができる。
 この場合、上記装置は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。
 上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。
 また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本発明の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。
 また、上記各実施形態で説明した各処理は、AI(Artificial Intelligence:人工知能)に実行させてもよい。この場合、AIは上記制御装置で動作するものであってもよいし、他の装置(例えばエッジコンピュータまたはクラウドサーバ等)で動作するものであってもよい。
 〔付記事項1〕
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 〔まとめ〕
 上記の課題を解決するために、本開示の態様1に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発生られた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記検知信号に基づいて、前記対象者の姿勢を判定する姿勢判定部とを備え、前記信号抽出部は、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する。
 蠕動音とは、消化管が内容物(例えば、摂取した食物、ガスなど)を押し進めるために収縮する蠕動運動の際に発生する音である。対象者の胃腸に何らかの異常が生じている場合、当該対象者の蠕動音は、通常時の蠕動音と異なることがある。通常時と異なる蠕動音には、一例として、発生頻度の増減、音質の変化、強度の変化などが生じる。また、胃腸に生じる異常の種類によって発生する蠕動音が異なるため、対象者の蠕動音に基づいて該対象者の胃腸の状態を正確に推定することが可能になる。
 前記の構成によれば、情報処理システムは、対象者から発せられた振動を検知するセンサから出力される検知信号から蠕動音信号を抽出する。情報処理システムは、検知信号に基づいて対象者の姿勢を判定し、判定した姿勢に応じた信号強度を有する蠕動音信号を抽出する。
 これにより、情報処理システムは、対象者から発せられた振動に含まれている蠕動音を示す蠕動音信号のうち、該対象者の姿勢に応じた信号強度を有する蠕動音信号のみを抽出することが可能である。すなわち、測定時における対象者の姿勢に関わらず、蠕動音を適切に測定することが可能である。
 本開示の態様2に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記抽出された心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する姿勢判定部とを備え、前記信号抽出部は、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する。
 前記の構成によれば、情報処理システムは、対象者から発せられた振動を検知するセンサから出力される検知信号から心音信号および蠕動音信号を抽出する。情報処理システムは、心音信号から心弾動信号を特定し、特定した心弾動信号に基づいて対象者の姿勢を判定し、判定した姿勢に応じた信号強度を有する蠕動音信号を抽出する。これにより、上記態様1に係る情報処理システムと同様の効果を奏する。
 本開示の態様3に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記検知信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、前記抽出された蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する発生位置推定部と、を備える。
 前記の構成によれば、情報処理システムは、対象者から発せられた振動を検知するセンサから出力される検知信号から蠕動音信号を抽出する。情報処理システムは、検知信号に基づいて姿勢を判定し、抽出された蠕動音信号および判定された姿勢に基づいて蠕動音の発生位置を推定する。
 これにより、情報処理システムは、対象者から発せられた振動に含まれている蠕動音の発生位置を推定することが可能である。例えば、抽出した蠕動音信号が胃腸の異常を示す場合、医療関係者は、該蠕動音の発生位置で異常が発生しているとして、適切な処置を施すことができる。
 本開示の態様4に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記抽出された心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、前記抽出された蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する発生位置推定部と、を備える。
 前記の構成によれば、情報処理システムは、対象者から発せられた振動を検知するセンサから出力される検知信号から心音信号および蠕動音信号を抽出する。情報処理システムは、抽出した心音信号から特定される心弾動信号に基づいて姿勢を判定し、抽出された蠕動音信号および判定された姿勢に基づいて蠕動音の発生位置を推定する。これにより、上記態様3に係る情報処理システムと同様の効果を奏する。
 本開示の態様5に係る情報処理システムは、前記蠕動音の発生有無を判定する蠕動音発生判定部をさらに備え、前記蠕動音発生判定部は、前記抽出された蠕動音信号が、所定の周波数特性、所定時間における周波数特性の変化、所定の周波数における所定の信号強度、および、所定時間における所定の周波数の信号強度の変化の少なくともいずれかを有する場合に、前記蠕動音が発生したと判定してもよい。
 前記の構成によれば、情報処理システムは、対象者の蠕動音信号における周波数特性、信号強度、所定時間における周波数特性の変化、所定の周波数における所定の信号強度、および、所定時間における所定の周波数の信号強度の変化の少なくともいずれかを有する場合に、蠕動音が発生したと判定する。これにより、情報処理システムは、対象者から発せられた振動に含まれている蠕動音を正確に判定することができる。
 本開示の態様6に係る情報処理システムにおいて、前記信号抽出部は、前記検知信号から前記対象者の心弾動を示す心弾動信号をさらに抽出し、前記姿勢判定部は、前記心弾動信号に基づいて、前記対象者の姿勢を判定してもよい。
 前記の構成によれば、情報処理システムは、対象者から発せられた振動を検知するセンサから出力される検知信号から心弾動信号を抽出する。情報処理システムは、抽出した心弾動信号に基づいて対象者の姿勢を判定し、判定した姿勢に応じた信号強度を有する蠕動音信号を抽出する。これにより、上記態様1に係る情報処理システムと同様の効果を奏する。
 本開示の態様7に係る情報処理システムにおいて、前記センサは、前記検知信号を出力する複数の検知領域を有し、前記姿勢判定部は、前記複数の検知領域毎に出力された前記検知信号の信号強度を比較した結果に基づいて、前記対象者の姿勢を判定してもよい。
 前記の構成によれば、情報処理システムは、複数の検知領域の各々から出力される検知信号毎に蠕動音信号を抽出し、複数の領域毎に抽出された蠕動音信号の信号強度に基づいて対象者の姿勢を判定する。これにより、情報処理システムは、対象者から発せられた振動をセンサが検知した時点における、当該対象者の姿勢を精度良く判定することができる。
 本開示の態様8に係る情報処理システムにおいて、前記信号抽出部は、前記検知信号から、150~350Hzにピークを有する信号、および、400~700Hzにピークを有する信号の少なくとも一方を、前記蠕動音信号として抽出してもよい。
 前記の構成によれば、情報処理システムは、周波数特性に基づき、検知信号から蠕動音信号を抽出することができる。
 本開示の態様9に係る情報処理システムにおいて、前記姿勢判定部は、前記検知信号を説明変数とし、前記対象者の姿勢を目的変数とする教師データを用いて学習された姿勢判定モデルに、前記特定された前記検知信号を入力することにより、前記対象者の姿勢を判定してもよい。
 前記の構成によれば、情報処理システムは、機械学習されたモデルを用いることで、より精度よく対象者の姿勢を判定することができる。
 本開示の態様10に係る情報処理システムにおいて、前記センサは、前記検知信号を出力する複数の検知領域を有し、前記信号抽出部は、前記複数の検知領域毎に前記対象者の心弾動を示す心弾動信号を抽出し、前記姿勢判定部は、前記検知領域毎に抽出された前記心弾動信号の各々について、周波数特性および信号強度の少なくとも一方で比較した結果に基づいて、前記対象者の姿勢を判定してもよい。
 前記の構成によれば、情報処理システムは、複数の検知領域の各々から出力される検知信号の各々から、心弾動信号を抽出し、複数の検知領域毎に抽出された心弾動信号の周波数特性および信号強度の少なくとも一方に基づいて対象者の姿勢を判定する。これにより、情報処理システムは、対象者から発せられた振動をセンサが検知した時点における、当該対象者の姿勢をより精度良く判定することができる。
 本開示の態様11に係る情報処理システムにおいて、前記センサは、前記検知信号を出力する複数の検知領域を有し、前記信号抽出部は、前記複数の検知領域毎に前記対象者の心弾動を示す心弾動信号を抽出し、前記姿勢判定部は、前記複数の検知領域と同数の前記心弾動信号を説明変数とし、前記対象者の姿勢を目的変数とする教師データを用いて学習された姿勢判定モデルに、前記検知領域毎に抽出された前記心弾動信号の各々を入力することにより、前記対象者の姿勢を判定してもよい。
 前記の構成によれば、情報処理システムは、機械学習されたモデルを用いてより精度よく対象者の姿勢を判定することができる。
 本開示の態様12に係る情報処理システムにおいて、前記信号抽出部は、前記検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾を示す鼾信号の少なくともいずれかを含む特徴信号を抽出し、前記検知信号および前記特徴信号の少なくともいずれかに基づいて、前記対象者の睡眠状態を判定する睡眠判定部をさらに備え、前記蠕動音発生判定部は、前記対象者が睡眠状態であると判定された場合に、前記蠕動音の発生有無を判定してもよい。
 前記の構成によれば、情報処理システムは、検知信号および特徴信号の少なくともいずれかに基づいて、対象者の睡眠状態を判定し、睡眠状態と判定された場合に蠕動音の発生有無を判定する。対象者が睡眠状態の場合、体動が少ないため、情報処理システムは、精度よく蠕動音の発生有無を判定することができる。
 本開示の態様13に係る情報処理システムにおいて、前記睡眠判定部は、前記検知信号および前記特徴信号の少なくともいずれかを要素とする集合を説明変数とし、前記対象者の睡眠状態を目的変数とする教師データを用いて学習された睡眠判定モデルに、前記センサから出力された前記検知信号および当該検知信号から抽出された前記特徴信号のうち前記要素と同じ要素から成る集合を入力することにより、前記対象者の睡眠状態を判定してもよい。
 前記の構成によれば、情報処理システムは、機械学習されたモデルを用いてより精度よく対象者の睡眠状態を判定することができる。
 本開示の態様14に係る情報処理システムにおいて、前記信号抽出部は、前記検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾を示す鼾信号の少なくともいずれかを含む特徴信号を抽出し、前記検知信号および前記特徴信号の少なくともいずれかに基づいて、前記対象者の睡眠状態を判定する睡眠判定部をさらに備え、前記発生位置推定部は、前記対象者が睡眠状態であると判定された場合に、前記発生位置を推定してもよい。
 前記の構成によれば、前記の構成によれば、情報処理システムは、検知信号および特徴信号の少なくともいずれかに基づいて、対象者の睡眠状態を判定し、睡眠状態と判定された場合に蠕動音の発生位置を推定する。対象者が睡眠状態の場合、体動が少ないため、情報処理システムは、精度よく蠕動音の発生位置を推定することができる。
 本開示の態様15に係る情報処理システムにおいて、前記睡眠判定部は、前記検知信号および前記特徴信号の少なくともいずれかを要素とする集合を説明変数とし、前記対象者の睡眠状態を目的変数とする教師データを用いて学習された睡眠判定モデルに、前記センサから出力された前記検知信号および当該検知信号から抽出された前記特徴信号のうち前記要素と同じ要素から成る集合を入力することにより、前記対象者の睡眠状態を判定してもよい。
 前記の構成によれば、情報処理システムは、機械学習されたモデルを用いてより精度よく対象者の睡眠状態を判定することができる。
 本開示の態様16に係る情報処理システムにおいて、前記センサは、前記対象者が臥床するベッドと、前記ベッド上のマットレスとの間、前記マットレス上のベッドシーツと、前記マットレスとの間、前記ベッドの最上面、前記対象者が着座する椅子の背もたれ、または、前記椅子の座面、に設置されてもよい。
 前記の構成によれば、センサは、対象者に接触しない位置から該対象者から発せられた振動を検知することができる。これにより、該対象者に不快感を抱かせることなく胃腸の蠕動を把握することができる。
 本開示の態様17に係る情報処理システムにおいて、前記センサは、電極、および、前記電極の延伸方向に対して垂直方向に伸縮することにより電圧を発生させる圧電材料を含んでいてもよい。
 前記の構成によれば、センサを薄型化することが容易になるため、対象者に不快感を抱かせる可能性を低減することができる。
 本開示の態様18に係る情報処理システムにおいて、前記圧電材料は、発泡体であってもよい。
 前記構成によれば、センサは、対象者の発する振動をより高精度に検知することができる。
 本開示の態様19に係る情報処理システムにおいて、前記センサは、薄板状であってもよい。
 前記の構成によれば、センサを様々な箇所に取り付けることができる。例えば、対象者が着用する衣服等に取り付けることも可能である。
 本開示の態様20に係る情報処理システムにおいて、前記センサは、前記検知信号を出力する複数の検知領域を有し、前記信号抽出部は、前記複数の検知領域毎に前記蠕動音信号を抽出し、前記抽出された蠕動音信号の各々、前記検知領域の各々の配置を示す配置情報、および、前記判定された姿勢に基づき、前記対象者の胃腸の内容物の位置を推定する、内容物位置推定部をさらに備えていてもよい。
 前記構成によれば、情報処理システムは、複数の検知領域の各々から出力される検知信号毎に蠕動音信号を抽出する。情報処理システムは、抽出された蠕動音信号、検知領域の配置情報および判定された姿勢に基づき胃腸の内容物の位置を推定する。
 本開示の態様21に係る情報処理システムにおいて、前記内容物位置推定部は、前記蠕動音信号の各々、前記検知領域の各々の前記配置情報、および、前記対象者の姿勢を説明変数とし、前記内容物の前記位置を目的変数とする教師データを用いて学習された位置推定モデルに、前記抽出された蠕動音信号の各々、前記検知領域の各々の前記配置情報、前記判定された姿勢を入力することにより、前記内容物の前記位置を推定してもよい。
 前記構成によれば、情報処理システムは、機械学習されたモデルを用いてより精度よく対象者の胃腸における内容物の位置を推定することができる。
 本開示の態様22に係る情報処理システムは、前記抽出された蠕動音信号から前記対象者の胃腸の状態を判定する状態判定部をさらに備えていてもよい。
 前記構成によれば、情報処理システムは、抽出された蠕動音信号に対応する対象者の胃腸の状態を判定することができる。例えば、判定された胃腸の状態を参照した医療関係者は、対象者への医学的介入を早期に開始することができる。
 本開示の態様23に係る情報処理システムにおいて、前記状態は、イレウス、腹膜炎、便秘、および、下痢の少なくともいずれかであってもよい。
 前記構成によれば、対象者の胃腸の状態として、イレウス、腹膜炎、便秘および下痢の少なくともいずれかの場合を判定することができる。例えば、機能的イレウスや腹膜炎の場合には、蠕動音検知されなくなる。下痢や機械的イレウスの場合には、高音で高頻度の蠕動音を検知する。便秘の場合には、微弱で低音な蠕動音を検知する。
 本開示の態様24に係る情報処理システムにおいて、前記状態判定部は、前記蠕動音信号を説明変数とし、前記状態を目的変数とする教師データを用いて学習された状態判定モデルに、前記抽出された蠕動音信号を入力することにより、前記状態を判定してもよい。
 前記構成によれば、情報処理システムは、機械学習されたモデルを用いてより精度よく対象者の胃腸の状態を判定することができる。
 本開示の態様29に係る情報処理装置は、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記検知信号に基づいて、前記対象者の姿勢を判定する姿勢判定部とを備え、前記信号抽出部は、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する。この構成によれば、上記態様1に係る情報処理システムと同様の効果を奏する。
 本開示の態様30に係る情報処理装置は、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記抽出された心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する姿勢判定部とを備え、前記信号抽出部は、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する。この構成によれば、上記態様1に係る情報処理システムと同様の効果を奏する。
 本開示の態様31に係る情報処理装置は、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から前記対象者の蠕動音信号を抽出する信号抽出部とを備える信号抽出装置から取得した前記検知信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、前記信号抽出装置から取得した蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する発生位置推定部と、を備える。この構成によれば、上記態様3に係る情報処理システムと同様の効果を奏する。
 本開示の態様32に係る情報処理装置は、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部とを備える信号抽出装置から取得した前記心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、前記信号抽出装置から取得した蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する発生位置推定部と、を備える。この構成によれば、上記態様3に係る情報処理システムと同様の効果を奏する。
 本開示の態様33に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサから検知信号を出力する出力ステップと、前記出力された検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する抽出ステップと、前記検知信号に基づいて、前記対象者の姿勢を判定する判定ステップとを含み、抽出ステップでは、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する制御方法である。この構成によれば、上記態様1に係る情報処理システムと同様の効果を奏する。
 本開示の態様34に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサから検知信号を出力する出力ステップと、前記出力された検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する抽出ステップと、前記抽出された心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する判定ステップとを含み、抽出ステップでは、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する制御方法である。この構成によれば、上記態様1に係る情報処理システムと同様の効果を奏する。
 本開示の態様35に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサから検知信号を出力する出力ステップと、前記出力された検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する抽出ステップと、前記検知信号に基づいて、前記対象者の姿勢を判定する判定ステップと、前記抽出された蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する推定ステップと、を含む制御方法である。この構成によれば、上記態様3に係る情報処理システムと同様の効果を奏する。
 本開示の態様36に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサから検知信号を出力する出力ステップと、前記出力された検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する抽出ステップと、前記抽出された心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する判定ステップと、前記抽出された蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する推定ステップと、を含む制御方法である。この構成によれば、上記態様3と同様の効果を奏する。
 本発明の態様1~28に係る情報処理システム、および、態様29~32に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記情報処理システム、および、前記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより前記情報処理システム、および、前記情報処理装置をコンピュータにて実現させる前記情報処理システム、および、前記情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本開示の態様37に係るプログラムは、上記態様1または2に記載の情報処理システムとしてコンピュータを機能させるためのプログラムであって、前記信号抽出部および前記姿勢判定部としてコンピュータを機能させるためのプログラムである。
 本開示の態様38に係るプログラムは、上記態様3または4に記載の情報処理システムとしてコンピュータを機能させるためのプログラムであって、前記信号抽出部、前記姿勢判定部、および前記発生位置推定部としてコンピュータを機能させるためのプログラムである。
 〔まとめ2〕
 本開示の一側面に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記抽出された心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する姿勢判定部とを備え、前記信号抽出部は、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する。
 前記の構成によれば、情報処理システムは、対象者から発せられた振動を検知するセンサから出力される検知信号から心音信号と蠕動音信号とを抽出する。情報処理システムは、心音信号から特定される心弾動信号に基づいて姿勢を判定し、判定した姿勢に応じた信号強度を有する蠕動音信号を抽出する。
 これにより、情報処理システムは、対象者から発せられた振動に含まれている蠕動音を示す蠕動音信号のうち、該対象者の姿勢に応じた信号強度を有する蠕動音信号のみを抽出することが可能である。すなわち、測定時における対象者の姿勢に関わらず、蠕動音を適切に測定することが可能である。
 本開示の一側面に係る情報処理システムは、前記蠕動音の発生有無を判定する蠕動音発生判定部をさらに備え、前記蠕動音発生判定部は、前記抽出された蠕動音信号が、所定の周波数特性、および、所定の周波数における所定の信号強度の少なくともいずれかを有する場合に、前記蠕動音が発生したと判定してもよい。
 前記の構成によれば、情報処理システムは、対象者の蠕動音信号における周波数特定および信号強度の少なくともいずれかに基づいて、蠕動音の発生有無を判定する。これにより、情報処理システムは、対象者から発せられた振動に含まれている蠕動音を正確に判定することができる。
 本開示の一側面に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記抽出された心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、前記抽出された蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する発生位置推定部と、を備える。
 前記の構成によれば、情報処理システムは、対象者から発せられた振動を検知するセンサから出力される検知信号から心音信号と蠕動音信号とを抽出する。情報処理システムは、心音信号から特定される心弾動信号に基づいて姿勢を判定し、抽出された蠕動音信号および判定された姿勢に基づいて蠕動音の発生位置を推定する。
 これにより、情報処理システムは、対象者から発せられた振動に含まれている蠕動音の発生位置を推定することが可能である。例えば、抽出した蠕動音信号が胃腸の異常を示す場合、医療関係者は、該蠕動音の発生位置で異常が発生しているとして、適切な処置を施すことができる。
 本開示の一側面に係る情報処理システムにおいて、前記信号抽出部は、前記検知信号から、150~300Hzにピークを有する信号、および、500~700Hzにピークを有する信号の少なくとも一方を、前記蠕動音信号として抽出してもよい。
 前記の構成によれば、情報処理システムは、周波数特性に基づき、検知信号から蠕動音信号を抽出することができる。
 本開示の一側面に係る情報処理システムにおいて、前記姿勢判定部は、前記心弾動信号を説明変数とし、前記対象者の姿勢を目的変数とする教師データを用いて学習された姿勢判定モデルに、前記特定された前記心弾動信号を入力することにより、前記対象者の姿勢を判定してもよい。
 前記の構成によれば、情報処理システムは、機械学習されたモデルを用いることで、より精度よく対象者の姿勢を判定することができる。
 本開示の一側面に係る情報処理システムにおいて、前記センサは、前記検知信号を出力する複数の検知領域を有し、前記信号抽出部は、前記複数の検知領域毎に前記対象者の心弾動を示す心弾動信号を抽出し、前記姿勢判定部は、前記検知領域毎に抽出された前記心弾動信号の各々について、周波数特性および信号強度の少なくとも一方で比較した結果に基づいて、前記対象者の姿勢を判定してもよい。
 前記の構成によれば、情報処理システムは、複数の検知領域の各々から出力される検知信号の各々から、心弾動信号を抽出し、複数の検知領域毎に抽出された心弾動信号の周波数特性および信号強度の少なくとも一方に基づいて対象者の姿勢を判定する。これにより、情報処理システムは、対象者から発せられた振動をセンサが検知した時点における、当該対象者の姿勢をより精度良く判定することができる。
 本開示の一側面に係る情報処理システムにおいて、前記センサは、前記検知信号を出力する複数の検知領域を有し、前記信号抽出部は、前記対象者の心弾動を示す心弾動信号を抽出し、前記姿勢判定部は、前記複数の検知領域と同数の前記心弾動信号を説明変数とし、前記対象者の姿勢を目的変数とする教師データを用いて学習された姿勢判定モデルに、前記検知領域毎に抽出された前記心音信号から特定される前記心弾動信号の各々を入力することにより、前記対象者の姿勢を判定してもよい。
 前記の構成によれば、情報処理システムは、機械学習されたモデルを用いてより精度よく対象者の姿勢を判定することができる。
 本開示の一側面に係る情報処理システムにおいて、前記信号抽出部は、前記検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾を示す鼾信号の少なくともいずれかを含む特徴信号を抽出し、前記検知信号および前記特徴信号の少なくともいずれかに基づいて、前記対象者の睡眠状態を判定する睡眠判定部をさらに備え、前記蠕動音発生判定部は、前記対象者が睡眠状態であると判定された場合に、前記蠕動音の発生有無を判定してもよい。
 前記の構成によれば、情報処理システムは、検知信号および特徴信号の少なくともいずれかに基づいて、対象者の睡眠状態を判定し、睡眠状態と判定された場合に蠕動音の発生有無を判定する。対象者が睡眠状態の場合、体動が少ないため、情報処理システムは、精度よく蠕動音の発生有無を判定することができる。
 本開示の一側面に係る情報処理システムにおいて、前記信号抽出部は、前記検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾を示す鼾信号の少なくともいずれかを含む特徴信号を抽出し、前記検知信号および前記特徴信号の少なくともいずれかに基づいて、前記対象者の睡眠状態を判定する睡眠判定部をさらに備え、前記発生位置推定部は、前記対象者が睡眠状態であると判定された場合に、前記発生位置を推定してもよい。
 前記の構成によれば、情報処理システムは、検知信号および特徴信号の少なくともいずれかに基づいて、対象者の睡眠状態を判定し、睡眠状態と判定された場合に蠕動音の発生位置を推定する。対象者が睡眠状態の場合、体動が少ないため、情報処理システムは、精度よく蠕動音の発生位置を推定することができる。
 本開示の一側面に係る情報処理システムにおいて、前記睡眠判定部は、前記検知信号および前記特徴信号の少なくともいずれかを要素とする集合を説明変数とし、前記対象者の睡眠状態を目的変数とする教師データを用いて学習された睡眠判定モデルに、前記センサから出力された前記検知信号および当該検知信号から抽出された前記特徴信号のうち前記要素と同じ要素から成る集合を入力することにより、前記対象者の睡眠状態を判定してもよい。
 前記の構成によれば、情報処理システムは、機械学習されたモデルを用いてより精度よく対象者の睡眠状態を判定することができる。
 本開示の一側面に係る情報処理システムにおいて、前記センサは、前記対象者が臥床するベッドと、前記ベッド上のマットレスとの間、前記マットレス上のベッドシーツと、前記マットレスとの間、前記ベッドの最上面、前記対象者が着座する椅子の背もたれ、または、前記椅子の座面、に設置されてもよい。
 前記の構成によれば、センサは、対象者に接触しない位置から該対象者から発せられた振動を検知することができる。これにより、該対象者に不快感を抱かせることなく胃腸の蠕動を把握することができる。
 本開示の一側面に係る情報処理システムにおいて、前記センサは、電極、および、前記電極の延伸方向に対して垂直方向に伸縮することにより電圧を発生させる圧電材料を含んでいてもよい。
 前記の構成によれば、センサを薄型化することが容易になるため、対象者に不快感を抱かせる可能性を低減することができる。
 本開示の一側面に係る情報処理システムにおいて、前記圧電材料は、発泡体であってもよい。
 前記構成によれば、センサは、対象者の発する振動をより高精度に検知することができる。
 本開示の一側面に係る情報処理システムにおいて、前記センサは、薄板状であってもよい。
 前記の構成によれば、センサを様々な箇所に取り付けることができる。例えば、対象者が着用する衣服等に取り付けることも可能である。
 本開示の一側面に係る情報処理システムにおいて、前記センサは、前記検知信号を出力する複数の検知領域を有し、前記信号抽出部は、前記複数の検知領域毎に前記蠕動音信号を抽出し、前記抽出された蠕動音信号の各々、前記検知領域の各々の配置を示す配置情報、および、前記判定された姿勢に基づき、前記対象者の胃腸の内容物の位置を推定する、内容物位置推定部をさらに備えてもよい。
 前記構成によれば、情報処理システムは、複数の検知領域の各々から出力される検知信号毎に蠕動音信号を抽出する。情報処理システムは、抽出された蠕動音信号、検知領域の配置情報および判定された姿勢に基づき胃腸の内容物に位置を推定する。
 本開示の一側面に係る情報処理システムにおいて、前記内容物位置推定部は、前記蠕動音信号の各々、前記検知領域の各々の前記配置情報、および、前記対象者の姿勢を説明変数とし、前記内容物の前記位置を目的変数とする教師データを用いて学習された位置推定モデルに、前記抽出された蠕動音信号の各々、前記検知領域の各々の前記配置情報、前記判定された姿勢を入力することにより、前記内容物の前記位置を推定してもよい。
 前記構成によれば、情報処理システムは、機械学習されたモデルを用いてより精度よく対象者の胃腸における内容物の位置を推定することができる。
 本開示の一側面に係る情報処理システムは、前記抽出された蠕動音信号から前記対象者の胃腸の状態を判定する状態判定部をさらに備えてもよい。
 前記構成によれば、情報処理システムは、抽出された蠕動音信号に対応する対象者の胃腸の状態を判定することができる。例えば、判定された胃腸の状態を参照した医療関係者は、対象者への医学的介入を早期に開始することができる。
 本開示の一側面に係る情報処理システムにおいて、前記状態は、イレウス、腹膜炎、便秘、および、下痢の少なくともいずれかである。
 前記構成によれば、対象者の胃腸の状態として、イレウス、腹膜炎、便秘および下痢の少なくともいずれかの場合を判定することができる。例えば、機能的イレウスや腹膜炎の場合には、蠕動音検知されなくなる。下痢や機械的イレウスの場合には、高音で高頻度の蠕動音を検知する。便秘の場合には、微弱で低音な蠕動音を検知する。
 本開示の一側面に係る情報処理システムにおいて、前記状態判定部は、前記蠕動音信号を説明変数とし、前記状態を目的変数とする教師データを用いて学習された状態判定モデルに、前記抽出された蠕動音信号を入力することにより、前記状態を判定してもよい。
 前記構成によれば、情報処理システムは、機械学習されたモデルを用いてより精度よく対象者の胃腸の状態を判定することができる。
 本開示の一側面に係る情報処理装置は、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記抽出された心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する姿勢判定部とを備え、前記信号抽出部は、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する。この構成によれば、上記態様1に係る情報処理システムと同様の効果を奏する。
 本開示の一側面に係る情報処理装置は、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部とを備える信号抽出装置から取得した前記心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、前記信号抽出装置から取得した蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する発生位置推定部と、を備える。この構成によれば、上記態様3に係る情報処理システムと同様の効果を奏する。
 本開示の一側面に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサから検知信号を出力する出力ステップと、前記出力された検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する抽出ステップと、前記抽出された心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する判定ステップとを含み、抽出ステップでは、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する制御方法である。これにより、情報処理システムは、対象者から発せられた振動に含まれている蠕動音を示す蠕動音信号のうち、該対象者の姿勢に応じた信号強度を有する蠕動音信号のみを抽出することが可能である。すなわち、測定時における対象者の姿勢に関わらず、蠕動音を適切に測定することが可能である。
 本開示の一側面に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサから検知信号を出力する出力ステップと、前記出力された検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する抽出ステップと、前記抽出された心音信号から特定される心弾動を示す心弾動信号に基づいて、前記対象者の姿勢を判定する判定ステップと、前記抽出された蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する推定ステップと、を含む制御方法である。これにより、情報処理システムは、対象者から発せられた振動に含まれている蠕動音の発生位置を推定することが可能である。例えば、抽出した蠕動音信号が胃腸の異常を示す場合、医療関係者は、該蠕動音の発生位置で異常が発生しているとして、適切な処置を施すことができる。
 本開示の一側面係る情報処理システム、および、本開示の一側面に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記情報処理システム、および、前記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより前記情報処理システム、および、前記情報処理装置をコンピュータにて実現させる前記情報処理システム、および、前記情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 〔まとめ3〕
 本開示の態様1に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発生られた振動を検知するセンサと、前記センサから出力される検知信号に基づき、前記対象者の胃腸の蠕動音の発生有無を判定する蠕動音発生判定部と、を備える。
 本開示の態様2に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発生られた振動を検知するセンサと、前記センサから出力される検知信号に基づき、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、を備える。
 本開示の態様3に係る情報処理システムは、上記態様2において、前記対象者の姿勢を判定する姿勢判定部を備え、前記信号抽出部は、前記判定された姿勢に応じた前記蠕動音信号を抽出してもよい。
 本開示の態様4に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発生られた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記検知信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、を備え、前記信号抽出部は、前記判定された姿勢に応じた前記蠕動音信号を抽出する。
 本開示の態様5に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記抽出された心音信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、を備え、前記信号抽出部は、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する。
 本開示の態様6に係る情報処理システムは、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、前記対象者の姿勢を判定する姿勢判定部と、前記抽出された蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する発生位置推定部と、を備える。
 本開示の一側面に係る情報処理システムは、上記態様3から5のいずれかにおいて、前記センサは、前記検知信号を出力する複数の検知領域を有し、前記姿勢判定部は、前記複数の検知領域毎に出力された前記検知信号の信号強度を比較した結果に基づいて、前記対象者の姿勢を判定してもよい。
 本開示の態様8に係る情報処理システムは、上記態様3から6のいずれかにおいて、前記センサは、前記検知信号を出力する複数の検知領域を有し、前記信号抽出部は、前記複数の検知領域毎に前記対象者の心音を示す心音信号を抽出し、前記姿勢判定部は、前記検知領域毎に抽出された前記心音信号の各々について、周波数特性および信号強度の少なくとも一方で比較した結果に基づいて、前記対象者の姿勢を判定してもよい。
 本開示の態様9に係る情報処理システムは、上記態様1において、前記対象者の睡眠状態を判定する睡眠判定部をさらに備え、前記蠕動音発生判定部は、前記対象者が睡眠状態であると判定された場合に、前記蠕動音の発生有無を判定してもよい。
 本開示の態様10に係る情報処理システムは、上記態様1または9において、前記センサから出力される検知信号に基づき、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部を備え、前記信号抽出部は、前記検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾を示す鼾信号の少なくともいずれかを含む特徴信号を抽出し、前記検知信号および前記特徴信号の少なくともいずれかに基づいて、前記対象者の睡眠状態を判定する睡眠判定部をさらに備え、前記蠕動音発生判定部は、前記対象者が睡眠状態であると判定された場合に、前記蠕動音の発生有無を判定してもよい。
 本開示の態様11に係る情報処理システムは、上記態様6において、前記信号抽出部は、前記検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾を示す鼾信号の少なくともいずれかを含む特徴信号を抽出し、前記検知信号および前記特徴信号の少なくともいずれかに基づいて、前記対象者の睡眠状態を判定する睡眠判定部をさらに備え、前記発生位置推定部は、前記対象者が睡眠状態であると判定された場合に、前記発生位置を推定してもよい。
 本開示の態様12に係る情報処理システムは、上記態様1から11のいずれかにおいて、前記センサは、前記対象者が臥床するベッドと、前記ベッド上のマットレスとの間、前記マットレス上のベッドシーツと、前記マットレスとの間、前記ベッドの最上面、前記対象者が着座する椅子の背もたれ、または、前記椅子の座面、に設置されてもよい。
 本開示の態様13に係る情報処理システムは、上記態様1から12のいずれかにおいて、前記センサは、電極、および、前記電極の延伸方向に対して垂直方向に伸縮することにより電圧を発生させる圧電材料を含んでいてもよい。
 本開示の態様14に係る情報処理システムは、上記態様13において、前記圧電材料は、発泡体であってもよい。
 本開示の態様15に係る情報処理システムは、上記態様1から14のいずれかにおいて、前記センサは、薄板状であってもよい。
 本開示の態様16に係る情報処理システムは、上記態様1から15のいずれかにおいて、前記センサから出力される検知信号に基づき、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部を備え、前記センサは、前記検知信号を出力する複数の検知領域を有し、前記信号抽出部は、前記複数の検知領域毎に前記蠕動音信号を抽出し、前記抽出された蠕動音信号の各々、前記検知領域の各々の配置を示す配置情報、および、前記判定された姿勢に基づき、前記対象者の胃腸の内容物の位置を推定する、内容物位置推定部をさらに備えていてもよい。
 本開示の態様17に係る情報処理システムは、上記態様1から16のいずれかにおいて、前記抽出された蠕動音信号から前記対象者の胃腸の状態を判定する状態判定部をさらに備えていてもよい。
 本開示の態様18に係る情報処理システムは、上記態様17において、前記状態は、イレウス、腹膜炎、便秘、および、下痢の少なくともいずれかであってもよい。
 本開示の態様19に係る情報処理システムは、上記態様17または18において、前記状態判定部は、前記蠕動音信号を説明変数とし、前記状態を目的変数とする教師データを用いて学習された状態判定モデルに、前記抽出された蠕動音信号を入力することにより、前記状態を判定してもよい。
 本開示の態様20に係る情報処理装置は、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、を備える。
 本開示の態様21に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサから検知信号を出力する出力ステップと、前記出力された検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する抽出ステップと、前記検知信号に基づいて、前記対象者の姿勢を判定する判定ステップと、を含む。
 本開示の態様22に係るプログラムは、上記態様1に記載の情報処理システムとしてコンピュータを機能させるためのプログラムであって、前記蠕動音発生判定部としてコンピュータを機能させるためのプログラムである。
 本開示の態様23に係るプログラムは、上記態様2に記載の情報処理システムとしてコンピュータを機能させるためのプログラムであって、前記信号抽出部としてコンピュータを機能させるためのプログラムである。
 100、100a、100b、100c、100d、200、200a、200b、200c、400、400a、400b、400c、400d、500、500a、500b、500c 情報処理システム
 1、1a、1b、1c、1d、2、2a、2b、2c、4、4a、4b、4c、4d、5、5a、5b、5c 情報処理装置
 3 通信装置
 11 センサ
 121、121b、221、421、421b、521、521a 信号抽出部
 122、422、522 姿勢判定部
 123、423、523 出力部
 124a、424a 蠕動音発生判定部
 125b、225、425b、525a 睡眠判定部
 126c、226、426c、526b 状態判定部
 127d、227、427d、527c 内容物位置推定部

Claims (23)

  1.  対象者に接触しない所定位置に配置され、前記対象者から発生られた振動を検知するセンサと、
     前記センサから出力される検知信号に基づき、前記対象者の胃腸の蠕動音の発生有無を判定する蠕動音発生判定部と、
    を備える情報処理システム。
  2.  対象者に接触しない所定位置に配置され、前記対象者から発生られた振動を検知するセンサと、
     前記センサから出力される検知信号に基づき、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、
    を備える情報処理システム。
  3.  前記対象者の姿勢を判定する姿勢判定部を備え、
     前記信号抽出部は、前記判定された姿勢に応じた前記蠕動音信号を抽出する、
    請求項2に記載の情報処理システム。
  4.  対象者に接触しない所定位置に配置され、前記対象者から発生られた振動を検知するセンサと、
     前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、
     前記検知信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、を備え、
     前記信号抽出部は、前記判定された姿勢に応じた前記蠕動音信号を抽出する、
    情報処理システム。
  5.  対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、
     前記センサから出力される検知信号から、前記対象者の心音を示す心音信号、および、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、
     前記抽出された心音信号に基づいて、前記対象者の姿勢を判定する姿勢判定部と、を備え、
     前記信号抽出部は、前記判定された姿勢に応じた信号強度を有する前記蠕動音信号を抽出する、
    情報処理システム。
  6.  対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、
     前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、
     前記対象者の姿勢を判定する姿勢判定部と、
     前記抽出された蠕動音信号および前記判定された姿勢に基づいて、当該蠕動音信号で示される前記蠕動音の発生位置を推定する発生位置推定部と、
    を備える情報処理システム。
  7.  前記センサは、前記検知信号を出力する複数の検知領域を有し、
     前記姿勢判定部は、前記複数の検知領域毎に出力された前記検知信号の信号強度を比較した結果に基づいて、前記対象者の姿勢を判定する、
    請求項3から6のいずれか1項に記載の情報処理システム。
  8.  前記センサは、前記検知信号を出力する複数の検知領域を有し、
     前記信号抽出部は、前記複数の検知領域毎に前記対象者の心音を示す心音信号を抽出し、
     前記姿勢判定部は、前記検知領域毎に抽出された前記心音信号の各々について、周波数特性および信号強度の少なくとも一方で比較した結果に基づいて、前記対象者の姿勢を判定する、
    請求項3から6のいずれか1項に記載の情報処理システム。
  9.  前記対象者の睡眠状態を判定する睡眠判定部をさらに備え、
     前記蠕動音発生判定部は、前記対象者が睡眠状態であると判定された場合に、前記蠕動音の発生有無を判定する、
    請求項1に記載の情報処理システム。
  10.  前記センサから出力される検知信号に基づき、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部を備え、
     前記信号抽出部は、前記検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾を示す鼾信号の少なくともいずれかを含む特徴信号を抽出し、
     前記検知信号および前記特徴信号の少なくともいずれかに基づいて、前記対象者の睡眠状態を判定する睡眠判定部をさらに備え、
     前記蠕動音発生判定部は、前記対象者が睡眠状態であると判定された場合に、前記蠕動音の発生有無を判定する、
    請求項1または9に記載の情報処理システム。
  11.  前記信号抽出部は、前記検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾を示す鼾信号の少なくともいずれかを含む特徴信号を抽出し、
     前記検知信号および前記特徴信号の少なくともいずれかに基づいて、前記対象者の睡眠状態を判定する睡眠判定部をさらに備え、
     前記発生位置推定部は、前記対象者が睡眠状態であると判定された場合に、前記発生位置を推定する、
    請求項6に記載の情報処理システム。
  12.  前記センサは、
      前記対象者が臥床するベッドと、前記ベッド上のマットレスとの間、
      前記マットレス上のベッドシーツと、前記マットレスとの間、
      前記ベッドの最上面、
      前記対象者が着座する椅子の背もたれ、または、
      前記椅子の座面、に設置される、
    請求項1から11のいずれか1項に記載の情報処理システム。
  13.  前記センサは、電極、および、前記電極の延伸方向に対して垂直方向に伸縮することにより電圧を発生させる圧電材料を含む、
    請求項1から12のいずれか1項に記載の情報処理システム。
  14.  前記圧電材料は、発泡体である、
    請求項13に記載の情報処理システム。
  15.  前記センサは、薄板状である、
    請求項1から14のいずれか1項に記載の情報処理システム。
  16.  前記センサから出力される検知信号に基づき、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部を備え、
     前記センサは、前記検知信号を出力する複数の検知領域を有し、
     前記信号抽出部は、前記複数の検知領域毎に前記蠕動音信号を抽出し、
     前記抽出された蠕動音信号の各々、前記検知領域の各々の配置を示す配置情報、および、前記判定された姿勢に基づき、前記対象者の胃腸の内容物の位置を推定する、内容物位置推定部をさらに備える、
    請求項1から15のいずれか1項に記載の情報処理システム。
  17.  前記抽出された蠕動音信号から前記対象者の胃腸の状態を判定する状態判定部をさらに備える、
    請求項1から16のいずれか1項に記載の情報処理システム。
  18.  前記状態は、イレウス、腹膜炎、便秘、および、下痢の少なくともいずれかである、
    請求項17に記載の情報処理システム。
  19.  前記状態判定部は、前記蠕動音信号を説明変数とし、前記状態を目的変数とする教師データを用いて学習された状態判定モデルに、前記抽出された蠕動音信号を入力することにより、前記状態を判定する、
    請求項17または18に記載の情報処理システム。
  20.  対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサと、
     前記センサから出力される検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する信号抽出部と、
    を備える、
    情報処理装置。
  21.  1または複数の情報処理装置により実行される制御方法であって、
     対象者に接触しない所定位置に配置され、前記対象者から発せられた振動を検知するセンサから検知信号を出力する出力ステップと、
     前記出力された検知信号から、前記対象者の胃腸の蠕動音を示す蠕動音信号を抽出する抽出ステップと、
     前記検知信号に基づいて、前記対象者の姿勢を判定する判定ステップと、を含む、
    制御方法。
  22.  請求項1に記載の情報処理システムとしてコンピュータを機能させるためのプログラムであって、前記蠕動音発生判定部としてコンピュータを機能させるためのプログラム。
  23.  請求項2に記載の情報処理システムとしてコンピュータを機能させるためのプログラムであって、前記信号抽出部としてコンピュータを機能させるためのプログラム。
PCT/JP2023/043150 2022-12-12 2023-12-01 情報処理システム、情報処理装置、制御方法、およびプログラム WO2024128038A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2022-198128 2022-12-12
JP2022198128 2022-12-12
JP2023056099 2023-03-30
JP2023-056099 2023-03-30

Publications (1)

Publication Number Publication Date
WO2024128038A1 true WO2024128038A1 (ja) 2024-06-20

Family

ID=91484836

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/043150 WO2024128038A1 (ja) 2022-12-12 2023-12-01 情報処理システム、情報処理装置、制御方法、およびプログラム

Country Status (1)

Country Link
WO (1) WO2024128038A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060025699A1 (en) * 2004-07-28 2006-02-02 Cardiac Pacemakers, Inc. Determining a patient's posture from mechanical vibrations of the heart
JP2013150723A (ja) * 2012-01-25 2013-08-08 Sharp Corp 蠕動音検出装置、蠕動音検出方法、プログラム、および記録媒体
JP2016144627A (ja) * 2015-01-29 2016-08-12 パラマウントベッド株式会社 生体情報出力装置、生体情報出力方法及びプログラム
JP2019098069A (ja) * 2017-12-07 2019-06-24 パラマウントベッド株式会社 姿勢判定装置
CN111281349A (zh) * 2020-03-12 2020-06-16 北京曙光易通技术有限公司 睡眠呼吸障碍监测方法及系统
JP2020151358A (ja) * 2019-03-22 2020-09-24 国立大学法人電気通信大学 睡眠時無呼吸症候群判定装置、睡眠時無呼吸症候群判定方法および睡眠時無呼吸症候群判定プログラム
JP2021074238A (ja) * 2019-11-07 2021-05-20 国立大学法人徳島大学 測定装置及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060025699A1 (en) * 2004-07-28 2006-02-02 Cardiac Pacemakers, Inc. Determining a patient's posture from mechanical vibrations of the heart
JP2013150723A (ja) * 2012-01-25 2013-08-08 Sharp Corp 蠕動音検出装置、蠕動音検出方法、プログラム、および記録媒体
JP2016144627A (ja) * 2015-01-29 2016-08-12 パラマウントベッド株式会社 生体情報出力装置、生体情報出力方法及びプログラム
JP2019098069A (ja) * 2017-12-07 2019-06-24 パラマウントベッド株式会社 姿勢判定装置
JP2020151358A (ja) * 2019-03-22 2020-09-24 国立大学法人電気通信大学 睡眠時無呼吸症候群判定装置、睡眠時無呼吸症候群判定方法および睡眠時無呼吸症候群判定プログラム
JP2021074238A (ja) * 2019-11-07 2021-05-20 国立大学法人徳島大学 測定装置及びプログラム
CN111281349A (zh) * 2020-03-12 2020-06-16 北京曙光易通技术有限公司 睡眠呼吸障碍监测方法及系统

Similar Documents

Publication Publication Date Title
US20200029832A1 (en) Abnormality reporting device, recording medium, and abnormality reporting method
CN111417343B (zh) 姿势判定装置
US20200110194A1 (en) Multidimensional Multivariate Multiple Sensor System
WO2020167489A1 (en) Systems and methods for generating synthetic cardio-respiratory signals
US20220079514A1 (en) Intelligent weight support system
JP2004024684A (ja) 無呼吸症候群の検査装置
JP2022541737A (ja) 心臓監視システムおよび方法
JP2022525985A (ja) 前頭部脳活動モニタリングセンサからの情報に基づいた深い睡眠の強化
WO2024128038A1 (ja) 情報処理システム、情報処理装置、制御方法、およびプログラム
US20240060815A1 (en) Multidimensional Multivariate Multiple Sensor System
JP7034687B2 (ja) 異常報知装置及びプログラム
TW201937440A (zh) 睡眠裝置及睡眠系統
TWI816104B (zh) 偵測睡眠呼吸中止的電子裝置和方法
JPH05245148A (ja) 睡眠感推定装置及び目覚し装置
JP7369702B2 (ja) 高周波胸壁オシレータ
WO2023140317A1 (ja) 情報処理システム、検知装置、サーバ装置、情報処理装置、制御方法、プログラム
WO2023189853A1 (ja) 健康状態判定方法、及び、健康状態判定システム
JP2021068396A (ja) 生体情報管理システム
JP2024022523A (ja) 情報処理システム、情報処理装置、判定装置、制御方法、およびプログラム
KR102395864B1 (ko) 압전센서를 이용한 호흡 상태 측정 시스템
JP2020174967A (ja) 情報処理装置、褥瘡リスク評価方法及び褥瘡リスク評価プログラム
US20230137904A1 (en) System and method for generating and visualizing virtual figures from pressure data captured using weight support devices for visualization of user movement
JP7261913B2 (ja) 異常報知装置、プログラム及び異常報知方法
JP7294707B2 (ja) 睡眠監視カプセル及び睡眠監視システム
CN117999029A (zh) 信息处理系统、检测装置、服务器装置、信息处理装置、控制方法及程序