WO2023140317A1 - 情報処理システム、検知装置、サーバ装置、情報処理装置、制御方法、プログラム - Google Patents

情報処理システム、検知装置、サーバ装置、情報処理装置、制御方法、プログラム Download PDF

Info

Publication number
WO2023140317A1
WO2023140317A1 PCT/JP2023/001494 JP2023001494W WO2023140317A1 WO 2023140317 A1 WO2023140317 A1 WO 2023140317A1 JP 2023001494 W JP2023001494 W JP 2023001494W WO 2023140317 A1 WO2023140317 A1 WO 2023140317A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
signal
sound signal
information processing
output
Prior art date
Application number
PCT/JP2023/001494
Other languages
English (en)
French (fr)
Inventor
浩造 中村
康之 白坂
章太 上西
純一 松崎
Original Assignee
積水化学工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 積水化学工業株式会社 filed Critical 積水化学工業株式会社
Priority to CN202380013655.XA priority Critical patent/CN117999029A/zh
Priority to KR1020247008525A priority patent/KR20240042112A/ko
Publication of WO2023140317A1 publication Critical patent/WO2023140317A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records

Definitions

  • the present disclosure relates to an information processing system that detects vibrations emitted by a subject, a detection device, a server device, an information processing device, a control method of the information processing system, and the like.
  • Patent Literature 1 discloses a sensor system in which a mat having a large number of sensors is arranged so as to cover the mattress.
  • the vibrations emitted by the subject may reflect abnormalities in the subject's body.
  • the device disclosed in Patent Document 1 when using a sensor that directly touches the subject's skin with the vibrations emitted by the subject, the subject may feel uncomfortable when the sensor touches the skin. There is a possibility that the vibration measured under the condition that the subject feels uncomfortable does not show an appropriate value. Therefore, the device disclosed in Patent Literature 1 may not be able to accurately diagnose an abnormality in the subject's body.
  • An information processing system includes a signal extracting unit that extracts a feature signal including at least one of a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal indicating the respiratory vibration of the subject, and a body motion signal indicating the body movement of the subject, and a body sound signal indicating the body sound generated from the body of the subject, from detection signals output from a sensor that detects vibrations emitted by the subject at a position that does not contact the subject, and a sleep that determines that the subject is in a sleeping state based on the extracted feature signal.
  • a determination unit and a first output control unit that outputs the body sound signal for a period during which the subject is determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • the information processing system includes: a signal extraction unit that extracts a feature signal including at least one of a heartbeat signal indicating the subject's heartbeat, a respiratory vibration signal indicating the subject's respiratory vibration, and a body motion signal indicating the subject's body movement, and a body sound signal indicating a body sound generated within the subject's body, from detection signals output from a sensor that detects vibration generated by the subject at a position that does not contact the subject; A posture determination unit that determines that a person is in a predetermined posture, and a second output control unit that outputs the body sound signal during a period in which the subject is determined to be in the predetermined posture when the subject is determined to be in the predetermined posture.
  • a detection device includes: a sensor that detects vibrations generated by a subject at a position that does not contact the subject; a signal extraction unit that extracts, from detection signals output from the sensor, a heartbeat signal indicating the subject's heartbeat, a respiratory vibration signal that indicates the subject's respiratory vibration, and a body motion signal that indicates body movement of the subject; and a first output control unit that outputs the body sound signal during the period in which the subject is determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • a detection device includes: a sensor that detects vibrations generated by a subject at a position that does not contact the subject; a signal extraction unit that extracts, from detection signals output from the sensor, a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal indicating respiratory vibration of the subject, and a body motion signal indicating body movement of the subject; A posture determination unit that determines that the subject is in a predetermined posture, and a second output control unit that outputs the body sound signal during the period in which the subject is determined to be in the predetermined posture when it is determined that the subject is in the predetermined posture.
  • a server device acquires the body sound signal output from the detection device according to aspect 3 or 4, compares the body sound signal with a predetermined reference body sound signal, and determines the health condition of the subject, and an intervention recommendation output unit that outputs an intervention recommendation notification that recommends medical intervention for the subject when the health condition determination unit determines that the health condition of the subject is abnormal.
  • An information processing apparatus acquires a detection signal output from a sensor that detects vibrations generated by a subject at a position not in contact with the subject, from the detection signal, a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal indicating respiratory vibration of the subject, and a body motion signal indicating body movement of the subject.
  • a sleep determination unit that determines that the subject is in a sleeping state
  • a first output control unit that outputs the body sound signal during the period in which the subject is determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • An information processing apparatus acquires a detection signal output from a sensor that detects vibrations generated by a subject at a position that does not contact the subject, from the detection signal, a heartbeat signal indicating the subject's heartbeat, a respiratory vibration signal indicating the subject's respiratory vibration, and a body motion signal indicating body movement of the subject.
  • a posture determination unit that determines that the subject is in a predetermined posture
  • a second output control unit that outputs the body sound signal during the period in which the subject is determined to be in the predetermined posture when it is determined that the subject is in the predetermined posture.
  • a control method is a control method executed by one or a plurality of information processing devices, and includes a signal extraction step of extracting a feature signal including at least one of a heartbeat signal indicating the subject's heartbeat, a respiratory vibration signal indicating the subject's respiratory vibration, and a body motion signal indicating the subject's body movement, and a body sound signal indicating the body sound generated from the subject's body, from detection signals output from a sensor that detects vibrations generated by the subject at a position not in contact with the subject, and extracting the extracted feature signal.
  • a sleep determination step of determining that the subject is in a sleeping state based on the above; and a first output control step of outputting the body sound signal during the period during which the subject is determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • a control method is a control method executed by one or more information processing devices, and includes a signal extraction step of extracting a feature signal including at least one of a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal indicating respiratory vibration of the subject, and a body motion signal indicating the body movement of the subject, and a body sound signal representing a body sound generated from the body of the subject, from detection signals output from a sensor that detects vibrations generated by the subject at a position not in contact with the subject; a posture determination step of determining that the subject is in a predetermined posture based on at least one of the characteristic signals; and a second output control step of outputting the body sound signal during the period during which the subject is determined to be in the predetermined posture when it is determined that the subject is in the predetermined posture.
  • a control method according to aspect 10 of the present disclosure is a control method executed by one or more server devices, wherein the body sound signal output from the one or more information processing devices that execute the control method according to aspect 8 or 9 is obtained, and the body sound signal is compared with a predetermined reference body sound signal to determine a health condition of the subject, and if the health condition of the subject is determined to be abnormal in the health condition determination step, medical intervention for the subject is recommended. and an intervention recommendation output step of outputting an intervention recommendation notice.
  • the information processing system, the detection device, the server device, and the information processing device according to each aspect of the present disclosure may be realized by a computer.
  • the information processing system, the detection device, the server device, and the control program of the information processing device, and the computer-readable recording medium recording it which cause the information processing system, the detection device, and the server device to be realized by the computer by operating the computer as each part (software element) provided in the information processing system, the detection device, the server device, and the information processing device, and the computer-readable recording medium recording it fall within the scope of the present disclosure.
  • the vibration generated by the subject can be accurately measured.
  • FIG. 1 is a conceptual diagram showing an example of the configuration of an information processing system; FIG. It is a figure which shows an example of schematic structure of a detection apparatus. It is a figure which shows another example of schematic structure of a detection apparatus. It is a figure which shows another example of schematic structure of a detection apparatus. 1 is a functional block diagram showing an example of the configuration of an information processing system; FIG. It is a figure explaining various signals contained in a detection signal. FIG.
  • FIG. 2 is a diagram for explaining various sounds that can be included in lung sounds and representative cases corresponding to the various sounds; 4 is a flowchart illustrating an example of the flow of processing performed by an information processing system; 4 is a flowchart showing another example of the flow of processing performed by the information processing system; 1 is a functional block diagram showing an example of the configuration of an information processing system; FIG. 4 is a flowchart illustrating an example of the flow of processing performed by an information processing system; 1 is a functional block diagram showing an example of the configuration of an information processing system; FIG.
  • FIG. 4 is a flowchart illustrating an example of the flow of processing performed by an information processing system; It is a flowchart which shows an example of the flow of the process which determines a subject's health condition which an information processing system performs. It is a figure which shows an example of the display screen displayed on the display part of a communication apparatus.
  • 1 is a functional block diagram showing an example of the configuration of an information processing system;
  • FIG. 1 is a functional block diagram showing an example of the configuration of an information processing system;
  • FIG. 1 is a functional block diagram showing an example of the configuration of an information processing system;
  • FIG. 4 is a schematic diagram for explaining a neuron model;
  • FIG. 4 is a diagram for explaining a neural network;
  • 2 is a sonogram showing internal body sounds of a healthy subject at the time of awakening (immediately after entering the bed).
  • 2 is a sonogram showing an example of body sound signals during sleep of a healthy subject.
  • FIG. 11 is a sonogram showing an example of a body sound signal of a healthy subject (left lying position);
  • FIG. 2 is a sonogram showing an example of a body sound signal of a healthy subject (supine position).
  • 2 is a sonogram showing an example of a lung sound signal including a crackle signal of a healthy subject.
  • 1 is a sonogram showing an example of a lung sound signal including a bleep signal of a non-healthy subject.
  • FIG. 4 is a diagram showing an example of a power spectrum of a lung sound signal of a healthy subject (supine position);
  • FIG. 4 is a diagram showing an example of a power spectrum of a lung sound signal including a crackle signal of a non-healthy person.
  • 4 is a diagram showing an example of a power spectrum of a lung sound signal including a blister sound signal of a non-healthy person.
  • 4 is a sonogram showing an example of a heartbeat signal of a healthy subject. It is a sonogram which shows an example of a healthy person's body motion signal.
  • 2 is a sonogram showing an example of a breath sound signal of a healthy subject (at wakefulness).
  • 2 is a sonogram showing an example of a breath sound signal of a healthy person (during sleep).
  • FIG. 1 An embodiment of the present disclosure will be described in detail below with reference to FIGS. 1 to 9.
  • FIG. 1 An embodiment of the present disclosure will be described in detail below with reference to FIGS. 1 to 9.
  • the information processing system 100 is a system that outputs at least one of a body sound signal of the target person when the target person is in a sleeping state and a body sound signal of the target person when the target person is in a predetermined posture, based on a detection signal output from a sensor that detects vibrations generated by the target person at a position not in contact with the target person.
  • a "subject” is typically a person who requires monitoring by medical personnel, such as a patient lying on a bed.
  • a “detection signal” is a signal indicating vibration generated by a subject, and is raw data output from a sensor, or data obtained by subjecting the raw data to amplification processing or noise removal processing. Noise removal processing can be performed, for example, by filtering a region above 2000 Hz of raw data.
  • a “predetermined posture” is a good posture suitable for detection by a sensor, and is, for example, at least one of a right lying position, a left lying position, a supine position, a prone position, and a sitting position.
  • a “body sound signal” is a signal indicating internal sounds generated from the subject's body, and includes at least one of a lung sound signal indicating lung sounds of the subject, a blood flow sound signal indicating blood flow sounds of the subject, a heart sound signal indicating heart sounds of the subject, a bowel sound signal indicating bowel sounds of the subject, and a peristaltic sound signal indicating peristaltic sounds of the subject.
  • FIG. 1 is a conceptual diagram showing an example of the configuration of an information processing system 100. As shown in FIG.
  • the information processing system 100 may include a detection device 1 (information processing device) and a communication device 3 (information processing device).
  • the information processing system 100 may have one detection device 1 and one communication device 3, or may have more than one.
  • the detection device 1 analyzes the detection signal indicating the vibration emitted by the subject, output from the sensor 11 (FIG. 2, etc.) that detects the vibration emitted by the subject at a position that does not touch the subject, and determines that the subject is in at least one of (a) a sleeping state and (b) a predetermined posture.
  • the detection device 1 outputs to the outside the body sound signal extracted from the detection signal detected during the period in which the determination is made.
  • the output destination of the body sound signal is typically the communication device 3 .
  • the communication device 3 is typically a computer, a smart phone, a tablet terminal, or the like used by medical personnel or the like, and is installed in a nurse center, for example.
  • the detection device 1 extracts a body sound signal or the like from the detection signal by performing processing such as frequency analysis on the detection signal output from the sensor 11 .
  • This extraction process is performed independently of the determination process (a) or (b) above, and is typically performed prior to the determination process.
  • the sensor 11 is installed at a position that does not touch the target person so that the target person does not feel discomfort.
  • the sensor 11 may be installed on the bed on which the subject lies.
  • the installation position of the sensor 11 may be between the bed on which the subject lies and the mattress on the bed, or between the bed sheets on the mattress and the mattress.
  • the installation position of the sensor 11 may be the uppermost surface of the bed.
  • the sensor 11 is typically preferably formed in a thin plate shape (sheet shape).
  • the information processing system 100 uses the sensor 11 that is installed at a position that does not come into contact with the target person, so the target person does not feel discomfort. Therefore, it is possible to suppress factors that lower the detection accuracy, such as the target person's conscious control of breathing, etc., and to realize constant monitoring. Furthermore, in such a situation, the information processing system 100 outputs a body sound signal when the target person is in a sleeping state or when the target person is in a predetermined posture. Therefore, it is possible to output a body sound signal with higher accuracy than before. As a result, it is possible to accurately diagnose an abnormality in the subject's body.
  • the detection device 1 and the communication device 3 may be directly connected, or may be communicably connected via a communication network 9 as shown in FIG.
  • the form of the communication network 9 is not limited, and may be a local area network (LAN) or the Internet.
  • the information processing system 100 may also include a server device (information processing device) (not shown) communicably connected to the detection device 1 and the communication device 3.
  • the server device may be configured to store and manage body sound signals transmitted from a plurality of detection devices 1 for each subject. Medical personnel and the like may be able to access the server device using the communication device 3 and refer to the body sound signal of each subject.
  • FIG. 5 is a functional block diagram showing an example of the configuration of the information processing system 100.
  • the feature signal includes a snoring signal
  • the present invention is not limited to this, and the feature signal does not have to include a snoring sound signal.
  • the detection device 1 includes a sensor 11, a control section 10, and a storage section 12.
  • the sensor 11 is a non-contact (non-invasive) sensor capable of detecting vibrations emitted by a subject at a position not in contact with the subject.
  • the sensor 11 outputs, for example, a detection signal (that is, waveform data) indicating the detected vibration.
  • a detection signal that is, waveform data
  • the type of non-contact (non-invasive) sensor is not particularly limited.
  • a piezoelectric sensor, a Doppler sensor, or the like can be applied as a non-contact (non-invasive) sensor.
  • the sensor 11 may have one or more sensing areas. When the sensor 11 has a plurality of detection areas, the sensor 11 may output detection signals detected in each of the plurality of detection areas. When the sensor 11 is formed in a thin plate shape, a plurality of detection areas may be arranged side by side on the same plane.
  • 2 to 4 are diagrams each showing an example of a schematic configuration of the detection device 1.
  • FIG. The detection device 1 shown in FIG. 3 includes a sensor 11 having detection regions D1 to D3 arranged in three rows.
  • the detection device 1 shown in FIG. 4 includes a sensor 11 having detection regions D1a to D4d arranged in four rows and three columns. For example, in the case of the detection device 1 shown in FIG.
  • detection signals detected in each of the detection regions D1 to D4 are output individually.
  • detection signals detected in each of the detection regions D1a to D3d are output individually.
  • Each of the detection areas D1a-D3d may be, for example, 10 cm square.
  • the detection signals from each detection area are analyzed individually, and the analysis results are compared to each other, making it possible to accurately identify the location where an abnormality is occurring in the subject's body. Also, based on the signal intensity of the detection signal from each detection area, etc., it is possible to accurately identify the posture of the subject.
  • control unit 10 may be a CPU (Central Processing Unit).
  • the control unit 10 reads a control program, which is software stored in the storage unit 12, develops it in a memory such as a RAM (Random Access Memory), and executes various functions.
  • the control unit 10 includes a signal extraction unit 101, a determination unit 102 (sleep determination unit, posture determination unit), and an output control unit 103 (first output control unit, second output control unit). Note that in the storage unit 12 shown in FIG. 5, illustration of the control program is omitted for simplification of explanation.
  • the signal extraction unit 101 extracts, from the detection signal output from the sensor 11, a subject's characteristic signal and a body sound signal indicating body sounds generated inside the subject's body.
  • the feature signal includes at least one of a heartbeat signal indicating the subject's heartbeat, a respiratory vibration signal indicating the subject's respiratory vibration, and a body motion signal indicating the subject's body motion.
  • the feature signal may further include a snoring signal indicative of the subject's rhonchus.
  • snoring is a type of adjunct noise included in lung sounds, and is a snore-like sound emitted from the lungs.
  • a signal extraction unit 101 extracts a feature signal and a body sound signal from the detection signal.
  • the sensor 11 can detect vibrations in various frequency ranges generated by the subject. Therefore, the detection signal output from the sensor 11 is a signal in which a plurality of vibrations having various frequency characteristics are overlapped with each other.
  • the sensor 11 may be capable of acquiring at least one of a body sound signal with a frequency of 100 Hz or higher, and a heartbeat signal, a respiratory vibration signal, and a body movement signal with a frequency of 20 Hz or lower.
  • the sensor 11 may be capable of acquiring snoring signals having a frequency of 100 Hz or higher.
  • a body sound signal with a frequency of 100 Hz or more and a snoring sound signal with a frequency of 100 Hz or more can be distinguished based on the frequency component (spectrum).
  • the detection device 1 may include the sensor 11 with a wide frequency band of detectable vibrations.
  • the signal extraction unit 101 may apply a well-known technique such as frequency separation to the detection signal to extract the feature signal and the body sound signal from the detection signal.
  • a well-known technique such as frequency separation
  • the detection signal can be separated into a heartbeat signal, a respiratory vibration signal, a body movement signal, a snoring signal, and a body sound signal having different frequency characteristics by frequency separation.
  • the body sound signal further includes at least one of a lung sound signal indicating lung sounds of the subject, a blood flow sound signal indicating blood flow sounds of the subject, a heart sound signal indicating heart sounds of the subject, a bowel sound signal indicating bowel sounds of the subject, and a peristaltic sound signal indicating peristaltic sounds of the subject.
  • Lung sound signals, blood flow sound signals, heart sound signals, bowel sound signals, and peristaltic sound signals have different frequency characteristics.
  • the signal extraction unit 101 stores the feature signal and the body sound signal extracted from the detection signal in the storage unit 12 (121 and 122 shown in FIG. 5).
  • the feature signal and the body sound signal may be stored together with time information indicating the time when the detection signal from which they are extracted is detected.
  • the determination unit 102 determines at least one of the subject being in a sleeping state and the subject being in a predetermined posture.
  • the determination unit 102 uses the extracted feature signal when determining that the subject is in a sleeping state.
  • the determination unit 102 uses at least one of the detection signal and the extracted feature signal when determining that the subject is in the predetermined posture. That is, the determination unit 102 may use any one of the detection signal, the heartbeat signal, the respiratory vibration signal, and the body motion signal to determine the predetermined posture of the subject.
  • the determining unit 102 may use any one of the detection signal, the heartbeat signal, the respiratory vibration signal, the body movement signal, and the snoring signal to determine the predetermined posture of the subject.
  • the detection signal, the heartbeat signal, the respiratory vibration signal, the body movement signal, and the snoring signal may not have the same contribution rate to determine the predetermined posture of the subject.
  • the determination unit 102 may determine that the subject is in a sleeping state and in a predetermined posture.
  • the determination unit 102 may estimate the sleep state by inputting the feature signal extracted by the signal extraction unit 101 into the estimation model 123 machine-learned using teacher data in which the feature signal is the explanatory variable and the sleep state is the objective variable. Further, when determining the posture of the subject, the determination unit 102 may estimate the probability of being in a predetermined posture by inputting the detection signal detected by the sensor 11 to the estimation model 123 that is machine-learned using teacher data in which the detection signal is the explanatory variable and the posture of the subject is the objective variable.
  • the determination unit 102 may estimate the probability of being in a predetermined posture by inputting the feature signal extracted by the signal extraction unit 101 to the estimation model 123 that is machine-learned using teacher data in which the feature signal is the explanatory variable and the posture of the subject is the objective variable. In these cases, the determination unit 102 determines that the subject is in the predetermined posture based on the probability obtained as the estimation result.
  • a known machine learning algorithm such as a neural network or a support vector machine can be applied to the machine learning for generating the estimation model 123 .
  • the location of the estimation model 123 is not limited, and may be stored in the storage unit 12 as shown in FIG.
  • FIG. 19 is a schematic diagram for explaining a neuron model
  • FIG. 20 is a diagram for explaining a neural network.
  • a neural network is composed of, for example, an input layer made up of multiple neurons, a hidden layer (middle layer) made up of multiple neurons, and an output layer made up of multiple neurons.
  • a neuron outputs a result y for a plurality of inputs x, as shown in FIG.
  • Each input x is multiplied by a corresponding weighting factor w.
  • w1 is multiplied by weighting factor w1
  • input x2 is multiplied by weighting factor w2
  • input x3 is multiplied by weighting factor w3 .
  • the neuron sums up the integration results for each input and outputs the result y by substituting the result considering the bias B into the activation function f.
  • FIG. 20 is a schematic diagram showing a neural network having an input layer L1, a hidden layer L2, and an output layer L3.
  • a plurality of inputs x are input to the input layer L1, and the result y is output from the output layer L3.
  • a neural network may have a plurality of hidden layers.
  • inputs x 1 to x 3 are multiplied by corresponding weighting factors w a and input to three neurons N1a to N1c, respectively. Assume that the neurons N1a to N1c output p 11 to p 13 , respectively.
  • a vector (p 11 , p 12 , p 13 ) can be regarded as a feature vector obtained by extracting the feature amount of the input vector (x 1 , x 2 , x 3 ).
  • This feature vector (p 11 , p 12 , p 13 ) is a feature vector between the input layer L1 and the hidden layer L2.
  • p 11 to p 13 are multiplied by corresponding weighting factors w b and input to each of two neurons N2a and Nb. Assume that neurons N2a and N2b output p21 and p22 , respectively.
  • Vector (p 21 , p 22 ) is the feature vector between hidden layer L2 and output layer L3.
  • p21 and p22 are multiplied by corresponding weighting factors wc and input to each of three neurons N3a-N3c. Neurons N3a-N3c respectively output results y 1 -y 3 .
  • a neural network operates in a learning mode and an estimation mode.
  • the neural network learns (adjusts) a parameter indicating the weighting factor w using teacher data including explanatory variables and objective variables.
  • the neural network uses parameters adjusted by learning from input data (for example, feature signals) to output estimation results.
  • the error between the result output from the output layer L3 when the explanatory variable included in the teacher data is input to the input layer L1 and the objective variable corresponding to the explanatory variable is calculated, and the parameters are adjusted so as to reduce this error.
  • any known method can be applied to adjust the parameters, for example, the error backpropagation method may be applied. Parameter adjustment may be repeated until the error is within a predetermined range, or until all explanatory variables included in the teacher data are input.
  • the output control unit 103 outputs a body sound signal extracted from the detection signal detected during at least one of the period during which the subject is determined to be in a sleeping state and the period during which the subject is determined to be in a predetermined posture. For example, when the subject is determined to be in a sleeping state, the output control unit 103 may output only the body sound signal extracted from the detection signals detected during the period in which the subject is determined to be in a sleeping state, among the body sound signals stored in the storage unit 12. Further, for example, when it is determined that the subject is in a predetermined posture, the output control unit 103 may output only the body sound signal extracted from the detection signals detected during the period when the subject is determined to be in the predetermined posture among the body sound signals stored in the storage unit 12.
  • the output control unit 103 may output only the body sound signal extracted from the detection signals detected during the period in which the subject is determined to be in a sleeping state and in a predetermined posture, among the body sound signals 122 stored in the storage unit 12.
  • the communication device 3 includes an input section 31 , a control section 30 , a storage section 32 and a display section 33 .
  • the input unit 31 may be a keyboard, touch panel, mouse, or the like.
  • the control unit 30 reads a control program, which is software stored in the storage unit 32, develops it in a memory such as a RAM, and executes various functions.
  • the control unit 30 includes a display control unit 301 that causes the display unit 33 to display various information.
  • the signal extraction unit 101 may be able to further extract a lung sound signal, a blood flow sound signal, a heart sound signal, a bowel sound signal, a peristaltic sound signal, and the like from body sound signals extracted from detection signals detected during at least one of the period during which the subject is determined to be in a sleeping state and the period during which the subject is determined to be in a predetermined posture.
  • the detection device 1 may output the extracted lung sound signal, blood flow sound signal, heart sound signal, intestinal sound signal, peristaltic sound signal, and the like together with the body sound signal.
  • the communication device 3 may have a function of extracting a lung sound signal, a blood flow sound signal, a heart sound signal, a bowel sound signal, a peristaltic sound signal, etc. from the body sound signal output by the detection device 1 (for example, a function similar to that of the signal extraction unit 101 of the detection device 1).
  • the detection device 1 may extract a lung sound signal, a blood flow sound signal, a heart sound signal, a bowel sound signal, and a peristaltic sound signal from the body sound signal for output, and output the extracted lung sound signal, blood flow sound signal, heart sound signal, bowel sound signal, and peristaltic sound signal together with the body sound signal.
  • the server device may have a function of extracting a lung sound signal, a blood flow sound signal, a heart sound signal, a bowel sound signal, a peristaltic sound signal, and the like from the body sound signal output from the detection device 1.
  • the detection device 1 may be configured to output a detection signal detected during at least one of the period during which the subject is determined to be in a sleeping state and the period during which the subject is determined to be in a predetermined posture.
  • the communication device 3 or the server device may have a function of extracting a body sound signal from the detection signal acquired from the detection device 1 (for example, a function similar to that of the signal extraction unit 101 of the detection device 1).
  • FIG. 7 is a diagram for explaining various sounds that can be included in lung sounds and representative cases corresponding to the various sounds.
  • Lung sounds are sounds contained in body sounds.
  • the lung sound signal can be extracted from the body sound signal by frequency-analyzing the body sound signal.
  • Lung sounds include breath sounds and adventitious noises.
  • the subject may be suffering from diseases such as air bubbles, pleural effusion, and atelectasis. Also, if the subject's expiratory interval is prolonged and if the breath sounds are contaminated with abnormal sounds, the subject may be suffering from chronic obstructive pulmonary disease (COPD) and bronchial asthma.
  • COPD chronic obstructive pulmonary disease
  • secondary noise includes "rales” and "pleural rubs”.
  • "Ra” includes intermittent rales and continuous rales. Intermittent rales include crackles and crepitations, and continuous rales include whistles, snoring, stridors, and squawks. That is, the sub-noises contained in the body sounds of the subject include at least one of the subject's crackles, crackles, whistles, snoring, stridor, squawk, and pleural friction.
  • the subject's lung sounds contain blister sounds, the subject may be suffering from emphysema or the like, and if crepitus sounds are mixed, the subject may be suffering from pneumonia or the like. If the subject's lung sounds are mixed with whistles, the subject may be suffering from bronchial asthma, etc., and if the subject's snoring sounds are mixed, the subject may be suffering from chronic bronchitis, etc.
  • lung sounds were taken as an example, but the health condition of the subject can be estimated and diagnosed based on blood flow sounds, heart sounds, bowel sounds, and peristaltic sounds.
  • body sound signals it is necessary to accurately measure body sound signals.
  • FIG. 8 and 9 are flowcharts showing an example of the flow of processing performed by the information processing system 100 (for example, the detection device 1).
  • FIG. 8 shows a processing example of the information processing system 100 when outputting an internal body sound signal extracted from a detection signal detected during a period in which the subject is determined to be in a sleeping state.
  • the signal extraction unit 101 extracts a feature signal and a body sound signal from the detection signal output from the sensor 11 (step S1: signal extraction step).
  • step S2 sleep determination step If it is determined that the subject is not in a sleeping state (NO in step S2), the process returns to step S1.
  • step S2 When it is determined that the subject is in a sleeping state (YES in step S2), the output control unit 103 (first output control unit) outputs a body sound signal extracted from the detection signal detected during the period when the subject is determined to be in a sleeping state (step S3: first output control step).
  • FIG. 9 shows a processing example of the information processing system 100 when outputting a body sound signal extracted from a detection signal detected during a period in which the subject is determined to be in a predetermined posture.
  • the signal extraction unit 101 extracts a feature signal and a body sound signal from the detection signal output from the sensor 11 (step S1: signal extraction step).
  • the determination unit 102 determines that the subject is in a predetermined posture based on at least one of the detection signal and the extracted feature signal (step S2a: posture determination step). If it is determined that the subject is not in the predetermined posture (NO in step S2a), the process returns to step S1.
  • the output control unit 103 (second output control unit) outputs a body sound signal extracted from the detection signal detected during the period when the subject is determined to be in the predetermined posture (step S3: second output control step).
  • the timing at which the information processing system 100 executes each process shown in FIGS. 8 and 9 can be set arbitrarily.
  • the information processing system 100 may execute each process shown in FIGS. 8 and 9 at predetermined intervals (for example, one hour) or each time the sensor 11 determines that the subject is out of bed.
  • FIG. 10 is a functional block diagram showing an example of the configuration of the information processing system 100a.
  • the information processing system 100a may include a detection device 1a (information processing device) and a communication device 3 (information processing device).
  • the detection device 1a includes a sensor 11 having a plurality of detection areas, a control section 10a, and a storage section 12.
  • the control unit 10a includes a part estimation unit 104 in addition to a signal extraction unit 101, a determination unit 102 (sleep determination unit, posture determination unit), and an output control unit 103 (first output control unit, second output control unit).
  • the part estimation unit 104 estimates an abnormal sound generating part in the subject's body based on the body sound signal extracted from each region-specific detection signal.
  • the configuration in which the detection device 1a includes the part estimation unit 104 has been described as an example, but the configuration is not limited to this.
  • the communication device 3 or a server device (information processing device) may have a function similar to that of the part estimation unit 104 .
  • FIG. 11 is a flowchart showing an example of the flow of processing performed by the information processing system 100a.
  • the determination unit 102 of the information processing system 100a may be configured to determine that the subject is in a predetermined posture.
  • the signal extraction unit 101 acquires the region-specific detection signal output from each of the detection regions (for example, the detection regions D1 to D4 shown in FIG. 3), and extracts the feature signal and the body sound signal from each region-specific detection signal (step S1a: signal extraction step).
  • step S2 sleep determination step. If it is determined that the subject is not in a sleeping state (NO in step S2), the process returns to step S1.
  • step S2 When it is determined that the subject is in a sleeping state (YES in step S2), the output control unit 103 (first output control unit) outputs internal body sound signals extracted from the region-specific detection signals detected during the period in which the subject is determined to be in a sleeping state (step S3: first output control step).
  • the part estimation unit 104 estimates an abnormal sound generating part in the subject's body based on the body sound signal extracted from each region-specific detection signal (step S4). For example, the part estimating unit 104 may specify the position of the detection area that outputs the detection signal for each area from which the body sound signal containing the most abnormal sound is extracted, and estimate the part of the subject's body that is estimated to be close to the specified position as the abnormal sound generating part.
  • the output control unit 103 outputs abnormal site information indicating the estimated abnormal sound generating site (step S5).
  • the information processing system 100a can accurately measure the body sound signal of the subject and identify the abnormal sound generation site related to the subject's disease. For example, if the output body sound signal and the abnormal site information are provided to medical personnel, etc., the medical personnel can diagnose with high accuracy which part of the subject's body has an abnormality in addition to the subject's health condition.
  • FIG. 12 is a functional block diagram showing an example of the configuration of the information processing system 100b.
  • FIG. 12 shows an example in which the sensor 11 having a plurality of detection areas outputs the area-specific detection signal, the present invention is not limited to this. For example, when the sensor 11 has one detection area, one detection signal may be output from the sensor 11 as shown in FIG.
  • the information processing system 100b may include a detection device 1b (information processing device) and a communication device 3 (information processing device).
  • the detection device 1b includes a sensor 11, a control section 10b, and a storage section 12b.
  • Control unit 10b includes health condition determination unit 105 in addition to signal extraction unit 101, determination unit 102 (sleep determination unit, posture determination unit), and output control unit 103 (first output control unit, second output control unit).
  • the control unit 10 b may further include an intervention recommendation output unit 106 .
  • a reference body sound signal 124 which will be described later, is stored in the storage unit 12b.
  • the health condition determination unit 105 compares the subject's body sound signal with a predetermined reference body sound signal 124 stored in the storage unit 12b to determine the subject's health condition.
  • the predetermined reference body sound signal 124 may be a body sound signal extracted from a detection signal previously detected for a healthy person.
  • the predetermined reference body sound signal 124 may be a body sound signal extracted from a sensed signal previously sensed for a patient suffering from a predetermined disease.
  • the health condition determination unit 105 may determine the health condition of the subject based on the difference between the body sound signal of the subject and the reference body sound signal 124 extracted from the detection signal of the healthy person.
  • the health condition determination unit 105 may determine the health condition of the subject based on similarities between the body sound signal of the subject and the reference body sound signal 124 extracted from the detection signal of a patient suffering from a predetermined disease.
  • the health condition determination unit 105 may be capable of distinguishing between the inspiratory period and the expiratory period based on the respiratory vibration signal included in the subject's detection signal. In this case, the health condition determination unit 105 may determine the health condition of the subject by comparing the subject's body sound signal and a predetermined reference body sound signal for each of the inspiratory period and the expiratory period. By adopting this configuration, it is possible to improve the determination accuracy of the information processing system 100b regarding the health condition of the subject.
  • the health condition determination unit 105 may determine that the subject is in an abnormal condition in at least one of the following (1) to (3).
  • a lung sound signal indicating the subject's lung sound is attenuated or absent from a predetermined reference body sound signal.
  • a secondary noise signal indicating secondary noise is mixed in the subject's lung sound signal.
  • the health condition determination unit 105 may determine that the subject suffers from at least one of pneumothorax, pleural effusion, and atelectasis when the subject's lung sound signal is attenuated or absent from the lung sound signal extracted from the predetermined reference body sound signal 124. Further, the health condition determination unit 105 may determine that the subject suffers from at least one of chronic obstructive pulmonary disease and bronchial asthma when the abnormal sound signal is mixed in the lung sound signal of the subject.
  • the intervention recommendation output unit 106 When the health condition determination unit 105 determines that the subject's health condition is abnormal, the intervention recommendation output unit 106 outputs an intervention recommendation notification that recommends medical intervention for the subject.
  • the intervention recommendation notification may notify the subject whether or not medical intervention is required, and whether or not medical intervention is necessary.
  • the intervention recommendation output unit 106 may output an intervention recommendation notification to the communication device 3 in order to prompt medical intervention by medical personnel or the like to the subject.
  • the configuration in which the detection device 1b includes the health condition determination unit 105 and the intervention recommendation output unit 106 has been described as an example, but the configuration is not limited to this.
  • the communication device 3 may have functions similar to those of the health condition determination unit 105 and the intervention recommendation output unit 106 .
  • FIG. 13 is a flowchart showing an example of the flow of processing performed by the information processing system 100b.
  • the determination unit 102 of the information processing system 100b may be configured to determine that the subject is in the predetermined posture.
  • the signal extraction unit 101 extracts the subject's characteristic signal and body sound signal from the detection signal output from the sensor 11 (step S1: signal extraction step).
  • the signal extraction unit 101 may extract the subject's feature signal and body sound signal from each of the region-specific detection signals.
  • the determination unit 102 determines that the subject is in a sleeping state based on the feature signal (step S2: sleep determination step). If it is determined that the subject is not in a sleeping state (NO in step S2), the process returns to step S1.
  • step S2 When it is determined that the subject is in a sleeping state (YES in step S2), the output control unit 103 (first output control unit) outputs internal body sound signals extracted from the region-specific detection signals detected during the period in which the subject is determined to be in a sleeping state (step S3: first output control step).
  • the health condition determination unit 105 compares the output body sound signal with a predetermined reference body sound signal 124 to determine the subject's health condition (step S6: health condition determination step).
  • the information processing system 100b may be configured such that the output control unit 103 outputs the determination result regarding the subject's health condition.
  • the processing executed by the health condition determination unit 105 in step S6 will be described later with specific examples.
  • step S7 If the subject's health condition is determined to be abnormal (YES in step S7), the intervention recommendation output unit 106 outputs an intervention recommendation notification (step S8: intervention recommendation output step). On the other hand, if the health condition of the subject is not determined to be abnormal (NO in step S7), the intervention recommendation output unit 106 does not output the intervention recommendation notice.
  • FIG. 14 is a flowchart showing an example of the flow of processing for determining the health condition of a subject, which is performed by the information processing system 100b.
  • the health condition determination unit 105 determines an exhalation period and an inhalation period based on the respiratory vibration signal extracted from the detection signal (step S601). Next, the health condition determination unit 105 separates the body sound signal extracted from the same detection signal and output in step S3 into an expiration period and an inhalation period (step S602).
  • the health condition determination unit 105 frequency-analyzes the body sound signal for each breath (including a pair of expiration and inhalation periods) and compares it with a predetermined reference body sound signal 124 (step S603).
  • the health condition determination unit 105 determines whether the content ratio of components having a frequency of 200 Hz or higher in the subject's lung sound signal is equal to or higher than the lung sound signal extracted from the predetermined reference body sound signal (step S604). If YES in step S604, the health condition determination unit 105 determines that the subject's health condition may be abnormal (step S605).
  • step S604 the health condition determination unit 105 determines whether the lung sound signal of the subject is attenuated or lost from the lung sound signal extracted from the reference body sound signal 124 (step S606).
  • the health condition determination unit 105 determines that the subject suffers from at least one of pneumothorax, pleural effusion, and atelectasis (step S607). On the other hand, if the subject's lung sound signal is neither attenuated nor lost from the lung sound signal extracted from the reference body sound signal 124 (NO in step S606), the health condition determination unit 105 determines that the subject's health condition is normal (no disease) (step S608).
  • the health condition determination unit 105 can also perform the processing of steps S609 to S616 below.
  • the health condition determination unit 105 determines whether continuous rales are detected in the lung sound signal of the subject whose health condition is determined to be abnormal (step S609). If the continuous rales are detected in the lung sound signal of the subject (YES at step 609), and if the frequency of the continuous rales is 400 Hz or higher (YES at step 610), the health condition determination unit 105 determines that the abnormal sound signal mixed in the lung sounds of the subject is the whistling sound signal (step S611).
  • the health condition determination unit 105 determines that the abnormal sound signal mixed in the lung sound of the subject is a snoring signal (step S612).
  • the health condition determination unit 105 determines that the abnormal sound signal mixed in the subject's lung sound is a blister sound signal (step S614). On the other hand, if the frequency of the intermittent rales detected in the lung sound signal of the subject is higher than 200 Hz (NO in step 613), the health condition determination unit 105 determines that the abnormal sound signal mixed in the lung sound of the subject is the crackle signal (step S615).
  • the health condition determination unit 105 determines the disease that the subject has, based on the abnormal sound signal mixed in the lung sound signal (step S616).
  • FIG. 15 is a diagram showing an example of a display screen displayed on the display unit 33 of the communication device 3 of the information processing system 100b.
  • the display unit 33 may display a region R1 in which the waveform data of the body sound signal of the subject is displayed and a region R3 in which the intervention recommendation notification is displayed.
  • a region R3 shown in FIG. 15 an intervention recommendation notification is displayed that reads, "Need for intervention: Yes. Whistle sound signal mixed with lung sound signal. Suspected bronchial asthma.”
  • the display unit 33 may be configured to display a region R2 in which a graph or the like indicating the frequency characteristics of the body sound signal is displayed.
  • the graph showing the frequency characteristics may have frequency (Hz) on the horizontal axis and power value (dB) on the vertical axis, as shown in FIG. 15, for example.
  • a sonogram showing time (seconds) on the horizontal axis and frequency (Hz) on the vertical axis may be displayed.
  • the information processing system 100b may further include the part estimation unit 104 of the information processing system 100a.
  • the display screen may further include an area R4 in which abnormal part information regarding the subject can be displayed, as shown in FIG.
  • an abnormal sound generating site is indicated as an elliptical mark M in a diagram simulating the front and back of the subject's body in the region R4.
  • medical personnel, etc. can refer to the display displayed on the communication device 3 to appropriately determine the health condition of the subject, the type and site of the disease from which the subject is separated, and the necessity of medical intervention for the subject.
  • FIG. 16 is a functional block diagram showing an example of the configuration of the information processing system 100c.
  • the information processing system 100c may include a detection device 1, a communication device 3, and a server device 2.
  • the number of server devices 2 may be one or plural.
  • the server device 2 may be, for example, a server device realized by cloud computing.
  • the server device 2 includes a control section 20 and a storage section 21 .
  • the control unit 20 may be a CPU in one example.
  • the control unit 20 reads a control program, which is software stored in the storage unit 21, develops it in a memory such as a RAM, and executes various functions.
  • the control unit 20 includes a health condition determination unit 201 and an intervention recommendation output unit 202.
  • the storage unit 21 stores notification destination information 212 indicating output destinations of the reference body sound signal 211 and the intervention recommendation signal.
  • the reference body sound signal 211 may be the same as the reference body sound signal 124 of the information processing system 100b.
  • the health condition determination unit 201 has the same function as the health condition determination unit 105 of the information processing system 100b, and the intervention recommendation output unit 202 has the same function as the intervention recommendation output unit 106 of the information processing system 100b.
  • the detection device 1 outputs a body sound signal extracted from the detection signal detected while the subject is in at least one of the sleeping state and the predetermined posture.
  • the output body sound signal may be associated with a subject ID, which is identification information unique to the subject.
  • FIG. 16 shows an example in which the sensor 11 having one detection area outputs a detection signal, the present invention is not limited to this. For example, when the sensor 11 has a plurality of detection areas, as shown in FIG. 10, the sensor 11 may output a detection signal for each area.
  • the server device 2 acquires the body sound signal, determines the subject's health condition, and outputs an intervention recommendation notification.
  • the communication device 3 acquires the internal body sound signal output from the detection device 1 and the intervention recommendation notification output from the server device 2 and displays them on the display unit 33 .
  • This embodiment is a form in which a part of the functions of the detection device 1b included in the information processing system 100b according to the third embodiment is shared by a server device.
  • FIG. 17 is a diagram showing an example of the configuration of an information processing system 100d according to this embodiment.
  • the information processing system 100d includes a server device 2a (information processing device), a detection device 1c, and a communication device 3.
  • the server device 2a includes a control unit 20a and a storage unit 21a.
  • the control unit 20a may be a CPU in one example.
  • the control unit 20a reads a control program, which is software stored in the storage unit 21a, develops it in a memory such as a RAM, and executes various functions.
  • the control unit 20 a includes an intervention recommendation output unit 202 .
  • the storage unit 21a stores notification destination information 212 indicating the output destination of the intervention recommendation signal.
  • the detection device 1c includes a control unit 10c and a storage unit 12c.
  • the control unit 10c may be a CPU.
  • the control unit 10c reads a control program, which is software stored in the storage unit 12c, develops it in a memory such as a RAM, and executes various functions.
  • the control unit 10 c includes a signal extraction unit 101 , a determination unit 102 , an output control unit 103 and a health condition determination unit 105 .
  • the storage unit 12 c stores a feature signal 121 , a body sound signal 122 , an estimation model 123 and a reference body sound signal 124 .
  • the detection device 1c performs determination processing of the health condition of the subject and outputs the determination result to the server device 2a.
  • the server device 2a acquires the determination result regarding the subject's health condition from the detection device 1c. Then, when the obtained determination result indicates that the subject's health condition is abnormal, the server device 2a outputs an intervention recommendation notification that recommends medical intervention for the subject.
  • the detection device 1 according to Embodiment 1 has been described as including the sensor 11, the control unit 10, and the storage unit 12, the sensor 11, the control unit 10, and the storage unit 12 do not necessarily have to be configured as an integrated device.
  • the present embodiment is a form in which the sensor 11, the control unit 10 and the storage unit 12 are configured as separate devices.
  • FIG. 18 is a functional block diagram showing an example of the configuration of an information processing system 100e according to this embodiment.
  • the information processing system 100 e includes a sensor 11 , a detection signal analysis device 1 d (information processing device), and a communication device 3 .
  • the detection signal analysis device 1 d includes a control section 10 and a storage section 12 .
  • the detection signal analysis device 1d may be a computer communicably connected to the sensor 11 .
  • the sensor 11 and the detection signal analysis device 1d may be directly connected, or may be communicatively connected via a LAN.
  • the detection devices 1a, 1b, and 1c can also be divided into a sensor 11 and detection signal analysis devices (information processing devices) including control units 10a, 10b, and 10c and storage units 12a, 12b, and 12c.
  • detection signal analysis devices information processing devices
  • the functions of the detection devices 1, 1a, 1b, 1c, the detection signal analysis device 1d, the server device 2, and the communication device 3 are programs for causing a computer to function as the device, and can be realized by a program for causing the computer to function as each control block (especially each part included in the control units 10, 10a, 10b, 10c, 20, and 30) of the device.
  • the device comprises a computer having at least one control device (eg processor) and at least one storage device (eg memory) as hardware for executing the program.
  • control device eg processor
  • storage device eg memory
  • the above program may be recorded on one or more computer-readable recording media, not temporary.
  • the recording medium may or may not be included in the device.
  • the program may be supplied to the device via any transmission medium, wired or wireless.
  • part or all of the functions of the above control blocks can be realized by logic circuits.
  • an integrated circuit in which logic circuits functioning as the above control blocks are formed is also included in the scope of the present disclosure.
  • each process described in each of the above embodiments may be executed by AI (Artificial Intelligence).
  • AI Artificial Intelligence
  • the AI may operate on the control device, or may operate on another device (for example, an edge computer or a cloud server).
  • An information processing system includes a signal extraction unit that extracts a feature signal including at least one of a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal indicating respiratory vibration of the subject, and a body movement signal indicating body movement of the subject, and a body sound signal indicating a body sound generated inside the body of the subject, from detection signals output from a sensor that detects vibrations emitted by the subject at a position that does not contact the subject, and a sleep determination unit that determines that the subject is in a sleeping state based on the extracted feature signal. and a first output control unit configured to output the body sound signal during the period during which the subject is determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • the sleep determination unit may be configured to estimate the sleep state by inputting the feature signal extracted by the signal extraction unit to an estimation model machine-learned using teacher data having the feature signal as an explanatory variable and the sleep state as an objective variable.
  • An information processing system includes: a signal extraction unit for extracting a feature signal including at least one of a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal indicating the respiratory vibration of the subject, and a body motion signal indicating body movement of the subject, and a body sound signal indicating a body sound generated inside the body of the subject, from detection signals output from a sensor that detects vibration generated by the subject at a position not in contact with the subject; A posture determination unit that determines that the subject is in a predetermined posture, and a second output control unit that outputs the body sound signal during the period in which the subject is determined to be in the predetermined posture when the subject is determined to be in the predetermined posture.
  • the posture determination unit may be configured to estimate the probability of being in the predetermined posture by inputting at least one of the detection signal detected by the sensor and the feature signal extracted by the signal extraction unit into an estimation model machine-learned using teacher data having at least one of the detection signal and the feature signal as an explanatory variable and the posture of the subject as an objective variable.
  • the predetermined posture may be at least one of a right-lying position, a left-lying position, a supine position, a prone position, and a sitting position.
  • the senor may include a plurality of detection regions for outputting the detection signal, and the signal extracting unit may extract the feature signal and the internal body sound signal from each region-specific detection signal output from each of the plurality of detection regions.
  • the information processing system may further include a part estimation unit that estimates an abnormal sound generating part in the subject's body based on the body sound signal extracted from each of the region-specific detection signals.
  • the senor may acquire at least one of the body sound signal with a frequency of 100 Hz or higher, the heartbeat signal with a frequency of 20 Hz or lower, the respiratory vibration signal, the body movement signal, and the snoring sound signal with a frequency of 100 Hz or higher.
  • the information processing system in any one of aspects 1 to 8, may have a configuration in which the sensor is a thin plate and is installed on a bed on which the subject lies.
  • the body sound signal may include at least one of a lung sound signal indicating lung sounds of the subject, a blood flow sound signal indicating blood flow sounds of the subject, a heart sound signal indicating heart sounds of the subject, a bowel sound signal indicating bowel sounds of the subject, and a peristaltic sound signal indicating peristaltic sounds of the subject.
  • the information processing system may further include a health condition determination unit that compares the body sound signal with a predetermined reference body sound signal to determine the health condition of the subject.
  • the health condition determination unit may determine an inhalation period and an exhalation period based on the respiratory vibration signal included in the detection signal, and may determine the health condition of the subject by comparing the body sound signal and the predetermined reference body sound signal for each of the inhalation period and the expiration period.
  • the health condition determination unit determines that the subject is in an abnormal state and determines that the subject is in an abnormal state in at least one of the following cases: (1) a lung sound signal indicating lung sounds of the subject is attenuated or eliminated from the predetermined reference body sound signal; (2) an abnormal sound signal indicating an abnormal sound is mixed in the lung sound signal;
  • the noise may comprise at least one of the subject's crackles, crackles, whistles, snoring, stridors, squawks, and pleural rubs.
  • the health condition determination unit determines that the subject has at least one of pneumothorax, pleural effusion, and atelectasis when the lung sound signal is attenuated or disappears from the lung sound signal extracted from the predetermined reference body sound signal, and determines that the subject has at least one of chronic obstructive pulmonary disease and bronchial asthma when the abnormal sound signal is mixed with the lung sound signal. It may be determined that
  • the information processing system may further include an intervention recommendation output unit that outputs an intervention recommendation notification that recommends medical intervention for the subject when the health condition determination unit determines that the health condition of the subject is abnormal.
  • a detection device includes: a sensor that detects vibrations generated by a subject at a position that does not contact the subject; a signal extraction unit that extracts, from detection signals output from the sensor, a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal that indicates respiratory vibration of the subject, and a body motion signal that indicates body movement of the subject; and a first output control unit that outputs the body sound signal during the period in which the subject is determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • a detection device includes: a sensor that detects vibrations generated by a subject at a position that does not contact the subject; a signal extraction unit that extracts, from detection signals output from the sensor, a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal that indicates respiratory vibration of the subject, and a body motion signal that indicates body movement of the subject; , a posture determination unit that determines that the subject is in a predetermined posture, and a second output control unit that outputs the body sound signal during the period in which the subject is determined to be in the predetermined posture when it is determined that the subject is in the predetermined posture.
  • the detection device in aspect 16 or 17, further includes a health condition determination unit that compares the body sound signal with a predetermined reference body sound signal to determine the health condition of the subject.
  • the detection device may further include an intervention recommendation output unit that outputs an intervention recommendation notification that recommends medical intervention for the subject when the health condition determination unit determines that the subject's health condition is abnormal.
  • a server device acquires the body sound signal output from the detection device according to aspect 16 or 17, compares the body sound signal with a predetermined reference body sound signal, and determines the health condition of the subject, and an intervention recommendation output unit that outputs an intervention recommendation notice that recommends medical intervention for the subject when the health condition determination unit determines that the subject's health condition is abnormal.
  • a server device acquires a determination result regarding a health condition output from the detection device according to aspect 18, and if the acquired determination result indicates that the subject's health condition is abnormal, an intervention recommendation output unit that outputs an intervention recommendation notification that recommends medical intervention for the subject.
  • An information processing apparatus acquires a detection signal output from a sensor that detects vibrations generated by a subject at a position not in contact with the subject, and from the detection signal, a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal indicating respiratory vibration of the subject, and a body motion signal indicating body movement of the subject.
  • a sleep determination unit that determines that the subject is in a sleeping state
  • a first output control unit that outputs the internal body sound signal during the period in which the subject is determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • An information processing apparatus acquires a detection signal output from a sensor that detects vibrations generated by a subject at a position that does not contact the subject, from the detection signal, a heartbeat signal indicating the subject's heartbeat, a respiratory vibration signal indicating the subject's respiratory vibration, and a body motion signal indicating body movement of the subject.
  • a posture determination unit that determines that the subject is in a predetermined posture based on whether the subject is in the predetermined posture
  • a second output control unit that outputs the body sound signal during the period in which the subject is determined to be in the predetermined posture.
  • a control method is a control method executed by one or more information processing devices, and includes a signal extracting step of extracting a feature signal including at least one of a heartbeat signal indicating the subject's heartbeat, a respiratory vibration signal indicating the respiratory vibration of the subject, and a body motion signal indicating the subject's body movement, and a body sound signal indicating the body sound generated from the body of the subject, from detection signals output from a sensor that detects vibrations generated by the subject at a position not in contact with the subject, and the extracted feature signal.
  • a sleep determination step of determining that the subject is in a sleeping state based on, and a first output control step of outputting the body sound signal for the period during which the subject is determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • a control method is a control method executed by one or more information processing devices, comprising: a signal extracting step of extracting a feature signal including at least one of a heartbeat signal indicating the subject's heartbeat, a respiratory vibration signal indicating the respiratory vibration of the subject, and a body motion signal indicating the subject's body movement, and a body sound signal indicating the body sound generated from the body of the subject, from detection signals output from a sensor that detects vibrations generated by the subject at a position that does not contact the subject; a posture determination step of determining that the subject is in a predetermined posture based on at least one of the characteristic signals obtained; and a second output control step of outputting the body sound signal for a period during which the subject is determined to be in the predetermined posture when the subject is determined to be in the predetermined posture.
  • a control method is a control method executed by one or more server devices, comprising: acquiring the body sound signal output from the one or more information processing devices executing the control method according to aspect 24 or 25; comparing the body sound signal with a predetermined reference body sound signal to determine the health condition of the subject; and an intervention recommendation output step of outputting a recommended intervention notification.
  • a program according to aspect 27 of the present disclosure is a program for causing a computer to function as the information processing system according to aspect 1, and causes the computer to function as the signal extraction unit, the sleep determination unit, and the first output control unit.
  • a program according to aspect 28 of the present disclosure is a program for causing a computer to function as the information processing system according to aspect 3, and causes the computer to function as the signal extraction unit, the attitude determination unit, and the second output control unit.
  • a program according to aspect 29 of the present disclosure is a program for causing a computer to function as the server device according to aspect 20, and causes the computer to function as the health condition determination unit and the intervention recommendation output unit.
  • a program according to aspect 30 of the present disclosure is a program for causing a computer to function as the server device according to aspect 21, and causes the computer to function as the intervention recommendation output unit.
  • An information processing system includes, from detection signals output from a sensor that detects vibrations emitted by a subject at a position not in contact with the subject, a heartbeat signal indicating the subject's heartbeat, a respiratory vibration signal indicating the subject's respiratory vibration, a body motion signal indicating the subject's body movement, and a snoring sound signal indicating the subject's snoring sound.
  • a sleep determining unit that determines that the subject is in a sleeping state
  • a first output control unit that outputs the body sound signal extracted from the detection signal detected during the period in which the subject is determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • the information processing system includes a signal extracting unit that extracts a feature signal including at least one of a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal indicating respiratory vibration of the subject, a body motion signal indicating the subject's body movement, and a snoring sound signal indicating the subject's snoring sound, and a body sound signal indicating a body sound generated inside the body of the subject, from detection signals output from a sensor that detects vibration generated by the subject at a position not in contact with the subject;
  • a posture determination unit that determines that the subject is in a predetermined posture based on at least one of the extracted feature signals, and a second output control unit that, when it is determined that the subject is in the predetermined posture, outputs the body sound signal extracted from the detection signal detected during the period in which the subject is determined to be in the predetermined posture.
  • a detection device includes: a sensor that detects vibrations generated by a subject at a position that does not contact the subject; a feature signal including at least one of a heartbeat signal that indicates the subject's heartbeat, a respiratory vibration signal that indicates the respiratory vibration of the subject, a body movement signal that indicates the subject's body movement, and a snoring sound signal that indicates the subject's snoring sound, from detection signals output from the sensor; a sleep determining unit that determines that the subject is in a sleeping state based on the characteristic signal obtained; and a first output control unit that outputs the body sound signal extracted from the detection signal detected during the period in which the subject is determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • a detection device includes: a sensor that detects vibrations generated by a subject at a position that does not contact the subject; a signal extraction unit that extracts, from detection signals output from the sensor, a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal that indicates respiratory vibration of the subject, a body motion signal that indicates body movement of the subject, and a snoring sound signal that indicates snoring of the subject; A posture determination unit that determines that the subject is in a predetermined posture based on at least one of the signal and the extracted feature signal, and a second output control unit that outputs the body sound signal extracted from the detection signal detected during the period in which the subject is determined to be in the predetermined posture when the subject is determined to be in the predetermined posture.
  • a server device acquires the body sound signal output from the detection device according to aspect 3 or 4, compares the body sound signal with a predetermined reference body sound signal, and determines the health condition of the subject, and an intervention recommendation output unit that outputs an intervention recommendation notification that recommends medical intervention for the subject when the health condition determination unit determines that the health condition of the subject is abnormal.
  • An information processing apparatus acquires a detection signal output from a sensor that detects vibrations generated by a subject at a position not in contact with the subject, and from the detection signal, a heartbeat signal indicating the subject's heartbeat, a respiratory vibration signal indicating the subject's respiratory vibration, a body motion signal indicating the subject's body movement, and a snoring sound signal indicating the subject's snoring sound.
  • a sleep determining unit that determines that the subject is in a sleeping state based on the extracted feature signal; and a first output control unit that outputs the body sound signal extracted from the detection signal detected during the period in which the subject is determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • An information processing apparatus acquires a detection signal output from a sensor that detects vibrations generated by a subject at a position not in contact with the subject, and from the detection signal, a heartbeat signal indicating the subject's heartbeat, a respiratory vibration signal indicating the subject's respiratory vibration, a body motion signal indicating the subject's body movement, and a snoring sound signal indicating the subject's snoring sound.
  • a posture determination unit that determines that the subject is in a predetermined posture based on at least one of the detection signal and the extracted feature signal; and a second output control unit that, when the subject is determined to be in the predetermined posture, outputs the body sound signal extracted from the detection signal detected during the period in which the subject is determined to be in the predetermined posture.
  • a control method is a control method executed by one or a plurality of information processing devices, and includes a feature signal including at least one of a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal indicating respiratory vibration of the subject, a body motion signal indicating body movement of the subject, and a snoring sound signal indicating snoring of the subject from detection signals output from a sensor that detects vibrations generated by the subject at a position not in contact with the subject, and a body sound signal indicating a body sound generated inside the body of the subject.
  • a sleep determination step of determining that the subject is in a sleeping state based on the extracted feature signal
  • a first output control step of outputting the body sound signal extracted from the detection signal detected during the period in which the subject was determined to be in a sleeping state when the subject is determined to be in a sleeping state.
  • a control method is a control method executed by one or a plurality of information processing apparatuses, and includes a feature signal including at least one of a heartbeat signal indicating the heartbeat of the subject, a respiratory vibration signal indicating respiratory vibration of the subject, a body motion signal indicating body movement of the subject, and a snoring sound signal indicating snoring of the subject from detection signals output from a sensor that detects vibrations generated by the subject at a position not in contact with the subject, and a body sound signal indicating a body sound generated inside the body of the subject.
  • a posture determination step of determining that the subject is in a predetermined posture based on at least one of the detection signal and the extracted feature signal; and a second output control step of, when it is determined that the subject is in the predetermined posture, outputting the body sound signal extracted from the detection signal detected during the period in which the subject was determined to be in the predetermined posture.
  • a control method according to aspect 10 of the present disclosure is a control method executed by one or more server devices, wherein the body sound signal output from the one or more information processing devices that execute the control method according to aspect 8 or 9 is obtained, and the body sound signal is compared with a predetermined reference body sound signal to determine a health condition of the subject, and if the health condition of the subject is determined to be abnormal in the health condition determination step, medical intervention for the subject is recommended. and an intervention recommendation output step of outputting an intervention recommendation notice.
  • the information processing system, the detection device, the server device, and the information processing device according to each aspect of the present disclosure may be realized by a computer.
  • the information processing system, the detection device, the server device, and the control program of the information processing device, and the computer-readable recording medium recording it which cause the information processing system, the detection device, and the server device to be realized by the computer by operating the computer as each part (software element) provided in the information processing system, the detection device, the server device, and the information processing device, and the computer-readable recording medium recording it fall within the scope of the present disclosure.
  • FIG. 21 to 36 An embodiment of the present disclosure will be described with reference to FIGS. 21 to 36.
  • the horizontal axis indicates time (seconds) and the vertical axis indicates frequency (Hz).
  • FIG. 21 and 22 show examples of body sound signals (including lung sound signals) extracted from detection signals output from the sensor 11 at a position where the vibration emitted by a subject (healthy subject) in an awake state or sleep state does not contact the subject.
  • FIG. 21 is a sonogram showing a body sound signal of a healthy subject when awake (immediately after entering bed)
  • FIG. 22 is a sonogram showing an example of a body sound signal of a healthy subject during sleep. When the subject is awake, as shown in the sonogram shown in FIG.
  • the breathing sounds are louder (that is, the intensity is higher) than during sleep, the breathing rhythm is not constant, and occasionally (for example, around 39 seconds) noise derived from body movement was detected.
  • the breathing sound was smaller (lower in intensity) than when awake, and the breathing rhythm was almost constant.
  • each peak detected at 0 to 2 seconds, 4 to 6 seconds, etc. corresponds to one respiration
  • the peak from 0 to 1 second corresponds to the sound derived from the inspiratory period
  • the peak from 1 to 2 seconds corresponds to the sound derived from the expiratory period.
  • FIG. 23 is a sonogram showing a body sound signal of a healthy person (left lying position)
  • FIG. 24 is a sonogram showing an example of a body sound signal of a healthy person (supine position). In the sonogram shown in FIG.
  • the peak around 200 Hz seen around 1 to 3 seconds corresponds to the sound derived from the inspiratory period
  • the peak around 200 Hz seen around 3 to 4 seconds corresponds to the sound derived from the expiratory period.
  • the peak around 200 Hz seen around 1 to 3 seconds corresponds to the sound derived from the inspiratory period
  • the peak around 200 Hz seen around 3 to 4 seconds corresponds to the sound derived from the expiratory period. Comparing the sonogram shown in FIG. 23 with the sonogram shown in FIG.
  • the intensity of the signal corresponding to the sound derived from the inspiratory period and the signal corresponding to the sound derived from the expiratory period is higher when the subject is in the supine position than when the subject is in the left lateral position, and the peaks corresponding to the sound derived from the inspiratory period and the peaks corresponding to the sound derived from the expiratory period are clear. That is, it was found that it is possible to determine whether the subject's posture is in the left lying position or the supine position based on the extracted body sound signal. In addition, it was also possible to determine whether the subject's posture was sitting or lying down based on the extracted body sound signal.
  • FIG. 25 is a sonogram showing an example of a lung sound signal including a crackle signal from an unhealthy subject
  • FIG. 26 is a sonogram showing an example of a lung sound signal including a crackle signal from an unhealthy subject.
  • the content ratio of components having a frequency of 200 Hz or higher in the lung sound signal is high, and in the example shown in FIG.
  • the lung sounds include blister sounds, the content ratio of components having a frequency of 200 Hz or higher in the lung sound signal is high, and in the example shown in FIG. 26, a high intensity signal (D in the figure) was detected in the wavelength range of 200 to 400 Hz.
  • FIG. 27 is a sonogram obtained by extracting only the high-intensity portion of the lung sound signal of a healthy subject (supine position).
  • FIG. 28 is a sonogram obtained by extracting only the high-intensity portion of the lung sound signal including the crackle signal of an unhealthy subject, and
  • FIG. 29 is a sonogram obtained by extracting only the high-intensity portion of the lung sound signal including the crackle signal of an unhealthy subject.
  • the content ratio of components having a frequency of 200 Hz or higher is equal to or higher than a predetermined reference body sound signal (for example, lung sound signal of a healthy subject) (YES in S604 of FIG. 14).
  • a predetermined reference body sound signal for example, lung sound signal of a healthy subject
  • FIG. 30 is a diagram showing an example of a power spectrum of a lung sound signal of a healthy subject (supine position).
  • a lung sound signal of a healthy person exhibits a power spectrum in which the intensity increases as the frequency decreases, and the intensity uniformly decreases as the frequency increases.
  • the power spectrum of the lung sound signal of non-healthy subjects had a different shape.
  • FIG. 31 is a diagram showing an example of the power spectrum of a lung sound signal including a crackle signal of an unhealthy subject
  • FIG. 32 is a diagram showing an example of the power spectrum of a lung sound signal including a crackle signal of an unhealthy subject.
  • the power spectrum had a peak in the wavelength range of 100 to 600 Hz.
  • the bubble sound signal was included, as shown in FIG. 32, the power spectrum had a peak in the wavelength range of 50 to 400 Hz.
  • Figures 31 and 32 show power spectra with clear peaks indicating the inclusion of secondary noise.
  • the ratio of the power value in the low frequency region (e.g., 400 Hz or lower) and the high frequency region (e.g., 600 Hz or higher) in the lung sound signal was different. That is, it was found that whether or not the secondary noise signal is mixed in the lung sound signal can be determined based on the ratio of the power value in the low frequency region and the power value in the high frequency region in the lung sound signal.
  • FIGS. 33 to 36 Examples of feature signals included in body sound signals are shown in FIGS. 33 to 36.
  • FIG. 33 is a sonogram showing an example of a heartbeat signal of a healthy person
  • FIG. 34 is a sonogram showing an example of a body motion signal of a healthy person
  • FIG. 35 is a sonogram showing an example of a breathing sound signal of a healthy person (when waking)
  • FIG. 36 is a sonogram showing an example of a breathing sound signal of a healthy person (when sleeping). It was confirmed that characteristic signals such as a heartbeat signal, a body movement signal, and a breathing sound signal of the subject can be extracted from the detection signals output from the sensor 11 at a position not in contact with the subject.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Cardiology (AREA)
  • Acoustics & Sound (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Pulmonology (AREA)
  • Hospice & Palliative Care (AREA)
  • Hematology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Anesthesiology (AREA)

Abstract

対象者が発した振動を精度良く計測する。情報処理システム(100)は、信号抽出部(101)、判定部(102)、および出力制御部(103)を備える。信号抽出部(101)は、対象者が発した振動を対象者に接触しない位置で検知するセンサから出力される検知信号から、特徴信号と、体内音信号とを抽出する。判定部(102)は、対象者の睡眠状態および姿勢の少なくともいずれかを判定する。出力制御部(103)は、対象者の状態が、睡眠状態および所定姿勢の少なくともいずれかである期間に検知された検知信号から抽出された体内音信号を出力する。

Description

情報処理システム、検知装置、サーバ装置、情報処理装置、制御方法、プログラム
 本開示は、対象者が発する振動を検知する情報処理システム、検知装置、サーバ装置、情報処理装置、および、情報処理システムの制御方法等に関する。
 対象者が発する振動(呼吸音、心拍音等を含む)を計測する多様な手法が開発されている。例えば、特許文献2には、対象者の体により生成される音を表す音信号に基づいて異常な肺音を検出し、対象者の疾患を検出するデバイスが開示されている。また、特許文献1には、多数のセンサを有するマットを、マットレスを覆うように配置するセンサシステムが開示されている。
特表2018-516616号公報 特表2010-528725号公報
 対象者が発する振動は、対象者の身体の異常を反映している場合がある。対象者の身体の異常を精度よく診断するためには、対象者が発する振動を計測する精度の向上が重要である。
 特許文献1に開示されているデバイスのように、対象者が発する振動を、該対象者の皮膚に直接触れるセンサを用いた場合、対象者は、センサが皮膚に接触することを不快に感じる可能性がある。対象者が不快を感じる状況下において計測された振動は、適切な値を示していない可能性がある。それゆえ、特許文献1に開示されているデバイスによって、対象者の身体の異常を精度よく診断することができない可能性がある。
 一方、特許文献2に開示されているセンサシステムのように、対象者が発する振動を、該対象者の皮膚に直接触れないセンサを用いて計測した場合、対象者の寝返り、および寝姿勢等によって検知精度が低下し得る。また、多数のセンサを有するマットに臥床する対象者は、センサによる検知が行われていることを認識しているため、意識的に呼吸を整えてしまい、対象者の本来の振動を計測できていない場合がある。それゆえ、特許文献1に開示されているセンサシステムによっても、対象者の身体の異常を精度よく診断することができない可能性がある。
 このように、対象者が発した振動を精度良く計測するためには改善の余地がある。
 本開示の態様1に係る情報処理システムは、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御部と、を備える。
 また、本開示の態様2に係る情報処理システムは、対象者に接触しない位置で前記対象者が発した振動を検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御部と、を備える。
 本開示の態様3に係る検知装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサと、前記センサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御部と、を備える。
 本開示の態様4に係る検知装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサと、前記センサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御部と、を備える。
 本開示の態様5に係るサーバ装置は、上記態様3または4に係る検知装置から出力された前記体内音信号を取得し、該前記体内音信号と所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定部と、前記健康状態判定部によって前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力部と、を備える。
 本開示の態様6に係る情報処理装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号を取得し、該検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御部と、を備える。
 本開示の態様7に係る情報処理装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号を取得し、該検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御部と、を備える。
 本開示の態様8に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出ステップと、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定ステップと、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御ステップと、を含む。
 本開示の態様9に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出ステップと、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定ステップと、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御ステップと、を含む。
 本開示の態様10に係る制御方法は、1または複数のサーバ装置により実行される制御方法であって、上記態様8または9に係る制御方法を実行する前記1または複数の情報処理装置から出力された前記体内音信号を取得し、該前記体内音信号と所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定ステップと、前記健康状態判定ステップにおいて前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力ステップと、を含む。
 本開示の各態様に係る情報処理システム、検知装置、サーバ装置、および情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記情報処理システム、前記検知装置、前記サーバ装置、および前記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより前記情報処理システム、前記検知装置、および前記サーバ装置をコンピュータにて実現させる、前記情報処理システム、前記検知装置、前記サーバ装置、および前記情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本開示の範疇に入る。
 本開示の一態様によれば、対象者が発した振動を精度良く計測できる。
情報処理システムの構成の一例を示す概念図である。 検知装置の概略構成の一例を示す図である。 検知装置の概略構成の別の一例を示す図である。 検知装置の概略構成の他の一例を示す図である。 情報処理システムの構成の一例を示す機能ブロック図である。 検知信号に含まれる各種信号を説明する図である。 肺音に含まれ得る各種の音と、各種の音に対応する代表的な症例とを説明する図である。 情報処理システムが行う処理の流れの一例を示すフローチャートである。 情報処理システムが行う処理の流れの別の一例を示すフローチャートである。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフローチャートである。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムが行う処理の流れの一例を示すフローチャートである。 情報処理システムが行う、対象者の健康状態を判定する処理の流れの一例を示すフローチャートである。 通信装置の表示部に表示される表示画面の一例を示す図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムの構成の一例を示す機能ブロック図である。 情報処理システムの構成の一例を示す機能ブロック図である。 ニューロンのモデルを説明するための模式図である。 ニューラルネットワークを説明するための図である。 健常者の、覚醒時(入床直後)の体内音を示すソノグラムである。 健常者の、睡眠時の体内音信号の一例を示すソノグラムである。 健常者(左臥位)の体内音信号の一例を示すソノグラムである。 健常者(仰臥位)の体内音信号の一例を示すソノグラムである。 健常者の、捻髪音信号を含む肺音信号の一例を示すソノグラムである。 非健常者の、水泡音信号を含む肺音信号の一例を示すソノグラムである。 健常者(仰臥位)の肺音信号の高強度部分のみを抽出したソノグラムである。 非健常者の、捻髪音信号を含む肺音信号の高強度部分のみを抽出したソノグラムである。 非健常者の、水泡音信号を含む肺音信号の高強度部分のみを抽出したソノグラムである。 健常者(仰臥位)の肺音信号のパワースペクトルの一例を示す図である。 非健常者の、捻髪音信号を含む肺音信号のパワースペクトルの一例を示す図である。 非健常者の、水泡音信号を含む肺音信号のパワースペクトルの一例を示す図である。 健常者の心拍信号の一例を示すソノグラムである。 健常者の体動信号の一例を示すソノグラムである。 健常者(覚醒時)の呼吸音信号の一例を示すソノグラムである。 健常者(睡眠時)の呼吸音信号の一例を示すソノグラムである。
 〔実施形態1〕
 以下、本開示の一実施形態について、図1~図9を参照しながら詳細に説明する。
 (情報処理システム100の概要)
 本開示の実施形態1に係る情報処理システム100は、対象者が発した振動を対象者に接触しない位置で検知するセンサから出力される検知信号に基づいて、対象者が睡眠状態であるときの対象者の体内音信号、および、対象者が所定姿勢であるときの対象者の体内音信号の少なくとも何れかを出力するシステムである。
 本明細書において、「対象者」とは、典型的には、ベッド等に臥床する患者等の、医療関係者等によるモニタリングを要する者である。「検知信号」とは、対象者が発した振動を示す信号であり、センサから出力される生データ、該生データに対して増幅処理またはノイズ除去処理が施されたデータである。ノイズ除去処理は、例えば、生データの2000Hz以上の領域をフィルタリング処理することによって行われ得る。「所定姿勢」とは、センサによる検知に適した良好姿勢であり、例えば、右臥位、左臥位、仰臥位、伏臥位、および座位のうちの少なくとも1つである。「体内音信号」は、対象者の体内から生じる体内音を示す信号であり、対象者の肺音を示す肺音信号、対象者の血流音を示す血流音信号、対象者の心臓の音を示す心音信号、対象者の腸音を示す腸音信号、および対象者の蠕動音を示す蠕動音信号の少なくともいずれかを含む信号である。
 (情報処理システム100の構成)
 まず、本開示の実施形態1に係る情報処理システム100の概略構成について、図1を用いて説明する。図1は、情報処理システム100の構成の一例を示す概念図である。
 図1に示すように、情報処理システム100は、検知装置1(情報処理装置)および通信装置3(情報処理装置)を備えていてもよい。情報処理システム100が備える検知装置1および通信装置3の数はそれぞれ1つであってもよいし、複数であってもよい。
 検知装置1は、対象者が発した振動を対象者に接触しない位置で検知するセンサ11(図2等)から出力される、対象者が発した振動を示す検知信号を解析して、該対象者の状態が(a)睡眠状態、および(b)所定姿勢の少なくともいずれかであることを判定する。
 そして、検知装置1は、上記判定がなされている期間に検知された検知信号から抽出された体内音信号を、外部に出力する。体内音信号の出力先は、典型的には、通信装置3である。通信装置3は、典型的には、医療関係者等が使用するコンピュータ、スマートフォン、タブレット端末等であり、例えばナースセンターに設置される。
 なお、検知装置1は、センサ11から出力される検知信号に対して周波数解析等の処理を施すことによって、検知信号から体内音信号等を抽出する。この抽出処理は、上記(a)または(b)の判定処理とは独立して行われ、典型的には、当該判定処理より前に行われる。
 センサ11は、対象者が不快感を抱かないように、対象者に接触しない位置に設置される。センサ11は、対象者が臥床するベッドに設置されてもよい。センサ11の設置位置は、対象者が臥床するベッドと該ベッド上のマットレスとの間、またはマットレス上のベッドシーツとマットレスとの間であってもよい。また、対象者が衣服を着用している場合、センサ11の設置位置は、ベッドの最上面であってもよい。これらの位置に設置するにあたり、センサ11は、典型的には、薄板状(シート状)に形成されることが好ましい。
 以上のように、情報処理システム100では、対象者に接触しない位置に設置されるセンサ11を用いるため、対象者が不快感を抱くことがないことから、対象者が意識的に呼吸等をコントロールする等の検知精度を下げる要因を抑制できるとともに、常時モニタリングを実現することができる。さらに、そのような状況下において、情報処理システム100では、対象者が睡眠状態であるときの体内音信号、または、対象者が所定姿勢であるときの体内音信号を出力するため、従来に比べて精度の良い体内音信号を出力することができる。その結果、対象者の身体の異常を精度良く診断することができる。
 なお、検知装置1および通信装置3は、直接接続されていてもよいし、図1に示すように、通信ネットワーク9を介して通信可能に接続されていてもよい。通信ネットワーク9の形態は限定されるものではなく、ローカルエリアネットワーク(LAN)でもよいし、インターネットでもよい。
 また、情報処理システム100は、検知装置1および通信装置3に加えて、検知装置1および通信装置3と通信可能に接続されたサーバ装置(情報処理装置)(図示せず)を備えていてもよい。例えば、サーバ装置は、複数の検知装置1から送信される体内音信号を、対象者毎に記憶し、管理する構成であってもよい。医療関係者等は、通信装置3を用いてサーバ装置にアクセスし、各対象者の体内音信号を参照することが可能であってもよい。
 (検知装置1の構成)
 次に、検知装置1の外観および概略構成について、図2~図4、および図6を参照しながら、図5を用いて説明する。図5は、情報処理システム100の構成の一例を示す機能ブロック図である。ここでは、特徴信号に鼾音信号が含まれる場合を例に挙げて説明するが、これに限定されず、特徴信号に鼾音信号が含まれていなくてもよい。
 図5に示すように、検知装置1は、センサ11、制御部10、および記憶部12を備えている。
 [センサ11]
 センサ11は、対象者に接触しない位置において、該対象者が発する振動を検知可能な非接触(非侵襲)センサである。センサ11は、例えば、検知した振動を示す検知信号(すなわち、波形データ)を出力する。非接触(非侵襲)センサの種類は特に限定されるものではない。例えば、非接触(非侵襲)センサとして、圧電センサまたはドップラーセンサ等が適用され得る。
 センサ11は、1または複数の検知領域を備えていてもよい。センサ11が複数の検知領域を備えている場合、センサ11は、複数の検知領域のそれぞれにおいて検知した検知信号を出力してもよい。センサ11が薄板状に形成される場合、複数の検知領域は、同一平面上に並んで配置されていてもよい。図2~図4はそれぞれ、検知装置1の概略構成の例を示す図である。図2に示す検知装置1は、検知領域Dを1つ備えるセンサ11を備えている。図3に示す検知装置1は、3列に並ぶ検知領域D1~D3を備えるセンサ11を備えている。図4に示す検知装置1は、4行3列に並ぶ検知領域D1a~D4dを備えるセンサ11を備えている。例えば、図3に示す検知装置1の場合、検知領域D1~D4のそれぞれにおいて検知された検知信号が個別に出力される。同様に、図4に示す検知装置1の場合、検知領域D1a~D3dのそれぞれにおいて検知された検知信号が個別に出力される。検知領域D1a~D3dの各々は、例えば10cm四方であってもよい。
 複数の検知領域を備える構成を採用すれば、各検知領域からの検知信号を個別に解析し、解析結果を相互比較することによって、対象者の身体の異常が発生している位置を正確に特定することが可能となる。また、各検知領域からの検知信号の信号強度等に基づいて、対象者の姿勢も正確に特定することが可能となる。
 [制御部10および記憶部12]
 制御部10は、一例において、CPU(Central Processing Unit)であってもよい。制御部10は、記憶部12に記憶されているソフトウェアである制御プログラムを読み取ってRAM(Random Access Memory)等のメモリに展開して各種機能を実行する。図5に示すように、制御部10は、信号抽出部101、判定部102(睡眠判定部、姿勢判定部)、および出力制御部103(第1出力制御部、第2出力制御部)を備えている。なお、図5に示す記憶部12では、説明の簡略化のために、制御プログラムの図示を省略している。
 信号抽出部101は、センサ11から出力される検知信号から、対象者の特徴信号と、該対象者の体内から生じる体内音を示す体内音信号とを抽出する。ここで、特徴信号は、対象者の心拍を示す心拍信号、対象者の呼吸振動を示す呼吸振動信号、および対象者の体動を示す体動信号の少なくともいずれかを含む。特徴信号は、対象者の鼾音(rhonchus)を示す鼾音信号をさらに含んでいてもよい。ここで、鼾音とは、肺音に含まれる副雑音の一種であり、肺から発せられる鼾(snore)様の音である。信号抽出部101は、検知信号から特徴信号および体内音信号を抽出する。
 センサ11は、対象者が発生源である多様な周波数域の振動を検知し得る。それゆえ、センサ11から出力される検知信号は、様々な周波数特性を有する複数の振動が互いに重なり合った信号である。一例において、センサ11は、周波数が100Hz以上である体内音信号と、周波数が20Hz以下である心拍信号、呼吸振動信号、および、体動信号のうち少なくとも1つを取得することが可能であってもよい。センサ11は、周波数が100Hz以上である鼾音信号を取得可能であってもよい。なお、周波数が100Hz以上である体内音信号と、周波数が100Hz以上である鼾音信号とは、周波数成分(スペクトル)に基づいて区別可能である。
 このように、検知装置1は、検知可能な振動の周波数帯が広いセンサ11を備えていてもよい。これにより、複数の異なる種類のセンサを検知装置1に配置する必要が無く、情報処理システム100を利用する医療関係者等による検知装置1の保守および管理が容易であるため、検知装置1の利便性が向上する。
 信号抽出部101は、周知の周波数分離等の手法を検知信号に適用して、検出信号から特徴信号および体内音信号を抽出してもよい。このことについて、図6を用いて説明する。図6は、検知信号に含まれる各種信号を説明する図である。図6に示すように、周波数分離することによって、検知信号は、周波数特性が異なる心拍信号、呼吸振動信号、体動信号、鼾音信号、および体内音信号に分離可能である。
 体内音信号は、さらに、対象者の肺音を示す肺音信号、対象者の血流音を示す血流音信号、対象者の心臓の音を示す心音信号、対象者の腸音を示す腸音信号、および対象者の蠕動音を示す蠕動音信号の少なくともいずれかを含んでいる。肺音信号、血流音信号、心音信号、腸音信号、および蠕動音信号は、周波数特性が異なっている。
 信号抽出部101は、検出信号から抽出した特徴信号および体内音信号を記憶部12に格納する(図5に示す121および122)。特徴信号および体内音信号は、抽出元の検出信号が検出された時刻を示す時刻情報と共に記憶されてもよい。
 判定部102は、対象者が睡眠状態であること、および対象者が所定姿勢であることの少なくともいずれかを判定する。判定部102は、対象者が睡眠状態であることを判定する場合には、抽出された特徴信号を用いる。一方、判定部102は、対象者が所定姿勢であることを判定する場合には、検知信号および抽出された特徴信号の少なくともいずれかを用いる。すなわち、判定部102は、対象者の所定姿勢を判定するために、検知信号、心拍信号、呼吸振動信号、および体動信号のいずれかを用いてもよい。例えば、特徴信号に鼾音信号がさらに含まれている場合、判定部102は、対象者の所定姿勢を判定するために、検知信号、心拍信号、呼吸振動信号、体動信号、および鼾音信号のいずれかを用いてもよい。なお、検知信号、心拍信号、呼吸振動信号、体動信号、および鼾音信号のそれぞれの、対象者の所定姿勢の判定に寄与する寄与率は同じでなくてもよい。なお、判定部102は、対象者が睡眠状態であり、かつ所定姿勢であることを判定してもよい。
 対象者の睡眠状態を判定する場合、判定部102は、特徴信号を説明変数とし睡眠状態を目的変数とする教師データを用いて機械学習された推定モデル123に、信号抽出部101が抽出した特徴信号を入力することにより、睡眠状態を推定してもよい。また、対象者の姿勢を判定する場合、判定部102は、検知信号を説明変数とし対象者の姿勢を目的変数とする教師データを用いて機械学習された推定モデル123に、センサ11が検知した検知信号を入力することにより、所定姿勢である確率を推定してもよい。あるいは、対象者の姿勢を判定する場合、判定部102は、特徴信号を説明変数とし対象者の姿勢を目的変数とする教師データを用いて機械学習された推定モデル123に、信号抽出部101が抽出した特徴信号を入力することにより、所定姿勢である確率を推定してもよい。これらの場合、判定部102は推定結果として得た確率に基づいて、対象者が所定姿勢であることを判定する。推定モデル123を生成するための機械学習には、ニューラルネットワークやサポートベクタマシン等の公知の機械学習アルゴリズムが適用され得る。
 なお、推定モデル123の所在は限定されるものではなく、図5に示すように記憶部12に記憶されていてもよいし、検知装置1以外の装置に記憶されていてもよい。
 ここで、推定モデル123にニューラルネットワークを用いる場合について、図19および図20を用いて説明する。ニューラルネットワークは、例えば、図19に示すニューロンのモデルを模したニューラルネットワークを実現するプロセッサおよびメモリ等で構成される。図19は、ニューロンのモデルを説明するための模式図であり、図20は、ニューラルネットワークを説明するための図である。
 ニューラルネットワークは、例えば、複数のニューロンからなる入力層、複数のニューロンからなる隠れ層(中間層)、および複数のニューロンからなる出力層で構成される。ニューロンは、図19に示すように、複数の入力xに対する結果yを出力するものである。各入力xのそれぞれには、対応する重み係数wが積算される。図19において、例えば、入力xには重み係数wが積算され、入力xには重み係数wが積算され、入力xには重み係数wが積算される。ニューロンは、各入力についての積算結果を合算し、これにバイアスBを考慮した結果を活性化関数fに代入することにより結果yを出力する。
 続いて、ニューロンを組み合わせたニューラルネットワークについて、図20を用いて説明する。図20は、入力層L1、隠れ層L2、および出力層L3を有するニューラルネットワークを示す模式図である。図20に示すニューラルネットワークでは、入力層L1に複数の入力xが入力され、出力層L3から結果yが出力される。ニューラルネットワークにおいて、隠れ層の数は複数であってもよい。図20において、例えば、入力x~入力xは対応する重み係数wが積算されて3つのニューロンN1a~N1cの各々に入力される。ここで、ニューロンN1a~N1cはそれぞれ、p11~p13を出力するものとする。ベクトル(p11,p12,p13)は、入力ベクトル(x,x,x)の特徴量を抽出した特徴ベクトルとみなすことができる。この特徴ベクトル(p11,p12,p13)は、入力層L1と隠れ層L2との間の特徴ベクトルである。
 p11~p13は対応する重み係数wが積算されて2つのニューロンN2aおよびNbの各々に入力される。ここで、ニューロンN2aおよびN2bはそれぞれ、p21およびp22を出力するものとする。ベクトル(p21,p22)は、隠れ層L2と出力層L3との間の特徴ベクトルである。
 p21およびp22は対応する重み係数wが積算されて3つのニューロンN3a~N3cの各々に入力される。ニューロンN3a~N3cはそれぞれ、結果y~結果yを出力する。
 ニューラルネットワークの動作には、学習モードと推定モードとがある。ニューラルネットワークは、学習モードにおいて説明変数と目的変数とを含む教師データを用いて重み係数wを示すパラメータを学習(調整)する。また、ニューラルネットワークは、推定モードにおいて、入力データ(例えば、特徴信号)から、学習によって調整済のパラメータを用いて推定結果を出力する。
 学習モードでは、教師データに含まれる説明変数が入力層L1に入力された場合に出力層L3から出力される結果と、該説明変数に対応する目的変数との間の誤差が算出され、この誤差が小さくなるようにパラメータが調整される。
 パラメータの調整には、任意の公知の方法が適用可能であり、例えば、誤差逆伝播法を適用してもよい。誤差が所定の範囲内に納まるまで、あるいは、教師データに含まれるすべての説明変数が入力されるまで、パラメータの調整を繰り返してもよい。
 図5に戻り、出力制御部103は、対象者が睡眠状態であると判定された期間、および対象者が所定姿勢であると判定された期間の少なくともいずれかの期間に検知された検知信号から抽出された体内音信号を出力する。例えば、対象者が睡眠状態であると判定された場合、出力制御部103は、記憶部12に格納されている体内音信号のうち、該対象者が睡眠状態であると判定された期間に検知された検知信号から抽出された体内音信号のみを出力してもよい。また、例えば、対象者が所定姿勢であると判定された場合、出力制御部103は、記憶部12に格納されている体内音信号のうち、該対象者が所定姿勢であると判定された期間に検知された検知信号から抽出された体内音信号のみを出力してもよい。また、例えば、対象者が睡眠状態であり、かつ所定姿勢であると判定された場合、出力制御部103は、記憶部12に格納されている体内音信号122のうち、対象者が睡眠状態であると判定され、かつ所定姿勢であると判定された期間に検知された検知信号から抽出された体内音信号のみを出力してもよい。
 (通信装置3の構成)
 続いて、通信装置3の構成について、図5を用いて説明する。通信装置3は、入力部31、制御部30、記憶部32、および表示部33を備えている。
 入力部31は、キーボード、タッチパネル、およびマウス等であってもよい。制御部30は、記憶部32に記憶されているソフトウェアである制御プログラムを読み取ってRAM等のメモリに展開して各種機能を実行する。制御部30は、表示部33に各種情報を表示させる表示制御部301を備えている。
 (情報処理システム100の構成における変形例)
 信号抽出部101は、対象者が睡眠状態であると判定された期間、および対象者が所定姿勢であると判定された期間の少なくともいずれかの期間に検知された検知信号から抽出された体内音信号から、肺音信号、血流音信号、心音信号、腸音信号、および蠕動音信号等をさらに抽出可能であってもよい。この場合、検知装置1は、体内音信号と共に、抽出した肺音信号、血流音信号、心音信号、腸音信号、および蠕動音信号等を出力してもよい。
 通信装置3は、検知装置1が出力した体内音信号から、肺音信号、血流音信号、心音信号、腸音信号、および蠕動音信号等を抽出する機能(例えば、検知装置1の信号抽出部101と同様の機能)を備えていてもよい。あるいは、検知装置1が、出力用の体内音信号から肺音信号、血流音信号、心音信号、腸音信号、および蠕動音信号を抽出し、抽出した肺音信号、血流音信号、心音信号、腸音信号、および蠕動音信号を体内音信号とともに出力する構成であってもよい。情報処理システム100が、検知装置1および通信装置3に加えて、サーバ装置を備えている場合、サーバ装置が、検知装置1から出力された体内音信号から、肺音信号、血流音信号、心音信号、腸音信号、および蠕動音信号等を抽出する機能を備えていてもよい。
 これらの構成のいずれを採用しても、検知装置1によって精度良く測定された体内音信号に基づいて、対象者の健康状態を診断するために重要な信号を抽出することができる。
 検知装置1は、対象者が睡眠状態であると判定された期間、および対象者が所定姿勢であると判定された期間の少なくともいずれかの期間に検知された検知信号を出力する構成であってもよい。この場合、例えば通信装置3またはサーバ装置が、検知装置1から取得した検知信号から体内音信号を抽出する機能(例えば、検知装置1の信号抽出部101と同様の機能)を備えていればよい。
 (体内音信号における異常と疾患との対応関係)
 ここで、対象者の体内音信号を精度良く計測することが、対象者の健康状態の正確な診断に重要である理由について具体例を挙げて説明する。図7は、肺音に含まれ得る各種の音と、各種の音に対応する代表的な症例とを説明する図である。
 肺音は、体内音に含まれている音である。肺音信号は、体内音信号を周波数解析することにより、体内音信号から抽出することが可能である。肺音は、呼吸音と副雑音とを含んでいる。
 健康な人に比べて、対象者の呼吸音に減弱および消失がある場合、対象者は気泡、胸水、無気肺等の疾患に罹患している可能性がある。また、対象者の呼気区間が延長している場合および呼吸音に異常音が混入している場合、対象者は慢性閉塞性肺疾患(COPD)および気管支喘息に罹患している可能性がある。
 一方、副雑音には、「ラ音」および「胸膜摩擦音」等が含まれている。「ラ音」には、断続性ラ音と連続性ラ音とがある。断続性ラ音は、水泡音および捻髪音を含んでおり、連続性ラ音は、笛音、鼾音、ストライダー(stridor)、およびスクウォーク(squawk)を含んでいる。すなわち、対象者の体内音に含まれる副雑音は、対象者の水泡音、捻髪音、笛音、鼾音、ストライダー(stridor)、スクウォーク(squawk)、および胸膜摩擦音の少なくともいずれかを含んでいる。
 対象者の肺音に水泡音が混入している場合、対象者は肺気腫等に罹患している可能性があり、捻髪音が混入している場合、対象者は肺炎等に罹患している可能性がある。対象者の肺音に笛音が混入している場合、対象者は気管支喘息等に罹患している可能性があり、鼾音が混入している場合、対象者は慢性気管支炎等に罹患している可能性がある。
 このように、対象者の肺音に基づいて、対象者が罹患している可能性のある疾患を推定し、早期発見することが可能である。図7では、肺音を例に挙げて説明したが、血流音、心音、腸音、および蠕動音に基づいて、対象者の健康状態を推定し、診断することが可能である。ただし、対象者の健康状態を精度良く診断するためには、体内音信号を精度良く計測する必要がある。本開示の情報処理システム100を採用すれば、対象者の体内音信号を精度良く計測し、該体内音信号を解析対象とすることができる。よって、医療関係者等は、対象者の健康状態を高い精度で診断することができる。
 (情報処理システム100が行う処理)
 次に、情報処理システム100が行う処理の流れについて、図8および図9を用いて説明する。図8および図9は、情報処理システム100(例えば、検知装置1)が行う処理の流れの一例を示すフローチャートである。
 図8に、対象者が睡眠状態であると判定された期間に検知された検知信号から抽出された体内音信号を出力する場合における情報処理システム100の処理例を示す。まず、信号抽出部101は、センサ11から出力される検知信号から、特徴信号と、体内音信号とを抽出する(ステップS1:信号抽出ステップ)。
 次に、判定部102(睡眠判定部)は、抽出された特徴信号に基づいて、対象者が睡眠状態であることを判定する(ステップS2:睡眠判定ステップ)。対象者が睡眠状態ではないと判定された場合(ステップS2にてNO)、ステップS1に戻る。
 対象者が睡眠状態であると判定された場合(ステップS2にてYES)、出力制御部103(第1出力制御部)は、対象者が睡眠状態であると判定された期間に検知された検知信号から抽出された体内音信号を出力する(ステップS3:第1出力制御ステップ)。
 図9に、対象者が所定姿勢であると判定された期間に検知された検知信号から抽出された体内音信号を出力する場合における情報処理システム100の処理例を示す。まず、信号抽出部101は、センサ11から出力される検知信号から、特徴信号と、体内音信号とを抽出する(ステップS1:信号抽出ステップ)。
 次に、判定部102(姿勢判定部)は、検知信号および抽出された特徴信号の少なくともいずれかに基づいて、対象者が所定姿勢であることを判定する(ステップS2a:姿勢判定ステップ)。対象者が所定姿勢ではないと判定された場合(ステップS2aにてNO)、ステップS1に戻る。
 対象者が所定姿勢であると判定された場合(ステップS2aにてYES)、出力制御部103(第2出力制御部)は、対象者が所定姿勢であると判定された期間に検知された検知信号から抽出された体内音信号を出力する(ステップS3:第2出力制御ステップ)。
 なお、情報処理システム100が図8および図9に示す各処理を実行するタイミングは任意に設定され得る。例えば、情報処理システム100は、図8および図9に示す各処理を所定期間(例えば、1時間)毎に実行してもよいし、対象者の離床がセンサ11によって判定される度に実行してもよい。
 〔実施形態2〕
 本開示の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム100aの構成)
 センサ11が複数の検知領域を備え、複数の検知領域のそれぞれにおいて検知した検知信号(以下、領域別検知信号)を出力する構成を採用した情報処理システム100aについて、図10を用いて説明する。図10は、情報処理システム100aの構成の一例を示す機能ブロック図である。
 図10に示すように、情報処理システム100aは、検知装置1a(情報処理装置)および通信装置3(情報処理装置)を備えていてもよい。検知装置1aは、複数の検知領域を備えるセンサ11、制御部10a、および記憶部12を備えている。制御部10aは、信号抽出部101、判定部102(睡眠判定部、姿勢判定部)、および出力制御部103(第1出力制御部、第2出力制御部)に加え、部位推定部104を備えている。
 部位推定部104は、領域別検知信号の各々から抽出された体内音信号に基づいて、対象者の体内における異常音発生部位を推定する。
 ここでは、部位推定部104を検知装置1aが備える構成を例に挙げて説明したが、これに限定されない。例えば、部位推定部104と同様の機能を、通信装置3あるいは図示しないサーバ装置(情報処理装置)が備えていてもよい。
 (情報処理システム100aが行う処理)
 次に、情報処理システム100aが行う処理の流れについて、図11を用いて説明する。図11は、情報処理システム100aが行う処理の流れの一例を示すフローチャートである。ここでは、情報処理システム100aの判定部102が、対象者が睡眠状態であることを判定する場合を例に挙げて説明するが、これに限定されない。情報処理システム100aの判定部102が、対象者が所定姿勢であることを判定する構成であってもよい。
 信号抽出部101は検知領域(例えば、図3に示す検知領域D1~D4)の各々から出力される領域別検知信号を取得して、各領域別検知信号から特徴信号および体内音信号を抽出する(ステップS1a:信号抽出ステップ)。
 続いて、判定部102は、各領域別検知信号から抽出された特徴信号に基づいて、対象者が睡眠状態であることを判定する(ステップS2:睡眠判定ステップ)。対象者が睡眠状態ではないと判定された場合(ステップS2にてNO)、ステップS1に戻る。
 対象者が睡眠状態であると判定された場合(ステップS2にてYES)、出力制御部103(第1出力制御部)は、対象者が睡眠状態であると判定された期間に検知された各領域別検知信号から抽出された体内音信号を出力する(ステップS3:第1出力制御ステップ)。
 部位推定部104は、領域別検知信号の各々から抽出された体内音信号に基づいて、対象者の体内における異常音発生部位を推定する(ステップS4)。例えば、部位推定部104は、異常音が最も多く含まれる体内音信号が抽出された領域別検知信号を出力した検知領域の位置を特定し、特定した位置に近いことが推定される対象者の身体の部位を異常音発生部位として推定してもよい。
 次に、出力制御部103は、推定された異常音発生部位を示す異常部位情報を出力する(ステップS5)。
 この構成を採用すれば、情報処理システム100aは、対象者の体内音信号を精度良く計測するとともに、対象者の疾患に関連する異常音発生部位を特定することができる。例えば、出力された体内音信号と異常部位情報とを医療関係者等に提供すれば、医療関係者等は、対象者の健康状態に加え、対象者の身体のどの部位に異常が生じているのかを高い精度で診断することができる。
 〔実施形態3〕
 本開示のさらに他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム100bの構成)
 体内音信号に基づいて対象者の健康状態を推定する機能を備える情報処理システム100bについて、図12を用いて説明する。図12は、情報処理システム100bの構成の一例を示す機能ブロック図である。なお、図12には、複数の検知領域を備えるセンサ11が領域別検知信号を出力する例を示しているが、これに限定されない。例えば、センサ11が1つの検知領域を備えている場合には、図5に示すように、センサ11から1つの検知信号を出力してもよい。
 図12に示すように、情報処理システム100bは、検知装置1b(情報処理装置)および通信装置3(情報処理装置)を備えていてもよい。検知装置1bは、センサ11、制御部10b、および記憶部12bを備えている。制御部10bは、信号抽出部101、判定部102(睡眠判定部、姿勢判定部)、および出力制御部103(第1出力制御部、第2出力制御部)に加え、健康状態判定部105を備えている。制御部10bは、さらに介入勧奨出力部106を備えてもよい。記憶部12bには、後述する参照体内音信号124が格納されている。
 健康状態判定部105は、対象者の体内音信号と、記憶部12bに格納されている所定の参照体内音信号124とを比較して、対象者の健康状態を判定する。ここで、所定の参照体内音信号124は、予め健康な者について検知された検知信号から抽出された体内音信号であってもよい。あるいは、所定の参照体内音信号124は、予め所定の疾患に罹患している患者について検知された検知信号から抽出された体内音信号であってもよい。健康状態判定部105は、対象者の体内音信号と、健康な者の検知信号から抽出された参照体内音信号124との相違点に基づいて、対象者の健康状態を判定してもよい。あるいは、健康状態判定部105は、対象者の体内音信号と、所定の疾患に罹患している患者の検知信号から抽出された参照体内音信号124との類似点に基づいて、対象者の健康状態を判定してもよい。
 例えば、慢性閉塞性肺疾患(COPD)および気管支喘息などの疾患は、呼気区間に異常を示す場合が多い。また、吸気区間に特徴的な異常を示す疾患もあり得る。そこで、健康状態判定部105は、対象者の検知信号に含まれる呼吸振動信号に基づいて、吸気区間と呼気区間とを判別可能であってもよい。この場合、健康状態判定部105は、対象者の体内音信号と所定の参照体内音信号とを、吸気区間および呼気区間のそれぞれについて比較して、対象者の健康状態を判定してもよい。この構成を採用することにより、情報処理システム100bの、対象者の健康状態に関する判定精度を向上させることができる。
 健康状態判定部105は、下記(1)~(3)の少なくともいずれかの場合に、前記対象者は異常状態であると判定してもよい。
 (1)対象者の肺音を示す肺音信号が所定の参照体内音信号より減弱または消失している。
 (2)異常音を示す異常音信号が対象者の肺音信号に混入している。
 (3)副雑音を示す副雑音信号が対象者の肺音信号に混入している。
 健康状態判定部105は、対象者の肺音信号が所定の参照体内音信号124から抽出された肺音信号より減弱または消失している場合、対象者は気胸、胸水、および無気肺の少なくともいずれかの疾患に罹患していると判定してもよい。また、健康状態判定部105は、異常音信号が対象者の肺音信号に混入している場合、対象者は慢性閉塞性肺疾患および気管支喘息の少なくともいずれかの疾患に罹患していると判定してもよい。
 介入勧奨出力部106は、健康状態判定部105によって対象者の健康状態が異常状態であると判定された場合、対象者に対する医学的介入を勧奨する介入勧奨通知を出力する。介入勧奨通知は、対象者に対する医学的介入が必要か否か、および医学的介入の必要性の高低を通知するものであってよい。例えば、介入勧奨出力部106は、医療関係者等による対象者への医学的介入を促すために、介入勧奨通知を通信装置3に出力してもよい。
 ここでは、健康状態判定部105および介入勧奨出力部106を検知装置1bが備える構成を例に挙げて説明したが、これに限定されない。例えば、健康状態判定部105および介入勧奨出力部106と同様の機能を、通信装置3が備えていてもよい。
 (情報処理システム100bが行う処理)
 次に、情報処理システム100bが行う処理の流れについて、図13を用いて説明する。図13は、情報処理システム100bが行う処理の流れの一例を示すフローチャートである。ここでは、情報処理システム100bの判定部102が、対象者が睡眠状態であることを判定する場合を例に挙げて説明するが、これに限定されない。情報処理システム100bの判定部102が、対象者が所定姿勢であることを判定する構成であってもよい。
 信号抽出部101は、センサ11から出力される検知信号から、対象者の特徴信号および体内音信号を抽出する(ステップS1:信号抽出ステップ)。信号抽出部101は、領域別検知信号の各々から対象者の特徴信号および体内音信号を抽出してもよい。
 判定部102は、特徴信号に基づいて、対象者が睡眠状態であることを判定する(ステップS2:睡眠判定ステップ)。対象者が睡眠状態ではないと判定された場合(ステップS2にてNO)、ステップS1に戻る。
 対象者が睡眠状態であると判定された場合(ステップS2にてYES)、出力制御部103(第1出力制御部)は、対象者が睡眠状態であると判定された期間に検知された各領域別検知信号から抽出された体内音信号を出力する(ステップS3:第1出力制御ステップ)。
 次に、健康状態判定部105は、出力された体内音信号と、所定の参照体内音信号124とを比較して、対象者の健康状態を判定する(ステップS6:健康状態判定ステップ)。ここで、情報処理システム100bは、対象者の健康状態に関する判定結果を出力制御部103が出力する構成であってもよい。なお、ステップS6において健康状態判定部105が実行する処理については後に具体例を挙げて説明する。
 対象者の健康状態は異常状態と判定された場合(ステップS7においてYES)、介入勧奨出力部106は介入勧奨通知を出力する(ステップS8:介入勧奨出力ステップ)。一方、対象者の健康状態が異常状態と判定されなかった場合(ステップS7においてNO)、介入勧奨出力部106は介入勧奨通知を出力しない。
 [健康状態判定部105が行う処理]
 続いて、健康状態判定部105が行う処理の一例を、図14を用いて説明する。図14は、情報処理システム100bが行う、対象者の健康状態を判定する処理の流れの一例を示すフローチャートである。
 健康状態判定部105は、検知信号から抽出された呼吸振動信号に基づいて、呼気区間と吸気区間とを判別する(ステップS601)。次に、健康状態判定部105は、同じ検知信号から抽出された体内音信号であって、ステップS3において出力された体内音信号を、呼気区間と吸気区間とに分離する(ステップS602)。
 続いて、健康状態判定部105は、1呼吸(1対の呼気区間と吸気区間を含む)ごとに体内音信号を周波数解析して、所定の参照体内音信号124と比較する(ステップS603)。
 次に、健康状態判定部105は、対象者の肺音信号において、200Hz以上の周波数を有する成分の含有比率が、所定の参照体内音信号から抽出された肺音信号以上か否かを判定する(ステップS604)。ステップS604においてYESの場合、健康状態判定部105は、対象者の健康状態は異常である可能性ありと判定する(ステップS605)。
 一方、ステップS604においてNOの場合、健康状態判定部105は、対象者の肺音信号が、参照体内音信号124から抽出された肺音信号より減弱または消失しているか否かを判定する(ステップS606)。
 対象者の肺音信号が、参照体内音信号124から抽出された肺音信号より減弱または消失している場合(ステップS606にてYES)、健康状態判定部105は、対象者は気胸、胸水、および無気肺の少なくとも何れかに罹患していると判定する(ステップS607)。一方、対象者の肺音信号が、参照体内音信号124から抽出された肺音信号より減弱しておらず、かつ消失してもしていない場合(ステップS606にてNO)、健康状態判定部105は、対象者の健康状態は正常(疾患無し)と判定する(ステップS608)。
 健康状態判定部105は、さらに、以下のステップS609~S616の処理を行うことも可能である。
 健康状態判定部105は、健康状態が異常であると判定された対象者の肺音信号において、連続性ラ音が検出されているかを判定する(ステップS609)。対象者の肺音信号において、連続性ラ音が検出されている場合(ステップ609にてYES)、その連続性ラ音の周波数が400Hz以上であれば(ステップ610にてYES)、健康状態判定部105は、対象者の肺音に混入している異常音信号は笛音信号であると判定する(ステップS611)。一方、対象者の肺音信号において検出されている連続性ラ音の周波数が400Hz未満であれば(ステップ610にてNO)、健康状態判定部105は、対象者の肺音に混入している異常音信号は鼾音信号であると判定する(ステップS612)。
 対象者の肺音信号において、連続性ラ音が検出されていない場合(ステップ609にてNO)、断続性ラ音の周波数が200Hz以下であれば(ステップ613にてYES)、健康状態判定部105は、対象者の肺音に混入している異常音信号は水泡音信号であると判定する(ステップS614)。一方、対象者の肺音信号において検出されている断続性ラ音の周波数が200Hzより高い場合(ステップ613にてNO)、健康状態判定部105は、対象者の肺音に混入している異常音信号は捻髪音信号であると判定する(ステップS615)。
 健康状態判定部105は、肺音信号に混入している異常音信号に基づいて、対象者が罹患している疾患を判定する(ステップS616)。
 (体内音信号および介入勧奨通知の表示例)
 情報処理システム100bの通信装置3が体内音信号および介入勧奨通知を取得した場合に、表示部33に示される画面表示について図15を用いて説明する。図15は、情報処理システム100bの通信装置3の表示部33に表示される表示画面の一例を示す図である。
 図15に示すように、表示部33には、対象者の体内音信号の波形データが表示される領域R1、および介入勧奨通知を表示する領域R3が表示されてもよい。図15に示す領域R3には、「介入必要性:有り。肺音信号に笛音信号の混入。気管支喘息の疑い。」という介入勧奨通知が表示されている。
 なお、表示部33において、体内音信号の周波数特性を示すグラフ等が表示される領域R2が表示される構成であってもよい。周波数特性を示すグラフは、例えば、図15に示すように、横軸に周波数(Hz)、縦軸にパワー値(dB)を示すものであってもよい。あるいは、周波数特性を示すグラフの代替として、例えば、横軸に時間(秒)、縦軸に周波数(Hz)を示すソノグラムが表示されてもよい。
 情報処理システム100bが、情報処理システム100aの部位推定部104をさらに備える構成であってもよく、この場合、表示画面は、図15に示すように、対象者に関する異常部位情報を表示可能な領域R4をさらに含んでいてもよい。図15に示す例では、領域R4における、対象者の身体の前面および背面を模した図の中に、異常音発生部位が楕円形のマークMとして示されている。
 例えば医療関係者等は、通信装置3に表示された表示を参照して、対象者の健康状態、対象者が離間している疾患の種類と疾患の部位、および、対象者に対する医学的介入の必要性について、適切に判断することができる。
 〔実施形態4〕
 本開示の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (情報処理システム100cの構成)
 情報処理システム100bの健康状態判定部105および介入勧奨出力部106と同様の機能を、検知装置1(情報処理装置)および通信装置3(情報処理装置)と通信可能に接続されたサーバ装置2(情報処理装置)が備える構成であってもよい。このような構成について、図16を用いて説明する。図16は、情報処理システム100cの構成の一例を示す機能ブロック図である。
 図16に示すように、情報処理システム100cは、検知装置1、通信装置3、およびサーバ装置2を備えていてもよい。サーバ装置2の数は1つであってもよいし複数であってもよい。サーバ装置2は、一例としてクラウドコンピューティングにより実現されたサーバ装置であってもよい。
 サーバ装置2は、制御部20および記憶部21を備えている。制御部20は、一例において、CPUであってもよい。制御部20は、記憶部21に記憶されているソフトウェアである制御プログラムを読み取ってRAM等のメモリに展開して各種機能を実行する。
 図16に示すように、制御部20は、健康状態判定部201、および介入勧奨出力部202を備えている。記憶部21には、参照体内音信号211および介入勧奨信号の出力先を示す通知先情報212が格納されている。参照体内音信号211は、情報処理システム100bの参照体内音信号124と同じであってもよい。
 健康状態判定部201は、情報処理システム100bの健康状態判定部105と同様の機能を有しており、介入勧奨出力部202は、情報処理システム100bの介入勧奨出力部106と同様の機能を有している。
 情報処理システム100cでは、まず検知装置1から、対象者の状態が、睡眠状態および所定姿勢の少なくともいずれかである期間に検知された検知信号から抽出された体内音信号が出力される。このとき、出力される体内音信号には、対象者に固有の識別情報である対象者IDが対応付けられていてもよい。なお、図16には、1つの検知領域を備えるセンサ11が検知信号を出力する例を示しているが、これに限定されない。例えば、センサ11が複数の検知領域を備えている場合には、図10に示すように、センサ11から領域別検知信号を出力してもよい。
 次に、サーバ装置2は体内音信号を取得し、対象者の健康状態を判定し、介入勧奨通知を出力する。通信装置3は、検知装置1から出力された体内音信号、およびサーバ装置2から出力された介入勧奨通知を取得し、表示部33に表示する。
 〔実施形態5〕
 本開示の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 本実施形態は、実施形態3に係る情報処理システム100bが備える検知装置1bの機能の一部をサーバ装置に分担させる形態である。
 図17は、本実施形態に係る情報処理システム100dの構成の一例を示す図である。図17に示すように、情報処理システム100dは、サーバ装置2a(情報処理装置)、検知装置1c、および通信装置3を備えている。
 サーバ装置2aは、制御部20aおよび記憶部21aを備えている。制御部20aは、一例において、CPUであってもよい。制御部20aは、記憶部21aに記憶されているソフトウェアである制御プログラムを読み取ってRAM等のメモリに展開して各種機能を実行する。制御部20aは、介入勧奨出力部202を備えている。記憶部21aは、介入勧奨信号の出力先を示す通知先情報212を格納している。
 検知装置1cは、制御部10cおよび記憶部12cを備えている。制御部10cは、一例において、CPUであってもよい。制御部10cは、記憶部12cに記憶されているソフトウェアである制御プログラムを読み取ってRAM等のメモリに展開して各種機能を実行する。制御部10cは、信号抽出部101、判定部102、出力制御部103、および健康状態判定部105を備えている。記憶部12cは、特徴信号121、体内音信号122、推定モデル123、および参照体内音信号124を格納している。
 この構成を採用した場合、検知装置1cは、対象者の健康状態の判定処理を行い、判定結果をサーバ装置2aに出力する。次に、サーバ装置2aは、検知装置1cから対象者の健康状態に関する判定結果を取得する。そして、サーバ装置2aは、取得した判定結果が、対象者の健康状態が異常状態であることを示す判定結果である場合、対象者に対する医学的介入を勧奨する介入勧奨通知を出力する。
 〔実施形態6〕
 本開示の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 実施形態1に係る検知装置1は、センサ11、制御部10、記憶部12を備えるものとして説明したが、センサ11、制御部10、記憶部12は必ずしも一体の装置として構成される必要はない。本実施形態は、センサ11と、制御部10および記憶部12とを別体の装置として構成する形態である。
 図18は、本実施形態に係る情報処理システム100eの構成の一例を示す機能ブロック図である。情報処理システム100eは、センサ11、検知信号解析装置1d(情報処理装置)、および通信装置3を備えている。
 検知信号解析装置1dは、制御部10および記憶部12を備えている。検知信号解析装置1dは、センサ11と通信可能に接続されているコンピュータであってもよい。センサ11と検知信号解析装置1dとは、直接接続されていてもよいし、LANを介して通信可能に接続されていてもよい。
 図18に示す例に限らず、検知装置1a、1b、1cも、センサ11と、制御部10a、10b、10cおよび記憶部12a、12b、12cを備える検知信号解析装置(情報処理装置)とに分けて構成され得る。
 〔ソフトウェアによる実現例〕
 検知装置1、1a、1b、1c、検知信号解析装置1d、サーバ装置2、および通信装置3(以下、「装置」と呼ぶ)の機能は、当該装置としてコンピュータを機能させるためのプログラムであって、当該装置の各制御ブロック(特に制御部10,10a、10b、10c、20、30に含まれる各部)としてコンピュータを機能させるためのプログラムにより実現することができる。
 この場合、上記装置は、上記プログラムを実行するためのハードウェアとして、少なくとも1つの制御装置(例えばプロセッサ)と少なくとも1つの記憶装置(例えばメモリ)を有するコンピュータを備えている。この制御装置と記憶装置により上記プログラムを実行することにより、上記各実施形態で説明した各機能が実現される。
 上記プログラムは、一時的ではなく、コンピュータ読み取り可能な、1または複数の記録媒体に記録されていてもよい。この記録媒体は、上記装置が備えていてもよいし、備えていなくてもよい。後者の場合、上記プログラムは、有線または無線の任意の伝送媒体を介して上記装置に供給されてもよい。
 また、上記各制御ブロックの機能の一部または全部は、論理回路により実現することも可能である。例えば、上記各制御ブロックとして機能する論理回路が形成された集積回路も本開示の範疇に含まれる。この他にも、例えば量子コンピュータにより上記各制御ブロックの機能を実現することも可能である。
 また、上記各実施形態で説明した各処理は、AI(Artificial Intelligence:人工知能)に実行させてもよい。この場合、AIは上記制御装置で動作するものであってもよいし、他の装置(例えばエッジコンピュータまたはクラウドサーバ等)で動作するものであってもよい。
 本開示は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。
 〔まとめ〕
 本開示の態様1に係る情報処理システムは、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御部と、を備える。
 本開示の態様2に係る情報処理システムは、前記態様1において、前記睡眠判定部は、前記特徴信号を説明変数とし前記睡眠状態を目的変数とする教師データを用いて機械学習された推定モデルに、前記信号抽出部が抽出した前記特徴信号を入力することにより、前記睡眠状態を推定する構成であってもよい。
 本発明の態様3に係る情報処理システムは、対象者に接触しない位置で前記対象者が発した振動を検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御部と、を備える。
 本開示の態様4に係る情報処理システムは、前記態様3において、前記姿勢判定部は、前記検知信号および前記特徴信号の少なくともいずれかを説明変数とし前記対象者の姿勢を目的変数とする教師データを用いて機械学習された推定モデルに、前記センサが検知した前記検知信号および前記信号抽出部が抽出した前記特徴信号の少なくともいずれかを入力することにより、前記所定姿勢である確率を推定する構成であってもよい。
 本開示の態様5に係る情報処理システムは、前記態様3または4において、前記所定姿勢は、右臥位、左臥位、仰臥位、伏臥位、および座位のうちの少なくとも1つであってもよい。
 本開示の態様6に係る情報処理システムは、前記態様1~5のいずれかにおいて、前記センサは、前記検知信号を出力する複数の検知領域を備え、前記信号抽出部は、前記複数の検知領域の各々から出力される領域別検知信号の各々から、前記特徴信号と、前記体内音信号とを抽出してもよい。
 本開示の態様7に係る情報処理システムは、前記態様6において、前記領域別検知信号の各々から抽出された前記体内音信号に基づいて、前記対象者の体内における異常音発生部位を推定する部位推定部をさらに備えていてもよい。
 本開示の態様8に係る情報処理システムは、前記態様1~7のいずれかにおいて、前記センサは、周波数が100Hz以上である前記体内音信号、周波数が20Hz以下である前記心拍信号、前記呼吸振動信号、前記体動信号、および、周波数が100Hz以上である前記鼾音信号のうち少なくとも1つを取得してもよい。
 本開示の態様9に係る情報処理システムは、前記態様1~8のいずれかにおいて、前記センサは、薄板状であり、前記対象者が臥床するベッドに設置される構成であってもよい。
 本開示の態様10に係る情報処理システムは、前記態様1~9のいずれかにおいて、前記体内音信号は、前記対象者の肺音を示す肺音信号、および、前記対象者の血流音を示す血流音信号、前記対象者の心音を示す心音信号、前記対象者の腸音を示す腸音信号、および、前記対象者の蠕動音を示す蠕動音信号の少なくともいずれかを含んでいてもよい。
 本開示の態様11に係る情報処理システムは、前記態様1~10のいずれかにおいて、前記体内音信号と、所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定部をさらに備えていてもよい。
 本開示の態様12に係る情報処理システムは、前記態様11において、前記健康状態判定部は、前記検知信号に含まれる前記呼吸振動信号に基づいて、吸気区間と呼気区間とを判別可能であり、前記体内音信号と前記所定の参照体内音信号とを、吸気区間および呼気区間のそれぞれについて比較して、前記対象者の健康状態を判定してもよい。
 本開示の態様13に係る情報処理システムは、前記態様11または12において、前記健康状態判定部は、(1)前記対象者の肺音を示す肺音信号が前記所定の参照体内音信号より減弱または消失している、(2)異常音を示す異常音信号が前記肺音信号に混入している、および(3)副雑音を示す副雑音信号が前記肺音信号に混入している、の少なくともいずれかの場合に、前記対象者は異常状態であると判定し、前記副雑音は、前記対象者の水泡音、捻髪音、笛音、鼾音、ストライダー(stridor)、スクウォーク(squawk)、および胸膜摩擦音の少なくともいずれかを含んでいてもよい。
 本開示の態様14に係る情報処理システムは、前記態様13において、前記健康状態判定部は、前記肺音信号が前記所定の参照体内音信号から抽出された肺音信号より減弱または消失している場合、前記対象者は気胸、胸水、および無気肺の少なくともいずれかの疾患に罹患していると判定し、前記異常音信号が前記肺音信号に混入している場合、前記対象者は慢性閉塞性肺疾患および気管支喘息の少なくともいずれかの疾患に罹患していると判定してもよい。
 本開示の態様15に係る情報処理システムは、前記態様13または14において、前記健康状態判定部によって前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力部をさらに備えていてもよい。
 本開示の態様16に係る検知装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサと、前記センサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御部と、を備える。
 本開示の態様17に係る検知装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサと、前記センサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御部と、を備える。
 本開示の態様18に係る検知装置は、前記態様16または17において、前記体内音信号と、所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定部をさらに備えていてもよい。
 本開示の態様19に係る検知装置は、前記態様18において、前記健康状態判定部によって前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力部をさらに備えていてもよい。
 本開示の態様20に係るサーバ装置は、前記態様16または17に記載の検知装置から出力された前記体内音信号を取得し、該前記体内音信号と所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定部と、前記健康状態判定部によって前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力部と、を備える。
 本開示の態様21に係るサーバ装置は、前記態様18に記載の検知装置から出力された健康状態に関する判定結果を取得し、該取得した判定結果が、前記対象者の健康状態が異常状態であることを示す判定結果である場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力部を備える。
 本開示の態様22に係る情報処理装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号を取得し、該検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御部と、を備える。
 本開示の態様23に係る情報処理装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号を取得し、該検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御部と、を備える。
 本開示の態様24に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出ステップと、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定ステップと、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御ステップと、を含む。
 本開示の態様25に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出ステップと、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定ステップと、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御ステップと、を含む。
 本開示の態様26に係る制御方法は、1または複数のサーバ装置により実行される制御方法であって、前記態様24または25に記載の制御方法を実行する前記1または複数の情報処理装置から出力された前記体内音信号を取得し、該前記体内音信号と所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定ステップと、前記健康状態判定ステップにおいて前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力ステップと、を含む。
 本開示の態様27に係るプログラムは、前記態様1に記載の情報処理システムとしてコンピュータを機能させるためのプログラムであって、前記信号抽出部、前記睡眠判定部、および前記第1出力制御部としてコンピュータを機能させる。
 本開示の態様28に係るプログラムは、前記態様3に記載の情報処理システムとしてコンピュータを機能させるためのプログラムであって、前記信号抽出部、前記姿勢判定部、および前記第2出力制御部としてコンピュータを機能させる。
 本開示の態様29に係るプログラムは、前記態様20に記載のサーバ装置としてコンピュータを機能させるためのプログラムであって、前記健康状態判定部、および前記介入勧奨出力部としてコンピュータを機能させる。
 本開示の態様30に係るプログラムは、前記態様21に記載のサーバ装置としてコンピュータを機能させるためのプログラムであって、前記介入勧奨出力部としてコンピュータを機能させる。
 〔付記事項〕
 本開示の態様1に係る情報処理システムは、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾音を示す鼾音信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間に検知された前記検知信号から抽出された前記体内音信号を出力する第1出力制御部と、を備える。
 また、本開示の態様2に係る情報処理システムは、対象者に接触しない位置で前記対象者が発した振動を検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾音を示す鼾音信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間に検知された前記検知信号から抽出された前記体内音信号を出力する第2出力制御部と、を備える。
 本開示の態様3に係る検知装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサと、前記センサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾音を示す鼾音信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間に検知された前記検知信号から抽出された前記体内音信号を出力する第1出力制御部と、を備える。
 本開示の態様4に係る検知装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサと、前記センサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾音を示す鼾音信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間に検知された前記検知信号から抽出された前記体内音信号を出力する第2出力制御部と、を備える。
 本開示の態様5に係るサーバ装置は、上記態様3または4に係る検知装置から出力された前記体内音信号を取得し、該前記体内音信号と所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定部と、前記健康状態判定部によって前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力部と、を備える。
 本開示の態様6に係る情報処理装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号を取得し、該検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾音を示す鼾音信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間に検知された前記検知信号から抽出された前記体内音信号を出力する第1出力制御部と、を備える。
 本開示の態様7に係る情報処理装置は、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号を取得し、該検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾音を示す鼾音信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間に検知された前記検知信号から抽出された前記体内音信号を出力する第2出力制御部と、を備える。
 本開示の態様8に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾音を示す鼾音信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出ステップと、前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定ステップと、前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間に検知された前記検知信号から抽出された前記体内音信号を出力する第1出力制御ステップと、を含む。
 本開示の態様9に係る制御方法は、1または複数の情報処理装置により実行される制御方法であって、対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、前記対象者の体動を示す体動信号、および前記対象者の鼾音を示す鼾音信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出ステップと、前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定ステップと、前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間に検知された前記検知信号から抽出された前記体内音信号を出力する第2出力制御ステップと、を含む。
 本開示の態様10に係る制御方法は、1または複数のサーバ装置により実行される制御方法であって、上記態様8または9に係る制御方法を実行する前記1または複数の情報処理装置から出力された前記体内音信号を取得し、該前記体内音信号と所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定ステップと、前記健康状態判定ステップにおいて前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力ステップと、を含む。
 本開示の各態様に係る情報処理システム、検知装置、サーバ装置、および情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記情報処理システム、前記検知装置、前記サーバ装置、および前記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより前記情報処理システム、前記検知装置、および前記サーバ装置をコンピュータにて実現させる、前記情報処理システム、前記検知装置、前記サーバ装置、および前記情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本開示の範疇に入る。
 本開示の実施例について、図21~図36を参照して説明する。なお、図21~図29、および図33~図36に示すソノグラムにおいて、横軸は時間(秒)を示しており、縦軸は周波数(Hz)を示している。
 <覚醒時/睡眠時に対応する体内音信号>
 覚醒状態または睡眠状態の対象者(健常者)が発した振動を該対象者に接触しない位置のセンサ11から出力される検知信号から抽出された体内音信号(肺音信号を含む)の例を、図21および図22に示す。図21は、健常者の、覚醒時(入床直後)の体内音信号を示すソノグラムであり、図22は、健常者の、睡眠時の体内音信号の一例を示すソノグラムである。対象者が覚醒している場合、図21に示すソノグラムに示すように、呼吸音は睡眠時より大きく(すなわち、強度が高い)、呼吸リズムは一定しておらず、時折(例えば、39秒付近)体動由来のノイズが検出された。一方、対象者が睡眠している場合、図22に示すソノグラムに示すように、呼吸音は覚醒時より小さく(強度が低い)、呼吸リズムはほぼ一定であった。図22において、0~2秒、4~6秒等において検出されている各ピークがそれぞれ1回の呼吸に対応しており、0秒~1秒のピークが吸気区間由来の音に対応し、1秒~2秒のピークが呼気区間由来の音に対応している。このように、センサ11から出力される検知信号から、対象者の体内音信号を抽出することが可能であった。また、抽出された体内音信号に基づいて、対象者が覚醒状態なのか睡眠状態なのかを判定することが可能であることが分かった。
 <姿勢に対応する体内音信号>
 続いて、姿勢が異なる対象者(健常者)が発した振動を該対象者に接触しない位置のセンサ11から出力される検知信号から抽出された体内音信号(肺音信号を含む)の例を、図23および図24に示す。図23は、健常者(左臥位)の体内音信号を示すソノグラムであり、図24は、健常者(仰臥位)の体内音信号の一例を示すソノグラムである。図24に示すソノグラムにおいて、1~3秒あたりに見られる200Hzあたりのピーク(図中のA)が吸気区間由来の音に対応しており、3~4秒あたりに見られる200Hzあたりのピーク(図中のB)が呼気区間由来の音に対応している。図23に示すソノグラムにおいて、1~3秒あたりに見られる200Hzあたりのピークが吸気区間由来の音に対応しており、3~4秒あたりに見られる200Hzあたりのピークが呼気区間由来の音に対応している。図23に示すソノグラムと図24に示すソノグラムとを比較すれば、対象者が仰臥位である場合の方が左臥位である場合に比べて、吸気区間由来の音に対応している信号および呼気区間由来の音に対応している信号の強度が高く、吸気区間由来の音に対応するピークも呼気区間由来の音に対応するピークも明確であることが分かった。すなわち、抽出された体内音信号に基づいて、対象者の姿勢が左臥位なのか仰臥位なのかを判定することが可能であることが分かった。この他、抽出された体内音信号に基づいて、対象者の姿勢が座位なのか臥位なのかを判定することも可能であった。
 <捻髪音信号または水泡音信号を含む肺音信号>
 次に、対象者の肺音信号に異常音が含まれる場合の検出精度について検証した。図25は、非健常者の、捻髪音信号を含む肺音信号の一例を示すソノグラムであり、図26は、非健常者の、水泡音信号を含む肺音信号の一例を示すソノグラムである。肺音に捻髪音が含まれている場合、肺音信号における200Hz以上の周波数を有する成分の含有比率が高くなっており、図25に示す例では、200~800Hzの波長範囲に、強度の高い信号(図中のC)が検出された。肺音に水泡音が含まれている場合、肺音信号における200Hz以上の周波数を有する成分の含有比率が高くなっており、図26に示す例では、200~400Hzの波長範囲に、強度の高い信号(図中のD)が検出された。
 次に、肺音信号における、捻髪音信号および水泡音信号の特徴(断続性の有無を含む)について図27~図29によって検証した。図27は、健常者(仰臥位)の肺音信号の高強度部分のみを抽出したソノグラムである。図28は、非健常者の、捻髪音信号を含む肺音信号の高強度部分のみを抽出したソノグラムであり、図29は、非健常者の、水泡音信号を含む肺音信号の高強度部分のみを抽出したソノグラムである。まず、図27と、図28および図29とを比較すれば、肺音に捻髪音または水泡音が含まれている場合、肺音信号における200Hz以上の周波数を有する成分の含有比率が明らかに高くなっていた。また、図28では、200~700Hzに縦縞様のパターンを有する信号が見られた。この縦縞パターンは、肺音信号における200Hz以上の周波数を有する音信号が断続性を有していることに起因する。図29では、このような縦縞パターンは200Hz以上の周波数を有する音信号に見られず、200Hz以下の周波数を有する音信号でみられた。すなわち、抽出された肺音信号に基づいて、下記の判定(I)および(II)が満たされている場合は、捻髪音信号および水泡音信号のいずれかに該当すると判定可能であることが分かった。
 (I)200Hz以上の周波数を有する成分の含有比率が、所定の参照体内音信号(例えば、健常者の肺音信号)以上であること(図14のS604にてYES)。
 (II)肺音信号において連続性ラ音が検出されていないこと(図14のS609にてNO)。
そして、肺音信号において、断続性ラ音の周波数が200Hzより高い場合は捻髪音信号であり、200Hz以下である場合は水泡音信号であると判定可能(図14のS613)であることが分かった。肺音信号に基づいて、肺音信号に含まれる捻髪音信号および水泡音信号以外の副雑音信号の種類も判定可能であることも確認された。
 <肺音信号のパワースペクトル>
 次に、肺音信号のパワースペクトルを調べた。図30は、健常者(仰臥位)の肺音信号のパワースペクトルの一例を示す図である。健常者の肺音信号は、周波数が低いほど強度が高く、周波数が高くなるに従い一様に強度が低下するパワースペクトルを示す。他方、非健常者の(すなわち、副雑音信号が混入している)肺音信号のパワースペクトルは異なる形状であった。図31は、非健常者の、捻髪音信号を含む肺音信号のパワースペクトルの一例を示す図であり、図32は、非健常者の、水泡音信号を含む肺音信号のパワースペクトルの一例を示す図である。捻髪音信号を含む場合、図31に示すように、100~600Hzの波長範囲にピークを有するパワースペクトルとなっていた。水泡音信号を含む場合、図32に示すように、50~400Hzの波長範囲にピークを有するパワースペクトルとなっていた。このように、肺音信号に副雑音信号が混入することによって、肺音信号のパワースペクトルの波形が変化していることが確認された。
 図31および図32では、副雑音の混入を示す明確なピークを有しているパワースペクトルを示した。しかし、疾患の進行度合い等によっては、パワースペクトルにおいて副雑音の混入を示す明確なピークが見られない場合もあり得る。このような場合であっても、健常者のパワースペクトルと非健常者のパワースペクトルとを比較した場合、肺音信号における低周波数領域(例えば、400Hz以下)のパワー値と高周波数領域(例えば、600Hz以上)のパワー値との比率が異なっていた。すなわち、肺音信号における低周波数領域のパワー値と高周波数領域のパワー値との比率に基づいて、当該肺音信号に副雑音信号が混入しているか否かを判定できることが分かった。
 <特徴信号の例>
 体内音信号に含まれる特徴信号の例を、図33~図36に示す。図33は、健常者の心拍信号の一例を示すソノグラムであり、図34は、健常者の体動信号の一例を示すソノグラムであり、図35は、健常者(覚醒時)の呼吸音信号の一例を示すソノグラムであり、図36は、健常者(睡眠時)の呼吸音信号の一例を示すソノグラムである。対象者に接触しない位置のセンサ11から出力される検知信号から、該対象者の心拍信号、体動信号、および呼吸音信号等の特徴信号が抽出され得ることが確認された。
1、1a、1b、1c 検知装置
1d 検知信号解析装置(情報処理装置)
2 サーバ装置
3 通信装置
11 センサ
100、100a、100b、100c、100d、100e 情報処理システム
101 信号抽出部
102 判定部(睡眠判定部、姿勢判定部)
103 出力制御部(第1出力制御部、第2出力制御部)
104 部位推定部
105 健康状態判定部
106 介入勧奨出力部
123 推定モデル
S1、S1a 信号抽出ステップ
S2 睡眠判定ステップ
S2a 姿勢判定ステップ
S3 出力制御ステップ(第1出力制御ステップ、第2出力制御ステップ)
S6 健康状態判定ステップ
S8 介入勧奨出力ステップ

Claims (30)

  1.  対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、
     前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、
     前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御部と、を備える情報処理システム。
  2.  前記睡眠判定部は、前記特徴信号を説明変数とし前記睡眠状態を目的変数とする教師データを用いて機械学習された推定モデルに、前記信号抽出部が抽出した前記特徴信号を入力することにより、前記睡眠状態を推定する、
    請求項1に記載の情報処理システム。
  3.  対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、
     前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、
     前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御部と、を備える情報処理システム。
  4.  前記姿勢判定部は、前記検知信号および前記特徴信号の少なくともいずれかを説明変数とし前記対象者の姿勢を目的変数とする教師データを用いて機械学習された推定モデルに、前記センサが検知した前記検知信号および前記信号抽出部が抽出した前記特徴信号の少なくともいずれかを入力することにより、前記所定姿勢である確率を推定する、
    請求項3に記載の情報処理システム。
  5.  前記所定姿勢は、右臥位、左臥位、仰臥位、伏臥位、および座位のうちの少なくとも1つである、
    請求項3または4に記載の情報処理システム。
  6.  前記センサは、前記検知信号を出力する複数の検知領域を備え、
     前記信号抽出部は、前記複数の検知領域の各々から出力される領域別検知信号の各々から、前記特徴信号と、前記体内音信号とを抽出する、
    請求項1または3に記載の情報処理システム。
  7.  前記領域別検知信号の各々から抽出された前記体内音信号に基づいて、前記対象者の体内における異常音発生部位を推定する部位推定部をさらに備える、
    請求項6に記載の情報処理システム。
  8.  前記センサは、周波数が100Hz以上である前記体内音信号、周波数が20Hz以下である前記心拍信号、前記呼吸振動信号、および、前記体動信号のうち少なくとも1つを取得する、
    請求項1または3に記載の情報処理システム。
  9.  前記センサは、薄板状であり、前記対象者が臥床するベッドに設置される、
    請求項1または3に記載の情報処理システム。
  10.  前記体内音信号は、前記対象者の肺音を示す肺音信号、および、前記対象者の血流音を示す血流音信号、前記対象者の心音を示す心音信号、前記対象者の腸音を示す腸音信号、および、前記対象者の蠕動音を示す蠕動音信号の少なくともいずれかを含む、
    請求項1または3に記載の情報処理システム。
  11.  前記体内音信号と、所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定部をさらに備える、
    請求項1または3に記載の情報処理システム。
  12.  前記健康状態判定部は、
      前記検知信号に含まれる前記呼吸振動信号に基づいて、吸気区間と呼気区間とを判別可能であり、
      前記体内音信号と前記所定の参照体内音信号とを、吸気区間および呼気区間のそれぞれについて比較して、前記対象者の健康状態を判定する、
    請求項11に記載の情報処理システム。
  13.  前記健康状態判定部は、(1)前記対象者の肺音を示す肺音信号が前記所定の参照体内音信号より減弱または消失している、(2)異常音を示す異常音信号が前記肺音信号に混入している、および(3)副雑音を示す副雑音信号が前記肺音信号に混入している、の少なくともいずれかの場合に、前記対象者は異常状態であると判定し、
     前記副雑音は、前記対象者の水泡音、捻髪音、笛音、鼾音、ストライダー(stridor)、スクウォーク(squawk)、および胸膜摩擦音の少なくともいずれかを含む、
    請求項11に記載の情報処理システム。
  14.  前記健康状態判定部は、
      前記肺音信号が前記所定の参照体内音信号から抽出された肺音信号より減弱または消失している場合、前記対象者は気胸、胸水、および無気肺の少なくともいずれかの疾患に罹患していると判定し、
      前記異常音信号が前記肺音信号に混入している場合、前記対象者は慢性閉塞性肺疾患および気管支喘息の少なくともいずれかの疾患に罹患していると判定する、
    請求項13に記載の情報処理システム。
  15.  前記健康状態判定部によって前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力部をさらに備える、
    請求項13に記載の情報処理システム。
  16.  対象者が発した振動を前記対象者に接触しない位置で検知するセンサと、
     前記センサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、
     前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、
     前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御部と、を備える検知装置。
  17.  対象者が発した振動を前記対象者に接触しない位置で検知するセンサと、
     前記センサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、
     前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、
     前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御部と、を備える検知装置。
  18.  前記体内音信号と、所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定部をさらに備える、
    請求項16または17に記載の検知装置。
  19.  前記健康状態判定部によって前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力部をさらに備える、
    請求項18に記載の検知装置。
  20.  請求項16または17に記載の検知装置から出力された前記体内音信号を取得し、該前記体内音信号と所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定部と、
     前記健康状態判定部によって前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力部と、を備える、サーバ装置。
  21.  請求項18に記載の検知装置から出力された健康状態に関する判定結果を取得し、該取得した判定結果が、前記対象者の健康状態が異常状態であることを示す判定結果である場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力部を備える、サーバ装置。
  22.  対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号を取得し、該検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、
     前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定部と、
     前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御部と、を備える情報処理装置。
  23.  対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号を取得し、該検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出部と、
     前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定部と、
     前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御部と、を備える情報処理装置。
  24.  1または複数の情報処理装置により実行される制御方法であって、
     対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出ステップと、
     前記抽出された特徴信号に基づいて、前記対象者が睡眠状態であることを判定する睡眠判定ステップと、
     前記対象者が睡眠状態であると判定された場合に、該対象者が睡眠状態であると判定された期間の前記体内音信号を出力する第1出力制御ステップと、を含む、制御方法。
  25.  1または複数の情報処理装置により実行される制御方法であって、
     対象者が発した振動を前記対象者に接触しない位置で検知するセンサから出力される検知信号から、前記対象者の心拍を示す心拍信号、前記対象者の呼吸振動を示す呼吸振動信号、および前記対象者の体動を示す体動信号の少なくともいずれかを含む特徴信号と、前記対象者の体内から生じる体内音を示す体内音信号とを抽出する信号抽出ステップと、
     前記検知信号および前記抽出された特徴信号の少なくともいずれかに基づいて、前記対象者が所定姿勢であることを判定する姿勢判定ステップと、
     前記対象者が前記所定姿勢であると判定された場合に、該対象者が前記所定姿勢であると判定された期間の前記体内音信号を出力する第2出力制御ステップと、を含む、制御方法。
  26.  1または複数のサーバ装置により実行される制御方法であって、
     請求項24または25に記載の制御方法を実行する前記1または複数の情報処理装置から出力された前記体内音信号を取得し、該前記体内音信号と所定の参照体内音信号とを比較して、前記対象者の健康状態を判定する健康状態判定ステップと、
     前記健康状態判定ステップにおいて前記対象者の健康状態が異常状態であると判定された場合、前記対象者に対する医学的介入を勧奨する介入勧奨通知を出力する介入勧奨出力ステップと、を含む制御方法。
  27.  請求項1に記載の情報処理システムとしてコンピュータを機能させるためのプログラムであって、前記信号抽出部、前記睡眠判定部、および前記第1出力制御部としてコンピュータを機能させるためのプログラム。
  28.  請求項3に記載の情報処理システムとしてコンピュータを機能させるためのプログラムであって、前記信号抽出部、前記姿勢判定部、および前記第2出力制御部としてコンピュータを機能させるためのプログラム。
  29.  請求項20に記載のサーバ装置としてコンピュータを機能させるためのプログラムであって、前記健康状態判定部、および前記介入勧奨出力部としてコンピュータを機能させるためのプログラム。
  30.  請求項21に記載のサーバ装置としてコンピュータを機能させるためのプログラムであって、前記介入勧奨出力部としてコンピュータを機能させるためのプログラム。
PCT/JP2023/001494 2022-01-21 2023-01-19 情報処理システム、検知装置、サーバ装置、情報処理装置、制御方法、プログラム WO2023140317A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202380013655.XA CN117999029A (zh) 2022-01-21 2023-01-19 信息处理系统、检测装置、服务器装置、信息处理装置、控制方法及程序
KR1020247008525A KR20240042112A (ko) 2022-01-21 2023-01-19 정보 처리 시스템, 검지 장치, 서버 장치, 정보 처리 장치, 제어 방법, 기억 매체

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2022007906 2022-01-21
JP2022-007906 2022-01-21
JP2022085522 2022-05-25
JP2022-085522 2022-05-25

Publications (1)

Publication Number Publication Date
WO2023140317A1 true WO2023140317A1 (ja) 2023-07-27

Family

ID=87348284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/001494 WO2023140317A1 (ja) 2022-01-21 2023-01-19 情報処理システム、検知装置、サーバ装置、情報処理装置、制御方法、プログラム

Country Status (3)

Country Link
KR (1) KR20240042112A (ja)
TW (1) TW202329883A (ja)
WO (1) WO2023140317A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014185397A1 (ja) * 2013-05-13 2014-11-20 ヘルスセンシング株式会社 人の健康状態検出方法及び健康状態検出装置
JP2016007417A (ja) * 2014-06-25 2016-01-18 株式会社東芝 睡眠センサ
JP2017018517A (ja) * 2015-07-15 2017-01-26 Tdk株式会社 睡眠時鼾解析装置、睡眠時鼾解析方法及びそのプログラム
JP2018015061A (ja) * 2016-07-25 2018-02-01 セイコーエプソン株式会社 血圧測定装置および血圧測定方法
JP2020081364A (ja) * 2018-11-26 2020-06-04 パイオニア株式会社 情報処理装置、システム、情報処理方法、およびプログラム
JP2020130879A (ja) * 2019-02-25 2020-08-31 株式会社Z−Works 体位変化判定システム、体位変化判定方法及び体位変化判定プログラム
JP2021124754A (ja) * 2020-01-31 2021-08-30 積水ハウス株式会社 プログラム及び評価装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2164388B1 (en) 2007-06-08 2020-10-21 Sonomedical Pty Ltd. Passive monitoring sensor system for use with mattress
WO2016166318A1 (en) 2015-04-16 2016-10-20 Koninklijke Philips N.V. Device, system and method for detecting a cardiac and/or respiratory disease of a subject

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014185397A1 (ja) * 2013-05-13 2014-11-20 ヘルスセンシング株式会社 人の健康状態検出方法及び健康状態検出装置
JP2016007417A (ja) * 2014-06-25 2016-01-18 株式会社東芝 睡眠センサ
JP2017018517A (ja) * 2015-07-15 2017-01-26 Tdk株式会社 睡眠時鼾解析装置、睡眠時鼾解析方法及びそのプログラム
JP2018015061A (ja) * 2016-07-25 2018-02-01 セイコーエプソン株式会社 血圧測定装置および血圧測定方法
JP2020081364A (ja) * 2018-11-26 2020-06-04 パイオニア株式会社 情報処理装置、システム、情報処理方法、およびプログラム
JP2020130879A (ja) * 2019-02-25 2020-08-31 株式会社Z−Works 体位変化判定システム、体位変化判定方法及び体位変化判定プログラム
JP2021124754A (ja) * 2020-01-31 2021-08-30 積水ハウス株式会社 プログラム及び評価装置

Also Published As

Publication number Publication date
TW202329883A (zh) 2023-08-01
KR20240042112A (ko) 2024-04-01

Similar Documents

Publication Publication Date Title
Lin et al. Sleep apnea detection based on thoracic and abdominal movement signals of wearable piezoelectric bands
Pillar et al. Detecting central sleep apnea in adult patients using WatchPAT—a multicenter validation study
US20080275349A1 (en) Monitoring, predicting and treating clinical episodes
Yadollahi et al. A robust method for estimating respiratory flow using tracheal sounds entropy
US7276031B2 (en) System and method for classifying patient's breathing using artificial neural network
US20080281219A1 (en) Method and System for Assessing Lung Condition and Managing Mechanical Respiratory Ventilation
Verse et al. Validation of the POLY-MESAM seven-channel ambulatory recording unit
KR20110126646A (ko) 만성 질환 모니터링용 장치, 시스템 및 방법
JP2012161641A (ja) 呼吸信号から呼吸パターンを検出して識別する方法
JP7471437B2 (ja) 気道圧の管理のための睡眠および呼吸行動の決定および/または予測のための方法および装置
CN111563451A (zh) 基于多尺度小波特征的机械通气无效吸气努力识别方法
US20140230818A1 (en) Methods for prediction of ventilation treatment inadequacy
Nizami et al. Comparing time and frequency domain estimation of neonatal respiratory rate using pressure-sensitive mats
Palaniappan et al. Classification of pulmonary pathology from breath sounds using the wavelet packet transform and an extreme learning machine
JP6291922B2 (ja) 睡眠深度判定装置
WO2023140317A1 (ja) 情報処理システム、検知装置、サーバ装置、情報処理装置、制御方法、プログラム
Khandoker et al. Modeling respiratory movement signals during central and obstructive sleep apnea events using electrocardiogram
Hajipour et al. Regularized logistic regression for obstructive sleep apnea screening during wakefulness using daytime tracheal breathing sounds and anthropometric information
Van Meerhaeghe et al. Operating characteristics of the negative expiratory pressure technique in predicting obstructive sleep apnoea syndrome in snoring patients
Montazeri Ghahjaverestan et al. Automatic respiratory phase identification using tracheal sounds and movements during sleep
CN117999029A (zh) 信息处理系统、检测装置、服务器装置、信息处理装置、控制方法及程序
Glazova et al. A method and algorithm for remote monitoring of patients in asthma
Kanji Classification of Auscultation Sounds Using a Smart System
JP7294707B2 (ja) 睡眠監視カプセル及び睡眠監視システム
Alamdari et al. High frequency-low amplitude oscillometry: Continuous unobtrusive monitoring of respiratory function on PAP machines

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2023530944

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23743310

Country of ref document: EP

Kind code of ref document: A1