WO2020234957A1 - リハビリ支援システム、およびリハビリ支援方法 - Google Patents

リハビリ支援システム、およびリハビリ支援方法 Download PDF

Info

Publication number
WO2020234957A1
WO2020234957A1 PCT/JP2019/019887 JP2019019887W WO2020234957A1 WO 2020234957 A1 WO2020234957 A1 WO 2020234957A1 JP 2019019887 W JP2019019887 W JP 2019019887W WO 2020234957 A1 WO2020234957 A1 WO 2020234957A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
state
unit
rehabilitation
support system
Prior art date
Application number
PCT/JP2019/019887
Other languages
English (en)
French (fr)
Inventor
新 豊田
小笠原 隆行
賢一 松永
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2019/019887 priority Critical patent/WO2020234957A1/ja
Priority to US17/607,088 priority patent/US20220117550A1/en
Priority to JP2021520521A priority patent/JP7298685B2/ja
Publication of WO2020234957A1 publication Critical patent/WO2020234957A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/486Bio-feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0015Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
    • A61B5/0022Monitoring a patient using a global network, e.g. telephone networks, internet
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/082Evaluation by breath analysis, e.g. determination of the chemical composition of exhaled breath
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Definitions

  • the present invention relates to a rehabilitation support system and a rehabilitation support method.
  • Patent Document 1 discloses a technique for more accurately analyzing a patient's activity state by focusing on lifestyle habits based on acceleration measured by a sensor worn by a user.
  • rehabilitation it is possible to calculate the physical activity state of a user such as a patient performing rehabilitation (hereinafter, simply referred to as “rehabilitation") and present information such as the calculation result.
  • rehabilitation it has not been performed to present active information to users to improve their motivation to actively engage in rehabilitation.
  • Non-Patent Document 2 proposes a rehabilitation support technique that arouses motivation for rehabilitation to the user when the user carries out rehabilitation training.
  • the conventional rehabilitation support technology is support provided based on the user's rehabilitation record after the user has performed rehabilitation training, the user is rehabilitated before the user performs rehabilitation. There was a problem that it was not possible to present information that motivated people to do it.
  • the present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a rehabilitation support technique capable of further motivating a user to work on rehabilitation before the user performs rehabilitation. And.
  • the rehabilitation support system has a sensor data acquisition unit that acquires sensor data including the user's biological information measured by the sensor, and the rehabilitation support system based on the acquired sensor data.
  • a state calculation unit that obtains the user's state
  • a prediction unit that predicts the user's state from the user's state obtained by the state calculation unit
  • a storage that stores support information presented as information that supports rehabilitation.
  • a selection unit that selects the support information stored in the storage unit based on the unit and the user's state predicted by the prediction unit, and a presentation that presents the support information selected by the selection unit. It has a part.
  • the state calculation unit calculates the cumulative time of the user's state
  • the prediction unit is based on the cumulative time of the user's state calculated by the state calculation unit. Therefore, the cumulative time of the state of the user over a certain period in the future may be predicted.
  • the rehabilitation support system further includes a determination unit for determining whether or not the state of the user predicted by the prediction unit satisfies the condition set for the execution of rehabilitation, and the selection unit further includes a determination unit. , The support information according to the determination result by the determination unit may be selected.
  • the determination unit may set a threshold value used for determination based on information including statistical data regarding rehabilitation for each user.
  • the determination unit may set a threshold value used for determination based on the history of the state of the user calculated by the state calculation unit.
  • the presentation unit may include a display device that displays an image representing the support information selected by the selection unit.
  • the state of the user may include at least one of lying down, standing, sitting, and walking.
  • the rehabilitation support method includes a first step of acquiring sensor data including biometric information of the user measured by the sensor, and the user based on the acquired sensor data. Based on the second step of obtaining the state of the user, the third step of predicting the state of the user from the state of the user obtained in the second step, and the state of the user predicted in the third step.
  • the present invention includes a fourth step of selecting support information to be presented as information for supporting rehabilitation stored in the storage unit, and a fifth step of presenting the support information selected in the fourth step.
  • the user's state is predicted from the user's state obtained based on the sensor data including the biological information
  • the user's motivation to work on the rehabilitation is further increased before the user performs the rehabilitation. Can be pulled out.
  • FIG. 1 is a block diagram showing a functional configuration of a rehabilitation support system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing an example of a computer configuration that realizes the rehabilitation support system according to the first embodiment.
  • FIG. 3 is a flowchart illustrating the operation of the rehabilitation support system according to the first embodiment.
  • FIG. 4 is a diagram for explaining an outline of a specific configuration example of the rehabilitation support system according to the first embodiment.
  • FIG. 5 is a block diagram showing a configuration example of the rehabilitation support system according to the first embodiment.
  • FIG. 6 is a sequence diagram of the rehabilitation support system according to the first embodiment.
  • FIG. 7 is a block diagram showing a configuration of the rehabilitation support system according to the second embodiment.
  • FIG. 1 is a block diagram showing a functional configuration of a rehabilitation support system according to the first embodiment of the present invention.
  • FIG. 2 is a block diagram showing an example of a computer configuration that realizes the rehabilitation support system according to the first embodiment.
  • FIG. 8 is a diagram for explaining a prediction unit according to the second embodiment.
  • FIG. 9 is a diagram for explaining a prediction unit according to the second embodiment.
  • FIG. 10 is a flowchart illustrating the operation of the rehabilitation support system according to the second embodiment.
  • FIG. 11 is a block diagram showing a configuration of the rehabilitation support system according to the third embodiment.
  • FIG. 12 is a diagram for explaining a determination unit according to the third embodiment.
  • FIG. 13 is a diagram for explaining a determination unit according to the third embodiment.
  • FIG. 14 is a flowchart illustrating the operation of the rehabilitation support system according to the third embodiment.
  • FIG. 15 is a flowchart illustrating the operation of the rehabilitation support system according to the third embodiment.
  • FIG. 16 is a block diagram showing a configuration of the rehabilitation support system according to the fourth embodiment.
  • the user is a patient or the like who needs to perform rehabilitation, and for example, since there are many lying positions, a case of performing rehabilitation such as getting up or walking will be described as an example.
  • FIG. 1 is a block diagram showing a functional configuration of a rehabilitation support system.
  • the rehabilitation support system acquires sensor data including the user's biological information measured by the sensor 105, and obtains the user's state.
  • the rehabilitation support system predicts the user's condition in a certain period in the future based on the history of the requested user's condition. Further, it is determined whether or not the predicted user's state satisfies a preset condition regarding the implementation of the user's rehabilitation, and the support information for supporting the rehabilitation according to the determination result is selected and presented.
  • the rehabilitation support system includes a sensor data acquisition unit 10 for acquiring data from the sensor 105, a state calculation unit 11, a prediction unit 12, a determination unit 13, a storage unit 14, a selection unit 15, a presentation unit 16, and a transmission / reception unit 17.
  • the sensor data acquisition unit 10 acquires sensor data including the user's biological information measured by the sensor 105. More specifically, when the acceleration sensor is attached to the user as the sensor 105, the sensor data acquisition unit 10 converts the analog acceleration signal measured by the acceleration sensor into a digital signal at a predetermined sampling rate. The biological information measured by the sensor data acquisition unit 10 is stored in a storage unit 14 described later in association with the measurement time.
  • the sensor data acquisition unit 10 may acquire angular velocity, light, electromagnetic waves, temperature / humidity, pressure, position information, voice, concentration, voltage, resistance, etc. as the user's biological information in addition to acceleration.
  • the sensor data acquisition unit 10 can acquire electrocardiographic activity, myoelectric potential activity, blood pressure, body gas exchanged by respiration, body temperature, pulse, and brain wave as biometric information of the user obtained from these physical quantities.
  • the sensor data acquisition unit 10 may acquire external environment data of the place where the user is located in addition to the biometric information of the user.
  • the external environment data includes, for example, the room temperature of the place where the user is, the outside air temperature, the humidity, and the like.
  • the sensor data acquisition unit 10 may acquire the user's biological information from each of the plurality of sensors 105 that measure the user's biological information.
  • the state calculation unit 11 calculates the user's state from the sensor data including the user's biological information acquired by the sensor data acquisition unit 10.
  • the user's state refers to posture, coordinates, speed, speech, breathing, walking, sitting, driving, sleep, body movement, stress, etc. that occur during rehabilitation and daily life performed by the user. Further, it may be information or other calculation results indicating the amounts such as the magnitude, frequency, increase / decrease, duration, and accumulation.
  • the state calculation unit 11 may estimate the user's state by using, for example, the wake-up state and the bed-rest state estimated by using the acceleration of the user described in Patent Document 1.
  • the state calculation unit 11 it is possible to grasp that the user is performing rehabilitation, the progress of the rehabilitation, and further, where the user is. Based on the calculated state of the user, for example, it is possible to distinguish whether the user performed rehabilitation in the training room with a doctor or rehabilitation in his / her room or another place as voluntary training.
  • the state calculation unit 11 may obtain the user's state based on the user's biological information acquired over the period from the time when the sensor 105 is attached to the user and the measurement is started to the latest measurement time.
  • the user's state calculated by the state calculation unit 11 is stored in the storage unit 14 together with the time information.
  • the prediction unit 12 predicts the user's state from the user's state obtained by the state calculation unit 11. More specifically, the prediction unit 12 receives the user's state calculated by the state calculation unit 11 as input and gives it to a preset model formula, predicts and outputs the user's state in a certain period in the future. For example, the prediction unit 12 can predict the state of the user in 30 minutes one hour or two hours after the current time.
  • the prediction unit 12 can use a model formula based on a prediction model constructed in advance by regression analysis or the like. For example, using the past user state calculated by the state calculation unit 11 as the objective variable, the relationship between the explanatory variables that are a plurality of factor candidates with respect to the objective variable is analyzed, and the coefficient of each factor candidate is obtained to calculate the regression equation. However, this can be used as a model formula.
  • the model formula is stored in the storage unit 14 in advance.
  • the model formula used by the prediction unit 12 includes the history of the user's state obtained by the state calculation unit 11, sensor data related to the external environment such as the temperature measured by the sensor 105, and attributes such as the user's age and gender. May be used. For example, if the temperature of the place where the user is located is higher or lower than a certain level, for example, in the range of 20 ° C to 25 ° C, it is considered that the user is physically and psychologically uncomfortable in performing the rehabilitation. In particular, when the user continuously performs rehabilitation with a relatively low exercise load such as sitting, standing, and walking for a certain period of time or longer, the effect of the limit due to psychological discomfort rather than the physical limit. Is considered to be larger.
  • the prediction unit 12 can more accurately predict the future state of the user by using a model formula that considers the external environment such as temperature and humidity and the attributes of the user.
  • a model formula that considers the external environment such as temperature and humidity and the attributes of the user.
  • height, weight, illness details, length of hospital stay, and other medical examination information can be used as user attributes.
  • data based on the attributes of these users for example, BMI, degree of recovery, treatment history, and treatment transition may be used.
  • the determination unit 13 determines whether or not the user's state predicted by the prediction unit 12 satisfies the conditions set for the implementation of rehabilitation.
  • the conditions set for the implementation of rehabilitation are the conditions set from the viewpoint of improving the motivation of the user to perform the rehabilitation.
  • the determination result by the determination unit 13 is input to the selection unit 15. In the present embodiment, the determination unit 13 reads out the conditions stored in the storage unit 14 and performs the determination process.
  • the determination unit 13 can determine whether or not the user's state predicted by the prediction unit 12 is a preset specific state. For example, consider a case where a user who is in a lying position rehabilitates waking up or walking. In such a case, the determination unit 13 may determine whether or not the predicted user's state is a wake-up state or a walking state indicating the execution of rehabilitation.
  • the determination unit 13 includes not only the user's state but also time information and a type of biometric information different from the specific biometric information used when calculating the user's state, and external environment. Judgment can be made using conditions using data and the like. Further, the determination unit 13 may output a determination result based on a plurality of conditions.
  • the storage unit 14 stores a model formula for predicting the user's state used by the prediction unit 12. Further, the storage unit 14 stores the conditions set for carrying out the rehabilitation used by the determination unit 13.
  • the storage unit 14 stores rehabilitation support information.
  • the rehabilitation support information is information that urges the user to carry out rehabilitation.
  • the rehabilitation support information may be, for example, a state of an item that changes spatiotemporally.
  • An item is a user-recognizable form of information represented by text, sound, vibration, heat, light, wind, stimulus, etc., and a combination thereof.
  • a specific scene of the moving image may be stored in the storage unit 14 as the condition of the item.
  • the rehabilitation support information means the condition of an item such as an image.
  • the condition of the item such as an image and the determination result are stored in association with each other.
  • the storage unit 14 stores the time-series data of the user's biometric information acquired by the sensor data acquisition unit 10. Further, the storage unit 14 stores the history of the user's state calculated by the state calculation unit 11. The calculated user state is stored in the storage unit 14 together with the measurement time of the biometric information that is the basis for the calculated state.
  • the selection unit 15 selects the condition of an item such as an image stored in the storage unit 14 according to the determination result by the determination unit 13. More specifically, if the predicted user's condition does not match a particular condition indicating rehabilitation, it is predicted that the user has not performed rehabilitation for a period of time in the future. Therefore, the selection unit 15 selects the state of the image that calls attention, which is stored in the storage unit 14. Further, in the case of a determination result indicating that the user is performing rehabilitation in a certain period in the future, the selection unit 15 is the state of the image stored in the storage unit 14 as the rehabilitation support information presented at normal times. Can be selected.
  • the selection unit 15 can change the state of the image, for example, in a game-type application, such as giving a privilege or changing the content of the application.
  • the presentation unit 16 causes the display device 109 to display the condition of the item to be presented as the rehabilitation support information selected by the selection unit 15. For example, when the user wakes up in the morning, he / she actively performs rehabilitation such as waking up or walking during the day by seeing the image or text information of the condition that encourages the rehabilitation to be performed on the display device 109. Motivate.
  • the transmission / reception unit 17 receives sensor data including the user's biological information measured by the sensor 105. Further, the transmission / reception unit 17 may convert the rehabilitation support information selected by the selection unit 15 according to a predetermined communication standard and send it to the presentation unit 16 connected to the communication network.
  • the rehabilitation support system includes, for example, a computer including a processor 102, a main storage device 103, a communication interface 104, an auxiliary storage device 106, a clock 107, and an input / output device 108 connected via a bus 101.
  • a computer including a processor 102, a main storage device 103, a communication interface 104, an auxiliary storage device 106, a clock 107, and an input / output device 108 connected via a bus 101.
  • a sensor 105 provided outside and a display device 109 provided inside the rehabilitation support system are connected via a bus 101, respectively.
  • the main storage device 103 stores in advance programs for the processor 102 to perform various controls and calculations.
  • the processor 102 and the main storage device 103 realize each function of the rehabilitation support system including the state calculation unit 11, the prediction unit 12, the determination unit 13, and the selection unit 15 shown in FIG.
  • the communication interface 104 is an interface circuit for communicating with various external electronic devices via the communication network NW.
  • the communication interface 104 for example, an arithmetic interface and an antenna corresponding to wireless data communication standards such as LTE, 3G, wireless LAN, and Bluetooth (registered trademark) are used.
  • the communication interface 104 realizes the transmission / reception unit 17 described with reference to FIG.
  • the sensor 105 is composed of, for example, a heart rate monitor, an electrocardiograph, a sphygmomanometer, a pulse meter, a respiratory sensor, a thermometer, an electroencephalogram sensor, and the like. More specifically, the sensor 105 is realized by a 3-axis acceleration sensor, a microwave sensor, a pressure sensor, an ammeter, a voltmeter, a thermohygrometer, a concentration sensor, a photo sensor, or a combination thereof.
  • the auxiliary storage device 106 is composed of a readable and writable storage medium and a drive device for reading and writing various information such as programs and data to the storage medium.
  • a semiconductor memory such as a hard disk or a flash memory can be used as the storage medium in the auxiliary storage device 106.
  • the auxiliary storage device 106 has a storage area for storing biometric information measured by the sensor 105, and a program storage area for storing a program for the rehabilitation support system to perform analysis processing of biometric information.
  • the auxiliary storage device 106 realizes the storage unit 14 described with reference to FIG. Further, for example, it may have a backup area for backing up the above-mentioned data, programs, and the like.
  • the clock 107 is composed of a built-in clock or the like built in the computer and measures the time. Alternatively, the clock 107 may acquire time information from a time server (not shown). The time information obtained by the clock 107 is recorded in association with the calculated user state. Further, the time information obtained by the clock 107 is used for sampling biological information and the like.
  • the input / output device 108 is composed of an I / O terminal that inputs a signal from an external device such as a sensor 105 or a display device 109 and outputs a signal to the external device.
  • the display device 109 is realized by a liquid crystal display or the like. Further, the display device 109 realizes the presentation unit 16 described with reference to FIG.
  • the sensor data acquisition unit 10 acquires the user's biological information measured by the sensor 105 via the transmission / reception unit 17 (step S1).
  • the acquired biological information is stored in the storage unit 14.
  • the sensor data acquisition unit 10 can remove noise from the acquired biometric information and can also perform a process of converting the biometric information of the analog signal into a digital signal.
  • the state calculation unit 11 calculates the user's state based on the user's biological information acquired by the sensor data acquisition unit 10 (step S2). For example, the state calculation unit 11 calculates that the user is in a lying position, awakening state, or a walking state from the data indicating the acceleration of the user acquired by the sensor data acquisition unit 10. The calculation result by the state calculation unit 11 is stored in the storage unit 14 together with the time information (step S3).
  • the prediction unit 12 reads the model formula for predicting the user's state from the storage unit 14 and predicts the user's state (step S4). More specifically, the history of the user's state calculated in step S2 is input, the calculation of the model formula is executed, and the predicted value of the user's state in a certain period in the future is output.
  • the predicted user state is stored in the storage unit 14.
  • the predicted value of the user's state is a predicted value in an arbitrary future period such as 30 minutes one hour or two hours after the current time.
  • the determination unit 13 reads out the conditions set for performing the rehabilitation from the storage unit 14, and determines whether or not the user's state predicted in step S4 satisfies the set conditions (step S5). ). For example, when a user who is in a recumbent position rehabilitates awakening, if the predicted user's state in a certain future period is in the recumbent position, the user is not performing rehabilitation in the future. The indicated judgment result can be output.
  • the selection unit 15 selects the condition of the item presented as the rehabilitation support information according to the determination result (step S6). More specifically, the selection unit 15 selects the state of the image stored in the storage unit 14 in association with the determination result. For example, consider the case of a determination result indicating that the user has not performed rehabilitation in 30 minutes 2 hours after the current time. In this case, the selection unit 15 can select an image, text, voice, and vibration, heat, light, etc., which are in a state of calling the user to perform rehabilitation or pay attention.
  • the image may be a moving image, a still image, a stereoscopic image, or the like.
  • the presentation unit 16 causes the display device 109 to display the condition of the item such as the image selected by the selection unit 15 (step S7). For example, on the display device 109, "Let's go for a walk today" is displayed as text information together with a scene of a moving image in which an animated character walks.
  • items such as these images may be configured to be displayed in addition to the state of the image normally displayed in a rehabilitation support application or the like.
  • a rehabilitation support application when a game format or a predetermined story is used, points may be given or the image may be switched to a special image.
  • rehabilitation support information can be presented using items in a form that can be recognized by the user.
  • the rehabilitation support system includes, for example, a sensor terminal 200a attached to a user performing rehabilitation, a sensor terminal 200b for measuring external environment data of a place where the user is, a relay terminal 300, and an external terminal. It is equipped with 400. All or any of the sensor terminals 200a and 200b, the relay terminal 300, and the external terminal 400 are included in the rehabilitation support system such as the state calculation unit 11, the prediction unit 12, the determination unit 13, and the selection unit 15 described with reference to FIG. It has a function. In the following, it is assumed that the relay terminal 300 includes the state calculation unit 11, the prediction unit 12, the determination unit 13, and the selection unit 15 described in FIG. 1, and the rehabilitation support information is presented to the external terminal 400.
  • the sensor terminals 200a and 200b include a sensor 201, a sensor data acquisition unit 202, a data storage unit 203, and a transmission unit 204.
  • the sensor terminal 200a is arranged on the trunk of the user's body, for example, and measures biological information such as acceleration and body temperature.
  • the sensor terminal 200b measures external environment data such as humidity and temperature at the place where the user is.
  • the sensor terminals 200a and 200b transmit the measured biometric information of the user and external environment data to the relay terminal 300 via the communication network NW.
  • the sensor 201 is realized by, for example, a 3-axis acceleration sensor. As shown in FIG. 5, for example, the three axes of the acceleration sensor included in the sensor 201 are provided in parallel with the X-axis in the left-right direction of the body, the Y-axis in the front-rear direction of the body, and the Z-axis in the up-down direction of the body.
  • the sensor 201 corresponds to the sensor 105 described with reference to FIGS. 1 and 2.
  • the sensor data acquisition unit 202 acquires biological information and external environment data measured by the sensor 201.
  • the sensor data acquisition unit 202 removes noise from the acquired biological information and performs sampling processing to obtain time-series data in the biological information of the digital signal.
  • the sensor data acquisition unit 202 corresponds to the sensor data acquisition unit 10 described with reference to FIG.
  • the data storage unit 203 stores time-series data such as biometric information measured by the sensor 201, external environment data, and biometric information based on digital signals obtained by processing by the sensor data acquisition unit 202.
  • the data storage unit 203 corresponds to the storage unit 14 (FIG. 1).
  • the transmission unit 204 transmits the biological information and the external environment data stored in the data storage unit 203 to the relay terminal 300 via the communication network NW.
  • the transmission unit 204 includes, for example, a communication circuit for performing wireless communication corresponding to wireless data communication standards such as LTE, 3G, wireless LAN (Local Area Network) and Bluetooth (registered trademark).
  • the transmission unit 204 corresponds to the transmission / reception unit 17 (FIG. 1).
  • the relay terminal 300 includes a receiving unit 301, a data storage unit 302, a state calculation unit 303, a prediction unit 304, a determination unit 305, a selection unit 306, and a transmission unit 307.
  • the relay terminal 300 analyzes the biometric information of the user received from the sensor terminal 200a. Further, the relay terminal 300 calculates the user's state based on the user's biological information. Further, the relay terminal 300 predicts the user's state in a certain period in the future based on the calculated user's state, and determines whether or not the predicted user's state satisfies a preset condition. Further, the relay terminal 300 selects the state of the image according to the determination result. Information indicating the condition of the selected image is transmitted to the external terminal 400.
  • the relay terminal 300 is realized by a smartphone, a tablet, a laptop computer, a gateway, or the like.
  • the receiving unit 301 receives biological information and external environment data from the sensor terminals 200a and 200b via the communication network NW.
  • the receiving unit 301 corresponds to the transmitting / receiving unit 17 (FIG. 1).
  • the data storage unit 302 stores the user's biological information and external environment data received by the reception unit 301, and the history of the user's state over the measurement period estimated by the data analysis unit 303.
  • the data storage unit 302 corresponds to the storage unit 14 (FIG. 1).
  • the state calculation unit 303, the prediction unit 304, the determination unit 305, and the selection unit 306 correspond to the functional units described with reference to FIG. 1, respectively.
  • the transmission unit 307 transmits information indicating the state of an item such as an image presented as rehabilitation support information selected by the selection unit 306 to the external terminal 400 via the communication network NW.
  • the transmission unit 304 corresponds to the transmission / reception unit 17 (FIG. 1).
  • the external terminal 400 includes a receiving unit 401, a data storage unit 402, a presentation processing unit 403, and a presentation unit 404.
  • the external terminal 400 generates and presents rehabilitation support information based on the information received from the relay terminal 300 via the communication network NW.
  • the external terminal 400 is realized by a smartphone, a tablet, a laptop computer, a gateway, or the like, like the relay terminal 300.
  • the external terminal 400 includes a display device 109 that generates and displays the state of the received item such as an image.
  • the condition of the item selected by using an audio output device, a light source, or the like may be presented as rehabilitation support information.
  • the receiving unit 401 receives information indicating the state of the item such as an image presented as rehabilitation support information from the relay terminal 300 via the communication network NW.
  • the receiving unit 401 corresponds to the transmitting / receiving unit 17 (FIG. 1).
  • the data storage unit 402 stores the condition of items such as images.
  • the data storage unit 402 corresponds to the storage unit 14 (FIG. 1).
  • the presentation processing unit 403 reads out from the data storage unit 402 the condition of an item such as an image to be presented as rehabilitation support information and outputs it.
  • the presentation processing unit 403 can generate an image of the condition according to the determination result by the determination unit 305 (determination unit 13) and control the display format of the rehabilitation support information.
  • the presentation processing unit 403 reads preset materials such as images, videos, and sounds, synthesizes the videos and sounds to be presented, sets the playback speed, processes them with an effect filter, and the like, and produces the edited result. You may encode it.
  • the presentation processing unit 403 is a function included in the presentation unit 16 described with reference to FIG.
  • the presentation unit 404 outputs an item such as an image having the selected condition as rehabilitation support information based on the instruction from the presentation processing unit 403.
  • the presentation unit 404 may display a moving image scene and text information prompting the user to perform rehabilitation on the display device 109, or may output sound from a speaker (not shown) provided in the external terminal 400.
  • the presentation unit 404 can present rehabilitation support information by a method that can be recognized by the user, such as vibration, light, and stimulation.
  • the presentation unit 404 may present information indicating the external environment such as the temperature measured by the sensor terminal 200b together with an image representing the scene of the selected moving image.
  • the presentation unit 404 corresponds to the presentation unit 16 described with reference to FIG.
  • the rehabilitation support system has a configuration in which each function shown in FIG. 1 is distributed to the sensor terminals 200a and 200b, the relay terminal 300, and the external terminal 400, and acquires the biometric information of the user. Calculation of user's condition from, prediction of user's condition in a certain period in the future, and judgment processing, selection of condition of items such as images according to judgment result, generation and presentation of images of selected condition Is distributed.
  • the sensor terminal 200a is attached to the user, for example, and measures biological information such as 3-axis acceleration (step S100a).
  • the sensor terminal 200a obtains a digital signal of the measured biometric information and removes noise as necessary.
  • the sensor terminal 200a transmits biometric information to the relay terminal 300 via the communication network NW (step S101a).
  • the sensor terminal 200b is installed in a place where the user is, and measures data indicating an external environment such as temperature (step S100b).
  • the measured information indicating the external environment is transmitted to the relay terminal 300 via the communication network NW (step S101b).
  • the relay terminal 300 calculates the user's state based on the biometric information (step S102). More specifically, the data analysis unit 303 of the relay terminal 300 calculates the user's condition generated by rehabilitation and daily life from the biometric information and the external environment data, and the biometric information that is the basis of the user's condition is measured. Record with the time information.
  • the prediction unit 304 takes the user state calculated in step S102 as an input, executes a preset model formula, and predicts the user state in a certain period in the future (step S103).
  • the model formula is stored in the data storage unit 302. Further, the prediction unit 304 may predict the user's state by a model formula that also uses the external environment data as an input.
  • the determination unit 305 determines whether or not the predicted user state satisfies the set condition (step S104).
  • the selection unit 306 selects the condition of the item such as an image according to the determination result (step S105).
  • the relay terminal 300 transmits information indicating the state of the selected item to the external terminal 400 via the communication network NW (step S106).
  • the information indicating the external environment measured by the sensor terminal 200b may also be transmitted to the external terminal 400.
  • the external terminal 400 executes the item presentation process to be presented as the rehabilitation support information (step S107).
  • the rehabilitation support system calculates and calculates the state of the user that occurs in rehabilitation and daily life based on the biometric information of the user measured by the sensor 105. Predict the user's condition for a certain period in the future based on the user's condition. In addition, the rehabilitation support system determines whether or not the prediction result satisfies the conditions set for the implementation of rehabilitation, and selects and presents the condition of the item such as an image according to the determination result. Therefore, it is possible to provide rehabilitation support that motivates the user to work on rehabilitation before the user performs rehabilitation.
  • the prediction unit 12A predicts the cumulative time of the user's state in a certain period in the future from the model formula using the cumulative time of the user's state calculated by the state calculation unit 11 as input data. Find the value.
  • the state calculation unit 11 calculates the user's state based on the user's biological information acquired by the sensor data acquisition unit 10, and further calculates the cumulative time of the state. For example, the state calculation unit 11 can calculate that the user is in a lying position, a standing position, a sitting position, or a walking state based on the acceleration data, and can obtain the cumulative time of each state.
  • the state calculation unit 11 may calculate the cumulative time of each of the user's lying position, standing position, sitting position, and walking in the most recent day. Specifically, by calculating the cumulative time of the user's lying position at the latest night (for example, the time zone from 21:30 on the previous day to 8:00 on the current day), the user's latest sleep time can be obtained. Be done.
  • the prediction unit 12A predicts the cumulative time of the user's state shown in a certain period in the future based on the cumulative time of the user's state calculated by the state calculation unit 11. Specifically, the prediction unit 12A uses a model formula based on the relationship between the cumulative time of the user's state calculated by the state calculation unit 11 and the cumulative time of the user's state in a certain period, and is constant in the future. Obtain the predicted value of the cumulative time of the user's state in the period.
  • the sleep time (h) is set as the explanatory variable x and the activity of the day.
  • the activity time means a state in which the user is getting up or walking, that is, a time in which the user is performing rehabilitation.
  • the error between the predicted value of the user's activity time on the day and the actually measured user's activity time was 13%.
  • the error is defined by the average value of (
  • the sleep time of the user on the previous day and the predicted activity time of the day shown in FIG. 8 are obtained from the total time of the user's state in the set time zone.
  • State 1 of FIG. 9 indicates a state in which the user is lying down in a lying position
  • state 2 indicates a state in which the user is awake
  • state 3 indicates a state in which the user is walking.
  • the horizontal axis shows the time (hour: minute), and the time when each state of the user occurs over two days is shown.
  • the activity time is the cumulative time of the state in which the user is awake (state 2) or walking (state 1).
  • the total sleep time of the user is the total of the state (state 1) in which the user was lying down in the time zone T1 (from 21:30 on the previous day (1st day) to 8:00 on the current day (2nd day)). Calculated in time. Further, the total time of the user's activity time is calculated by the cumulative time of the wake-up state (state 2) and the walking state (state 1) in 24 hours (time zone T2) of the day (second day).
  • the number and units of variables used in the model formula can be set arbitrarily. Further, in the example of FIG. 8, regarding the future state of the user, the activity time of the user in the time zone of 24 hours from midnight of the day is predicted, and the time zone is day, day of the week, week, and month. Any time unit such as year, year can be used.
  • the cumulative time of each state of the user shown in FIG. 9 is calculated by the state calculation unit 11 and stored in the storage unit 14. Further, the model formula used by the prediction unit 12A is also stored in advance in the storage unit 14.
  • the state of the user predicted by the prediction unit 12A and the state of the user as an input given to the model formula may be the same or different as long as they are correlated with each other.
  • the relationship between the user's lying position (sleep time) and waking up and walking (activity time) was used.
  • the walking time of the future user is used by inputting the past walking time. Can also be predicted.
  • the storage unit 14 stores the model formula of the prediction used by the prediction unit 12A. Further, it is assumed that the storage unit 14 stores the threshold value used as a condition set for performing the rehabilitation used by the determination unit 13. First, for example, the following processing is executed with the sensor 105 attached to the user.
  • the sensor data acquisition unit 10 acquires the user's biometric information measured by the sensor 105 via the transmission / reception unit 17 (step S10).
  • the acquired biological information is stored in the storage unit 14.
  • the state calculation unit 11 calculates the user's state based on the user's biological information acquired by the sensor data acquisition unit 10 (step S11). For example, the state calculation unit 11 calculates the user's state, for example, the lying position, getting up, or walking state from the data indicating the acceleration of the user acquired by the sensor data acquisition unit 10. The calculation result by the state calculation unit 11 is stored in the storage unit 14 together with the time information (step S12). The storage unit 14 stores the cumulative time of each state of the user.
  • the prediction unit 12A reads out the model formula for predicting the user's state from the storage unit 14 (step S13). Specifically, the prediction unit 12A uses a model formula stored in the storage unit 14 using the relationship between the sleep time of the user on the previous day shown in FIG. 8 and the activity time predicted on the current day. The prediction unit 12A reads out the sleep time (cumulative time of the lying position) from the previous day to the current day of the user from the storage unit 14 and inputs it into the model formula (step S14). Specifically, the cumulative time during which the user was in the lying position in the time zone from 21:30 on the previous day to 8:00 on the current day is input to the model formula.
  • the prediction unit 12A outputs the predicted user activity time on the day (step S15).
  • the predicted user activity time is stored in the storage unit 14.
  • step S16 when the activity time of the user on the day predicted in step S15 is less than the threshold value set for performing the rehabilitation (step S16: NO), the determination unit 13 sets the storage unit 14 to the storage unit 14. From the items such as images stored in, the condition of the items such as images that urge the user to perform rehabilitation is selected (step S17). For example, when the user rehabilitates waking up or walking, if the activity time of the user predicted on the day falls below the threshold value, the user is predicted not to perform the rehabilitation sufficiently on the day. Therefore, the selection unit 15 selects a condition such as a specific image or text that calls the user to perform rehabilitation or pay attention.
  • a condition such as a specific image or text that calls the user to perform rehabilitation or pay attention.
  • step S16 determines the condition of the item such as an image to be presented as rehabilitation support information at normal times. Select (step S18). After that, the presentation unit 16 causes the display device 109 to display the state of the item such as the image selected by the selection unit 15 (step S19).
  • the cumulative number of predetermined states in a certain period in the future is accumulated based on the cumulative time of the user's state calculated by the state calculation unit 11. Predict time. Therefore, it is possible to grasp the activity time of the user in any time zone in the future, for example, day, day of the week, week, month, etc., and it is possible to provide more effective advance rehabilitation support.
  • the third embodiment is different from the determination unit 13 according to the first and second embodiments in that the determination unit 13A performs the determination process using the conditions related to the implementation of rehabilitation set for each user.
  • the determination unit 13A sets a threshold value used for determination based on information including statistical data on rehabilitation for each user.
  • the determination unit 13A reads out the threshold value set for each user regarding the execution of rehabilitation from the storage unit 14, and performs the threshold value processing for the user's state in the future fixed period predicted by the prediction unit 12.
  • a threshold value can be set based on the value of the functional independence measure (FIM).
  • FIM is an index for evaluating how much a patient (user) performing rehabilitation can perform activities of daily living by himself / herself.
  • FIM functional independence measure
  • other evaluation indexes such as heart rate, body movement, elapsed time, stress value, and screening may be used in addition to FIM.
  • the determination unit 13A can output a determination result of "OK".
  • the determination result is "No” even though the actual user activity time is equal to or longer than the threshold value.
  • the percentage of users whose judgment result was "OK” even though it was below the value was 28% of the number of samples.
  • the specific threshold value set for the implementation of rehabilitation can be arbitrarily set according to the target value of rehabilitation that differs for each user.
  • the threshold value can be adjusted depending on how long the user wants the user to perform the activity time such as getting up or walking with respect to the predicted activity time (threshold value) obtained from the value of the user's FIM. It is also possible to adjust the threshold value and determine the minimum rehabilitation time per day based on the threshold value. In this way, the threshold value can be further adjusted by the correction value ⁇ (h) set for each user.
  • the determination unit 13A executes the determination process for the predicted user state by using the value obtained by adding the correction value ⁇ to the threshold value.
  • FIG. 13 shows the value of the correction value ⁇ and the ratio of users whose judgment result is “No” in the total number of samples.
  • the proportion of users whose determination result is “No” increases as the value of the correction value ⁇ increases. That is, as the correction value ⁇ increases, the number of users who are presented with the condition of an item such as an image that encourages rehabilitation is increasing.
  • the determination unit 13A sets the value of the correction value ⁇ to -1.
  • the threshold value By adjusting the threshold value with the correction value ⁇ in this way, as shown in FIG. 13, the determination result is “No” for 20% of the total number of user samples. Therefore, the condition of items such as images that promote rehabilitation is presented to 20% of all users.
  • the value of the correction value ⁇ can be arbitrarily set depending on the activity time expected for the user, the proportion of users who want to present the condition of items such as images that promote rehabilitation and the implementation of rehabilitation, and the like.
  • the storage unit 14 stores a threshold value based on the user's FIM value set for performing the rehabilitation used by the determination unit 13A. Further, the storage unit 14 stores a model formula for predicting the state of the user used by the prediction unit 12. First, for example, the following processing is executed with the sensor 105 attached to the user.
  • the sensor data acquisition unit 10 acquires the user's biometric information measured by the sensor 105 via the transmission / reception unit 17 (step S20).
  • the acquired biological information is stored in the storage unit 14.
  • the state calculation unit 11 calculates the user's state based on the user's biological information acquired by the sensor data acquisition unit 10 (step S21). For example, the state calculation unit 11 calculates the user's state, for example, the lying position, the wake-up state, and the walking state from the data indicating the acceleration of the user acquired by the sensor data acquisition unit 10. The calculation result by the state calculation unit 11 is stored in the storage unit 14 together with the time information (step S22). The storage unit 14 stores the cumulative time of each state of the user.
  • the prediction unit 12 reads a model formula for predicting the user's state from the storage unit 14, and inputs the cumulative time of the user's lying position calculated by the state calculation unit 11 as input to predict the day of prediction.
  • the user's activity time B is output (step S23).
  • the activity time B is stored in the storage unit 14.
  • the determination unit 13A reads out the model formula for setting the threshold value based on the value of the user's FIM from the storage unit 14 (step S24). Next, the determination unit 13A calculates the predicted activity time A according to the value of the user's FIM according to the example shown in FIG. 12 (step S25). Next, the determination unit 13A sets a threshold value based on the predicted activity time A (step S26). After that, when the activity time B of the user predicted by the prediction unit 12 in step S23 is below the threshold value (step S27: NO), the determination unit 13A stores the selection unit 15 in the storage unit 14. Select the condition of an item such as an image that calls attention to the user (step S28).
  • step S27 when the activity time B of the user predicted by the prediction unit 12 is equal to or greater than the threshold value (step S27: YES), the selection unit 15 selects the condition of an item such as an image presented at normal times (step S29). ). After that, the presentation unit 16 causes the display device 109 to display the state of the item such as the image selected by the selection unit 15 (step S30).
  • the user can rehabilitate by setting the threshold value based on the value of the user's FIM and performing the threshold value processing on the user's state in the future fixed period predicted by the prediction unit 12. More appropriate rehabilitation support can be provided before the procedure.
  • the determination unit 13A can set a threshold value that exceeds the user's past activity time from the history of the user's state. For example, if a threshold value is set based on the activity time of the user one day ago and an activity time shorter than the activity time one day ago is predicted, the condition of the image that encourages the user to perform rehabilitation Present.
  • the storage unit 14 stores a model formula for predicting the user's state used by the prediction unit 12. First, for example, the following processing is executed with the sensor 105 attached to the user.
  • the sensor data acquisition unit 10 acquires the user's biometric information measured by the sensor 105 via the transmission / reception unit 17 (step S40).
  • the acquired biological information is stored in the storage unit 14.
  • the state calculation unit 11 calculates the user's state based on the user's biological information acquired by the sensor data acquisition unit 10 (step S41).
  • the calculation result by the state calculation unit 11 is stored in the storage unit 14 together with the time information (step S42).
  • the storage unit 14 stores, for example, the history of the user's lying position, waking up, and walking state.
  • the prediction unit 12 reads a model formula for predicting the user's state from the storage unit 14, and inputs the cumulative time of the user's lying position calculated by the state calculation unit 11 as input to predict the day of prediction.
  • the activity time B is output (step S43).
  • the activity time B is stored in the storage unit 14.
  • the determination unit 13A calculates the user's activity time ⁇ An ⁇ from the history of the user's state calculated by the state calculation unit 11 stored in the storage unit 14 (step S44).
  • a day before the activity time of day to be determined the predictive value of the user activity time is ⁇ A 1 ⁇ , the n days of activity time and A n.
  • the determination unit 13A averages the value of the user's activity time ⁇ A n ⁇ so that the smaller n is, the larger the weight is, and calculates the predicted activity time C of the user in one day (step S45).
  • the determination unit 13A sets a threshold value from the predicted activity time C (step S46). After that, when the activity time B of the user on the day predicted by the prediction unit 12 is lower than the threshold value (prediction activity time C) (step S47: NO), the selection unit 15 is stored in the storage unit 14. Select the condition of an item such as an image that calls attention to the user (step S48).
  • the selection unit 15 selects the condition of an item such as an image presented at normal times (step S49). ). After that, the presentation unit 16 causes the display device 109 to display the state of the item such as the image selected by the selection unit 15 (step S50).
  • the threshold value set by the determination unit 13A based on the history of the user's state is not limited to the past activity time of the user on a daily basis, but is set from the average of any period such as week, month, and year. Can be done. For example, when setting a threshold value to be used for the judgment process from the activity time of the user in one month, it is better to use the activity time of the user of the latest "1 day” to obtain the activity time more suitable for the body of the current user. Therefore, a more appropriate threshold value can be set by taking a weighted average.
  • a correction value may be added to the threshold value used in the determination process.
  • the user performs rehabilitation by setting a threshold value based on the history of the user's state and performing threshold processing on the user's state in a certain future period predicted by the prediction unit 12. More appropriate rehabilitation support can be provided at the previous stage.
  • the selection unit 15 selects the condition of the item such as an image according to the determination result by the determination unit 13, and the presentation unit 16 displays the condition of the selected item on the display device 109. I explained the case of making it.
  • the presentation unit 16A sends the state of the item such as an image according to the determination result selected by the selection unit 15 to the external terminal. Also presented.
  • a third party can be notified by presenting that fact to the doctor or caregiver who manages the user's rehabilitation. It is possible to support the rehabilitation of the user who passed through.
  • the state of an item such as an image selected according to the determination result by the determination unit 13 is also presented to the communication terminal carried by a caregiver or the like connected by the communication network NW.
  • the caregiver can urge the user sleeping during the day to move his / her body, such as by speaking out, based on the presented information.
  • the presentation unit 16A presents to the caregiver or the like who manages the user's rehabilitation. As a result, a third party can easily confirm whether the user's activity is excessive or whether the user is awake until late at night.
  • the condition of the item such as the image selected according to the determination result by the determination unit 13 can also be presented to the user. Further, even if the determination results are the same, the condition of the item such as an image presented to the user and the condition of the item such as an image presented to the caregiver may be different. For example, an image and text information may be presented on the display screen as rehabilitation support information for the user, and an alert sound may be presented for the caregiver or the like.
  • the presentation unit 16A may present information indicating the history of the user's state calculated by the state calculation unit 11 in addition to the condition of the item such as an image selected according to the determination result by the determination unit 13. Good.
  • the rehabilitation support information is presented not only to the user himself / herself but also to a third party who manages the rehabilitation of the user. Before rehabilitation, more reliable user rehabilitation support can be provided.
  • the embodiments described above can be realized in combination with each other. Further, regarding the rehabilitation support system according to the second to fourth embodiments described above, the sensor terminals 200a and 200b, the relay terminal 300, and the relay terminals 300 shown in FIGS. 4 and 5 are also provided in the same manner as in the first embodiment. It can be realized by the external terminal 400.
  • the relay terminal 300 includes a state calculation unit 11, a prediction unit 12, a determination unit 13, and a selection unit 15. explained.
  • these functional units may be configured to be included in the sensor terminals 200a, 200b or the external terminal 400.
  • the functions of the state calculation unit 11, the prediction unit 12, the determination unit 13, and the selection unit 15 may be distributed to the sensor terminals 200a and 200b, the relay terminal 300, and the external terminal 400, respectively.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physiology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Cardiology (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Dentistry (AREA)
  • Data Mining & Analysis (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Pulmonology (AREA)
  • Databases & Information Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Rehabilitation Tools (AREA)

Abstract

リハビリ支援システムは、センサ(105)によって計測されたユーザの生体情報を含むセンサデータを取得するセンサデータ取得部(10)と、取得されたセンサデータに基づいてユーザの状態を求める状態算出部(11)と、状態算出部(11)によって求められたユーザの状態から、ユーザの状態を予測する予測部(12)と、リハビリテーションを支援する情報として提示される支援情報を記憶する記憶部(14)と、予測部(12)によって予測されたユーザの状態に基づいて、記憶部(14)に記憶されている支援情報を選択する選択部(15)と、選択部(15)によって選択された支援情報を提示する提示部(16)とを備える。

Description

リハビリ支援システム、およびリハビリ支援方法
 本発明は、リハビリ支援システム、およびリハビリ支援方法に関する。
 適切なリハビリテーションを行うことで、リハビリテーションが必要とされる患者や高齢者などにおける身体的な機能回復や精神的および社会的な側面における生活水準の目標が達成される。リハビリテーションが必要とされる患者は、例えば、疾病などの回復のために、生活時間全般にわたって意欲的にリハビリテーションに取り組むことが必要な場合もある。
 従来から、スポーツや医療の分野において、ウェアラブルデバイスなどのセンサで計測した心拍数や活動量などの生体情報が活用されている(特許文献1、非特許文献1参照)。例えば、特許文献1は、ユーザに装着されたセンサで測定した加速度に基づいて、生活習慣に着目してより正確に患者の活動状態を解析する技術を開示している。
 従来の技術では、リハビリテーション(以下、単に「リハビリ」という。)を行う患者などのユーザの身体の活動状態を算出し、算出結果などの情報を提示することは可能である。しかし、ユーザに対して、自ら積極的にリハビリを取り組むことへの意欲向上を図る能動的な情報を提示することは行われていなかった。
 そこで、例えば、非特許文献2は、ユーザがリハビリ訓練を実施した際に、ユーザに対するリハビリへのモチベーションの喚起を行うリハビリ支援技術を提案している。
 しかし、従来のリハビリ支援技術は、ユーザがリハビリ訓練を実施した後に、ユーザのリハビリの記録に基づいて行われる支援であるため、ユーザがリハビリを実施する前の段階で、ユーザに対してリハビリを行うことに対する意欲を引き出す情報を提示することはできないという課題があった。
国際公開第2018/001740号
河西、小笠原、中島、塚田、「着るだけで生体情報計測を可能とする機能素材"hitoe"の開発及び実用」電子情報通信学会 通信ソサイエティマガジン41号(2017年6月)(Vol.11 No.1) 佐藤、小笠原、豊田、松永、向野「リハビリ患者の活動状態モニタリング結果のフィードバック」2019 年 電子情報通信学会総合大会(情報・システム講演論文集1)(D-7-5)
 本発明は、上述した課題を解決するためになされたものであり、ユーザがリハビリを実施する前の段階で、ユーザのリハビリに取り組む意欲をより引き出すことができるリハビリ支援技術を提供することを目的とする。
 上述した課題を解決するために、本発明に係るリハビリ支援システムは、センサによって計測されたユーザの生体情報を含むセンサデータを取得するセンサデータ取得部と、取得された前記センサデータに基づいて前記ユーザの状態を求める状態算出部と、前記状態算出部によって求められた前記ユーザの状態から、前記ユーザの状態を予測する予測部と、リハビリテーションを支援する情報として提示される支援情報を記憶する記憶部と、前記予測部によって予測された前記ユーザの状態に基づいて、前記記憶部に記憶されている前記支援情報を選択する選択部と、前記選択部によって選択された前記支援情報を提示する提示部とを備える。
 また、本発明に係るリハビリ支援システムにおいて、前記状態算出部は、前記ユーザの状態の累積時間を算出し、前記予測部は、前記状態算出部によって算出された前記ユーザの状態の累積時間に基づいて、将来の一定期間に占める前記ユーザの状態の累積時間を予測してもよい。
 また、本発明に係るリハビリ支援システムにおいて、前記予測部によって予測された前記ユーザの状態が、リハビリの実施に関して設定された条件を満たすか否かを判定する判定部をさらに備え、前記選択部は、前記判定部による判定結果に応じた前記支援情報を選択してもよい。
 また、本発明に係るリハビリ支援システムにおいて、前記判定部は、前記ユーザごとのリハビリに関する統計的なデータを含む情報に基づいて、判定に用いるしきい値を設定してもよい。
 また、本発明に係るリハビリ支援システムにおいて、前記判定部は、前記状態算出部によって算出された前記ユーザの状態の履歴に基づいて、判定に用いるしきい値を設定してもよい。
 また、本発明に係るリハビリ支援システムにおいて、前記提示部は、前記選択部によって選択された前記支援情報を表す画像を表示する表示装置を含んでいてもよい。
 また、本発明に係るリハビリ支援システムにおいて、前記ユーザの状態は、臥位、立位、座位、および歩行の少なくとも1つを含んでいてもよい。
 上述した課題を解決するために、本発明に係るリハビリ支援方法は、センサによって計測されたユーザの生体情報を含むセンサデータを取得する第1ステップと、取得された前記センサデータに基づいて前記ユーザの状態を求める第2ステップと、前記第2ステップで求められた前記ユーザの状態から、前記ユーザの状態を予測する第3ステップと、前記第3ステップで予測された前記ユーザの状態に基づいて、記憶部に記憶されているリハビリテーションを支援する情報として提示される支援情報を選択する第4ステップと、前記第4ステップで選択された前記支援情報を提示する第5ステップとを備える。
 本発明によれば、生体情報を含むセンサデータに基づいて求められたユーザの状態から、ユーザの状態を予測するので、ユーザがリハビリを実施する前の段階で、ユーザのリハビリに取り組む意欲をより引き出すことができる。
図1は、本発明の第1の実施の形態に係るリハビリ支援システムの機能構成を示すブロック図である。 図2は、第1の実施の形態に係るリハビリ支援システムを実現するコンピュータ構成の一例を示すブロック図である。 図3は、第1の実施の形態に係るリハビリ支援システムの動作を説明するフローチャートである。 図4は、第1の実施の形態に係るリハビリ支援システムの具体的な構成例の概要を説明するための図である。 図5は、第1の実施の形態に係るリハビリ支援システムの構成例を示すブロック図である。 図6は、第1の実施の形態に係るリハビリ支援システムのシーケンス図である。 図7は、第2の実施の形態に係るリハビリ支援システムの構成を示すブロック図である。 図8は、第2の実施の形態に係る予測部を説明するための図である。 図9は、第2の実施の形態に係る予測部を説明するための図である。 図10は、第2の実施の形態に係るリハビリ支援システムの動作を説明するフローチャートである。 図11は、第3の実施の形態に係るリハビリ支援システムの構成を示すブロック図である。 図12は、第3の実施の形態に係る判定部を説明するための図である。 図13は、第3の実施の形態に係る判定部を説明するための図である。 図14は、第3の実施の形態に係るリハビリ支援システムの動作を説明するフローチャートである。 図15は、第3の実施の形態に係るリハビリ支援システムの動作を説明するフローチャートである。 図16は、第4の実施の形態に係るリハビリ支援システムの構成を示すブロック図である。
 以下、本発明の好適な実施の形態について、図1から図16を参照して詳細に説明する。また、以下において、ユーザはリハビリを行うことが必要な患者などであり、例えば、臥位状態が多いため、起床や歩行などのリハビリを行う場合を例に挙げて説明する。
 [第1の実施の形態]
 まず、本発明の第1の実施の形態に係るリハビリ支援システムの構成の概要を説明する。図1は、リハビリ支援システムの機能構成を示すブロック図である。リハビリ支援システムは、センサ105によって計測されたユーザの生体情報を含むセンサデータを取得して、ユーザの状態を求める。また、リハビリ支援システムは、求めたユーザの状態の履歴に基づいて、将来の一定期間におけるユーザの状態を予測する。さらに、予測されたユーザの状態が、ユーザのリハビリの実施に関して予め設定された条件を満たすか否かを判定し、判定結果に応じたリハビリを支援するための支援情報を選択して提示する。
 [リハビリ支援システムの機能ブロック]
 リハビリ支援システムは、センサ105からデータを取得するセンサデータ取得部10、状態算出部11、予測部12、判定部13、記憶部14、選択部15、提示部16、および送受信部17を備える。
 センサデータ取得部10は、センサ105によって計測されたユーザの生体情報を含むセンサデータを取得する。より具体的には、センサデータ取得部10は、センサ105として加速度センサがユーザに装着されている場合には、加速度センサで計測されたアナログ加速度信号を所定のサンプリングレートでデジタル信号に変換する。センサデータ取得部10によって計測された生体情報は、計測時刻と対応付けて後述する記憶部14に記憶される。
 センサデータ取得部10は、ユーザの生体情報として、加速度の他にも、角速度、光、電磁波、温湿度、圧力、位置情報、音声、濃度、電圧、抵抗などを取得してもよい。また、センサデータ取得部10は、これらの物理量から得られる心電位活動、筋電位活動、血圧、呼吸で交換される体内ガス、体温、脈拍、脳波をユーザの生体情報として取得することができる。
 また、センサデータ取得部10は、ユーザの生体情報に加えて、ユーザがいる場所の外部環境データを取得してもよい。外部環境データとは、例えば、ユーザがいる場所の室温、外気温や湿度などが含まれる。なお、センサデータ取得部10は、ユーザの生体情報を計測する複数のセンサ105のそれぞれからユーザの生体情報を取得してもよい。
 状態算出部11は、センサデータ取得部10によって取得されたユーザの生体情報を含むセンサデータから、ユーザの状態を算出する。ユーザの状態とは、ユーザが行うリハビリや日常生活にともなって発生する姿勢、座標、速度、発話、呼吸、歩行、着座、運転、睡眠、体動、ストレスなどをいう。また、これらの大きさ、頻度、増減、継続時間、累積などの量を示す情報その他の演算結果であってもよい。
 具体的には、状態算出部11は、例えば、特許文献1に記載されているユーザの加速度を用いて推定される起床状態および臥床状態を利用して、ユーザの状態を推定してもよい。状態算出部11がユーザの状態を算出することで、ユーザがリハビリを実施していることやリハビリの進行状況、さらにはユーザがどの場所にいるのかについても把握できる。算出されたユーザの状態に基づいて、例えば、ユーザが医師と一緒にトレーニングルームでリハビリを実施したのか、自主トレーニングとして自室や他の場所でリハビリを実施したのかについても区別することが可能となる。
 また、状態算出部11は、ユーザにセンサ105が装着されて計測が開始されてから最新の計測時刻までの期間にわたって取得されたユーザの生体情報に基づいて、ユーザの状態を求めてもよい。状態算出部11よって算出されたユーザの状態は、時刻情報とともに記憶部14に記憶される。
 予測部12は、状態算出部11によって求められたユーザの状態から、ユーザの状態を予測する。より詳細には、予測部12は、状態算出部11によって算出されたユーザの状態を入力として、予め設定されたモデル式に与え、将来の一定期間におけるユーザの状態を予測して出力する。例えば、予測部12は、現在時刻から1時間や2時間後の30分間におけるユーザの状態を予測することができる。
 また、予測部12は、回帰分析などにより予め構築された予測モデルに基づくモデル式を用いることができる。例えば、状態算出部11によって算出された過去のユーザの状態を目的変数として、目的変数に対する複数の要因候補である説明変数の関係を分析して、各要因候補の係数を求めて回帰式を算出し、これをモデル式として用いることができる。なお、本実施の形態では、モデル式は予め記憶部14に記憶されている。
 また、予測部12が用いるモデル式は、状態算出部11によって求められたユーザの状態の履歴の他に、センサ105によって計測された気温など外部環境に関するセンサデータやユーザの年齢や性別などの属性を用いてもよい。例えば、ユーザがいる場所の気温が例えば、20℃から25℃の範囲よりも一定以上高い、または低い場合、リハビリの実施にあたりユーザに身体的および心理的な不快感を生ずると考えられる。特に、ユーザが座位、立位、および歩行などの比較的運動負荷の少ないリハビリを一定時間以上の長時間継続して行う場合には、身体的な限界よりも心理的な不快感による限界の影響がより大きいと考えられる。
 そのため、予測部12は、気温や湿度などの外部環境やユーザの属性を考慮したモデル式を用いることで、より正確に将来におけるユーザの状態を予測することができる。ユーザの属性としては、年齢や性別の他にも、身長、体重、疾病の詳細、入院日数、その他の診察情報を用いることができる。また、これらのユーザの属性に基づくデータ、例えば、BMI、回復度、治療履歴、治療推移を用いてもよい。
 判定部13は、予測部12によって予測されたユーザの状態が、リハビリの実施に関して設定された条件を満たすか否かを判定する。リハビリの実施に関して設定された条件とは、ユーザに対するリハビリの実施意欲の向上を図る観点から設定される条件である。判定部13による判定結果は、選択部15に入力される。本実施の形態では、判定部13は、記憶部14に記憶された条件を読み出して判定処理を行う。
 具体的には、判定部13は、予測部12によって予測されたユーザの状態が、予め設定された特定の状態であるか否かを判定することができる。例えば、臥位状態の多いユーザが起床や歩行のリハビリを行う場合を考える。このような場合、判定部13は、予測されたユーザの状態が、リハビリの実施を示す起床状態や歩行状態であるか否かを判定してもよい。
 判定部13は、リハビリの実施に関して設定された条件として、ユーザの状態だけでなく、時刻情報やユーザの状態を算出する際に用いた特定の生体情報とは異なる種類の生体情報、外部環境のデータなどを用いた条件を用いて、判定を行うことができる。また、判定部13は、複数の条件に基づいて判定結果を出力してもよい。
 記憶部14は、予測部12が用いる、ユーザの状態を予測するモデル式を記憶している。また、記憶部14は、判定部13が用いる、リハビリの実施に関して設定された条件を記憶している。
 また、記憶部14は、リハビリ支援情報を記憶している。リハビリ支援情報は、ユーザに対してリハビリの実施を促す情報である。リハビリ支援情報は、例えば、時空間的に変化するアイテムの容態であってもよい。アイテムとは、テキスト、音、振動、熱、光、風、刺激など、およびこれらの組合せで表現されるユーザが認知可能な形態の情報である。例えば、動画の特定のシーンが、アイテムの容態として記憶部14に記憶されていてもよい。本明細書において、リハビリ支援情報は、画像などのアイテムの容態を意味する。
 また、記憶部14には、画像などのアイテムの容態と判定結果とが関連付けて記憶されている。
 記憶部14は、センサデータ取得部10が取得したユーザの生体情報の時系列データを記憶する。また、記憶部14は、状態算出部11が算出したユーザの状態の履歴を記憶する。算出されたユーザの状態は、その根拠となる生体情報の測定時間とともに記憶部14に記憶されている。
 選択部15は、判定部13による判定結果に応じて、記憶部14に記憶されている画像などのアイテムの容態を選択する。より具体的には、予測されたユーザの状態が、リハビリの実施を示す特定の状態と一致しない場合、ユーザは将来の一定期間においてリハビリを実施していないことが予測される。そのため、選択部15は、記憶部14に記憶されている、注意を促す画像の容態を選択する。また、ユーザが将来の一定期間においてリハビリを実施していることを示す判定結果の場合には、選択部15は、通常時に提示されるリハビリ支援情報として記憶部14に記憶されている画像の容態を選択することができる。
 また、選択部15は、例えば、ゲーム形式のアプリケーションにおいて、特典を付与したり、アプリケーションの内容を変更するなど、画像の容態を変更することができる。
 提示部16は、選択部15によって選択されたリハビリ支援情報として提示するアイテムの容態を表示装置109に表示させる。例えば、ユーザが朝の起床時に、表示装置109に表示された、リハビリの実施を促す容態の画像やテキスト情報を見ることで、当日の日中に起床や歩行などのリハビリを積極的に実施する動機となる。
 送受信部17は、センサ105によって計測されたユーザの生体情報を含むセンサデータを受信する。また送受信部17は、選択部15によって選択されたリハビリ支援情報を、所定の通信規格に応じて変換し、通信ネットワークに接続された提示部16に送出してもよい。
 [リハビリ支援システムのコンピュータ構成]
 次に、上述した機能を有するリハビリ支援システムを実現するコンピュータ構成について、図2を参照して説明する。
 図2に示すように、リハビリ支援システムは、例えば、バス101を介して接続されるプロセッサ102、主記憶装置103、通信インターフェース104、補助記憶装置106、時計107、入出力装置108を備えるコンピュータと、これらのハードウェア資源を制御するプログラムによって実現することができる。リハビリ支援システムは、例えば、外部に設けられたセンサ105と、リハビリ支援システムの内部に設けられた表示装置109とがそれぞれバス101を介して接続されている。
 主記憶装置103には、プロセッサ102が各種制御や演算を行うためのプログラムが予め格納されている。プロセッサ102と主記憶装置103とによって、図1に示した状態算出部11、予測部12、判定部13、選択部15を含むリハビリ支援システムの各機能が実現される。
 通信インターフェース104は、通信ネットワークNWを介して各種外部電子機器との通信を行うためのインターフェース回路である。
 通信インターフェース104としては、例えば、LTE、3G、無線LAN、Bluetooth(登録商標)などの無線データ通信規格に対応した演算インターフェースおよびアンテナが用いられる。通信インターフェース104によって、図1で説明した送受信部17が実現される。
 センサ105は、例えば、心拍計、心電計、血圧計、脈拍計、呼吸センサ、体温計、脳波センサなどで構成される。より具体的には、センサ105は、3軸加速度センサ、マイクロ波センサ、圧力センサ、電流計、電圧計、温湿度計、濃度センサ、フォトセンサやこれらの組み合わせによって実現される。
 補助記憶装置106は、読み書き可能な記憶媒体と、その記憶媒体に対してプログラムやデータなどの各種情報を読み書きするための駆動装置とで構成されている。補助記憶装置106には、記憶媒体としてハードディスクやフラッシュメモリなどの半導体メモリを使用することができる。
 補助記憶装置106は、センサ105により計測された生体情報を記憶する記憶領域や、リハビリ支援システムが生体情報の解析処理を行うためのプログラムを格納するプログラム格納領域を有する。補助記憶装置106によって、図1で説明した記憶部14が実現される。さらには、例えば、上述したデータやプログラムやなどをバックアップするためのバックアップ領域などを有していてもよい。
 時計107は、コンピュータに内蔵されている内蔵時計などで構成され、時刻を計時する。あるいは時計107は、図示されないタイムサーバから時刻情報を取得してもよい。時計107によって得られた時刻情報は、算出されたユーザの状態と対応付けて記録される。また、時計107によって得られた時刻情報は、生体情報のサンプリングなどに用いられる。
 入出力装置108は、センサ105や表示装置109など外部機器からの信号を入力したり、外部機器へ信号を出力したりするI/O端子により構成される。
 表示装置109は、液晶ディスプレイなどによって実現される。また、表示装置109は、図1で説明した提示部16を実現する。
 [リハビリ支援方法]
 次に、上述した構成を有するリハビリ支援システムの動作について、図3のフローチャートを用いて説明する。まず、例えば、センサ105がユーザに装着された状態で以下の処理が実行される。
 センサデータ取得部10は、センサ105で計測されたユーザの生体情報を、送受信部17を介して取得する(ステップS1)。取得された生体情報は記憶部14に蓄積される。なおセンサデータ取得部10は、取得した生体情報のノイズの除去を行い、また、アナログ信号の生体情報をデジタル信号に変換する処理を行うことができる。
 次に、状態算出部11は、センサデータ取得部10によって取得されたユーザの生体情報に基づいて、ユーザの状態を算出する(ステップS2)。例えば、状態算出部11は、センサデータ取得部10によって取得されたユーザの加速度を示すデータから、ユーザが臥位、起床、または歩行状態にあると算出する。状態算出部11による算出結果は、時刻情報とともに記憶部14に記憶される(ステップS3)。
 その後、予測部12は、記憶部14からユーザの状態を予測するためのモデル式を読み出して、ユーザの状態を予測する(ステップS4)。より詳細には、ステップS2で算出されたユーザの状態の履歴を入力として、モデル式の演算を実行し、将来の一定期間におけるユーザの状態の予測値を出力する。予測されたユーザの状態は記憶部14に記憶される。ユーザの状態の予測値は、例えば、現在時刻から1時間や2時間後の30分間など任意の将来の期間における予測値である。
 次に、判定部13は、リハビリの実施に関して設定された条件を記憶部14から読み出して、ステップS4で予測されたユーザの状態が、設定された条件を満たすか否かを判定する(ステップS5)。例えば、臥位の状態が多いユーザが起床のリハビリを行う場合、予測されたユーザの将来の一定期間における状態が、臥位である場合には、ユーザは将来においてリハビリを実施していないことを示す判定結果を出力することができる。
 その後、選択部15は、判定結果に応じて、リハビリ支援情報として提示されるアイテムの容態を選択する(ステップS6)。より詳細には、選択部15は、判定結果と関連付けて記憶部14に記憶されている画像の容態を選択する。例えば、現在時刻から2時間後の30分間においてユーザがリハビリを行っていないことを示す判定結果の場合を考える。この場合、選択部15は、ユーザに対してリハビリの実施や注意を促す容態の画像やテキスト、音声、およびこれらに付加された振動、熱、光などを選択することができる。画像は、動画、静止画像、立体画像などであってもよい。
 次に、提示部16は、選択部15によって選択された画像などのアイテムの容態を表示装置109に表示させる(ステップS7)。例えば、表示装置109において、アニメのキャラクターが歩行する動画像のシーンとともに、テキスト情報として「今日は散歩に行きましょう」と表示される。
 なお、これら画像などのアイテムは、リハビリ支援のアプリケーションなどにおいて通常時に表示されている画像の容態に加えて表示する構成であってもよい。例えば、リハビリ支援のアプリケーションにおいて、ゲーム形式や所定のストーリーを用いる場合に、ポイントの付与を示唆したり、特別な画像に切り替わる構成としてもよい。その他にも、ユーザが認知可能な形態のアイテムを用いてリハビリ支援情報を提示することができる。
 [リハビリ支援システムの具体的構成]
 次に上述した構成を有するリハビリ支援システムの具体的な構成例について、図4および図5を参照して説明する。
 リハビリ支援システムは、例えば、図4に示すように、リハビリを行うユーザに装着されるセンサ端末200aと、ユーザがいる場所の外部環境データを計測するセンサ端末200bと、中継端末300と、外部端末400とを備える。センサ端末200a、200b、中継端末300、外部端末400のすべてもしくはいずれかは、図1で説明した状態算出部11、予測部12、判定部13、選択部15などのリハビリ支援システムに含まれる各機能を備える。なお、以下においては、中継端末300が図1で説明した状態算出部11、予測部12、判定部13、および選択部15を備え、外部端末400にリハビリ支援情報が提示されるものとする。
 [センサ端末の機能ブロック]
 センサ端末200a、200bは、図5に示すように、センサ201、センサデータ取得部202、データ記憶部203、および送信部204を備える。センサ端末200aは、例えば、ユーザの体の体幹に配置されて加速度や体温などの生体情報を計測する。また、センサ端末200bは、ユーザのいる場所の湿度や温度などの外部環境データを計測する。センサ端末200a、200bは、計測したユーザの生体情報および外部環境データを通信ネットワークNWを介して中継端末300に送信する。
 センサ201は、例えば、3軸加速度センサなどで実現される。センサ201が備える加速度センサの3軸は、例えば、図5に示すように、X軸は体の左右方向、Y軸は体の前後方向、Z軸は体の上下方向に平行に設けられる。センサ201は、図1および図2で説明したセンサ105に対応する。
 センサデータ取得部202は、センサ201によって計測された生体情報や外部環境データを取得する。センサデータ取得部202は、取得した生体情報のノイズの除去やサンプリング処理を行い、デジタル信号の生体情報などにおける時系列データを求める。センサデータ取得部202は、図1で説明したセンサデータ取得部10に対応する。
 データ記憶部203は、センサ201によって計測された生体情報や外部環境データ、センサデータ取得部202によって処理されて得られたデジタル信号による生体情報などの時系列データを記憶する。データ記憶部203は、記憶部14(図1)に対応する。
 送信部204は、データ記憶部203に記憶されている生体情報や外部環境データを、通信ネットワークNWを介して中継端末300に送信する。送信部204は、例えば、LTE、3G、無線LAN(Local Area Network)やBluetooth(登録商標)等の無線データ通信規格に対応した無線通信を行うための通信回路を備える。送信部204は、送受信部17(図1)に対応する。
 [中継端末の機能ブロック]
 中継端末300は、受信部301、データ記憶部302、状態算出部303、予測部304、判定部305、選択部306、および送信部307を備える。中継端末300は、センサ端末200aから受信した、ユーザの生体情報を解析する。さらに、中継端末300は、ユーザの生体情報に基づいてユーザの状態を算出する。また、中継端末300は、算出されたユーザの状態に基づいて、将来の一定期間におけるユーザの状態を予測し、予測されたユーザの状態が予め設定された条件を満たすか否かを判定する。また、中継端末300は、判定結果に応じた画像の容態を選択する。選択された画像の容態を示す情報は、外部端末400に送信される。
 中継端末300は、スマートフォン、タブレット、ノートパソコン、ゲートウェイなどによって実現される。
 受信部301は、通信ネットワークNWを介してセンサ端末200a、200bから生体情報および外部環境データを受信する。受信部301は、送受信部17(図1)に対応する。
 データ記憶部302は、受信部301が受信したユーザの生体情報や外部環境データ、データ解析部303によって推定された測定期間にわたるユーザの状態の履歴を記憶する。データ記憶部302は、記憶部14(図1)に対応する。
 状態算出部303、予測部304、判定部305、および選択部306は、それぞれ図1で説明した機能部に対応する。
 送信部307は、選択部306によって選択された、リハビリ支援情報として提示される画像などのアイテムの容態を示す情報を、通信ネットワークNWを介して外部端末400に送信する。送信部304は、送受信部17(図1)に対応する。
 [外部端末の機能ブロック]
 外部端末400は、受信部401、データ記憶部402、提示処理部403、および提示部404を備える。外部端末400は、中継端末300から通信ネットワークNWを介して受信した情報に基づいてリハビリ支援情報を生成して提示する。
 外部端末400は、中継端末300と同様に、スマートフォン、タブレット、ノートパソコン、ゲートウェイなどによって実現される。外部端末400は受信した、画像などのアイテムの容態を生成して表示する表示装置109を備えている。なお、表示装置109の他にも、図示されない音声出力装置、光源などを用いて選択されたアイテムの容態をリハビリ支援情報として提示してもよい。
 受信部401は、通信ネットワークNWを介して中継端末300からリハビリ支援情報として提示する画像などのアイテムの容態を示す情報を受信する。受信部401は、送受信部17(図1)に対応する。
 データ記憶部402は、画像などのアイテムの容態を記憶している。データ記憶部402は、記憶部14(図1)に対応する。
 提示処理部403は、リハビリ支援情報として提示する画像などのアイテムの容態をデータ記憶部402から読み出して出力する。提示処理部403は、判定部305(判定部13)による判定結果に応じた容態の画像を生成し、リハビリ支援情報の表示形式を制御することができる。また、提示処理部403は、予め設定されている画像、動画、音声などの素材を読み込み、提示する動画と音声などの合成や、再生速度の設定、およびエフェクトフィルターなどで加工し、編集結果のエンコードを行ってもよい。提示処理部403は、図1で説明した提示部16に含まれる機能である。
 提示部404は、提示処理部403による指示に基づいて、選択された容態を有する画像などのアイテムをリハビリ支援情報として出力する。提示部404は、表示装置109にユーザに対してリハビリを行うことを促す動画のシーンおよびテキスト情報を表示したり、外部端末400が備える図示しないスピーカから、音声を出力してもよい。その他、提示部404は、振動、光、刺激などユーザが認知可能な方法によりリハビリ支援情報を提示することができる。また、提示部404は、センサ端末200bによって計測された気温などの外部環境を示す情報を、選択された動画のシーンを表す画像とともに提示してもよい。提示部404は、図1で説明した提示部16に対応する。
 このように、本発明に係るリハビリ支援システムは、図1に示した各機能がセンサ端末200a、200b、中継端末300、および外部端末400に分散された構成を有し、ユーザの生体情報の取得からユーザの状態の算出、将来の一定期間におけるユーザの状態の予測、および判定処理、さらに、判定結果に応じた画像などのアイテムの容態の選択、選択された容態の画像の生成ならびに提示に関する処理を分散して行う。
 [リハビリ支援システムの動作シーケンス]
 次に、上述した構成を有するリハビリ支援システムの動作について、図6のシーケンス図を用いて説明する。
 図6に示すように、まず、センサ端末200aは、例えば、ユーザに装着されて、3軸加速度などの生体情報を計測する(ステップS100a)。センサ端末200aは、計測された生体情報のデジタル信号を求め、必要に応じてノイズの除去を行う。次に、センサ端末200aは、通信ネットワークNWを介して中継端末300に生体情報を送信する(ステップS101a)。
 一方で、センサ端末200bは、ユーザがいる場所に設置され、気温などの外部環境を示すデータを計測する(ステップS100b)。計測された外部環境を示す情報は、通信ネットワークNWを介して中継端末300に送信される(ステップS101b)。
 その後、中継端末300は、センサ端末200aから生体情報を受信すると、生体情報に基づいて、ユーザの状態を算出する(ステップS102)。より詳細には、中継端末300のデータ解析部303は、リハビリや日常生活にともなって発生するユーザの状態を生体情報や外部環境データから算出し、ユーザの状態の根拠となる生体情報が計測された時刻情報とともに記録する。
 次に、予測部304は、ステップS102で算出されたユーザの状態を入力として、予め設定されたモデル式を実行し、将来の一定期間におけるユーザの状態を予測する(ステップS103)。なお、モデル式はデータ記憶部302に記憶されている。また、予測部304は、外部環境データも入力として用いるモデル式によりユーザの状態を予測してもよい。
 その後、判定部305は、予測されたユーザの状態が、設定された条件を満たすか否かを判定する(ステップS104)。次に、選択部306は、判定結果に応じた画像などのアイテムの容態を選択する(ステップS105)。
 その後、中継端末300は、通信ネットワークNWを介して、選択されたアイテムの容態を示す情報を外部端末400に送信する(ステップS106)。このとき、センサ端末200bにより計測された外部環境を示す情報についても外部端末400に送信されてもよい。外部端末400は、アイテムの容態を示す情報を受信すると、リハビリ支援情報として提示するアイテムの提示処理を実行する(ステップS107)。
 以上説明したように、第1の実施の形態に係るリハビリ支援システムは、センサ105で計測されたユーザの生体情報に基づいて、リハビリや日常生活にともなって発生するユーザの状態を算出し、算出されたユーザの状態に基づいて、将来の一定期間におけるユーザの状態を予測する。また、リハビリ支援システムは、予測結果がリハビリの実施に関して設定された条件を満たすか否かを判定し、判定結果に応じて、画像などのアイテムの容態を選択して提示する。そのため、ユーザがリハビリを行う前の段階で、ユーザのリハビリへの取り組み意欲を引き出すリハビリ支援を行うことができる。
 [第2の実施の形態]
 次に、本発明の第2の実施の形態について説明する。なお、以下の説明では、上述した第1の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
 第2の実施の形態は、予測部12Aにおいて、状態算出部11で算出されたユーザの状態の累積時間を入力データとしたモデル式から、将来の一定期間に占めるユーザの状態の累積時間の予測値を求める。
 図7に示すように、状態算出部11は、センサデータ取得部10によって取得されたユーザの生体情報に基づいてユーザの状態を算出し、さらに、その状態の累積時間を算出する。例えば、状態算出部11は、ユーザが臥位、立位や座位、または歩行を行っている状態であることを加速度データに基づいて算出し、各状態の累積時間を求めることができる。
 例えば、状態算出部11は、直近の1日におけるユーザの臥位、立位や座位、および歩行それぞれの累積時間を算出してもよい。具体的には、直近の夜間(例えば、前日の21:30から当日の8:00の時間帯)におけるユーザの臥位の状態の累積時間を算出することで、ユーザの直近の睡眠時間が得られる。
 予測部12Aは、状態算出部11によって算出された、ユーザの状態の累積時間に基づいて、将来の一定期間に示すユーザの状態の累積時間を予測する。具体的には、予測部12Aは、状態算出部11によって算出されたユーザの状態の累積時間と、一定期間に占めるユーザの状態の累積時間との関係に基づくモデル式を用いて、将来の一定期間に占めるユーザの状態の累積時間の予測値を求める。
 例えば、図8に示すように、40名の入院患者の直近(前日)の睡眠時間と、当日の活動時間との関係をプロットしたグラフから、睡眠時間(h)を説明変数x、当日の活動時間(h)を目的変数yとして単回帰分析を行い、得られた回帰直線(y=-1.324x+24.3465)をモデル式として用いることができる。ここで、活動時間とは、ユーザが起床や歩行を行っている状態、すなわちユーザがリハビリを実施している時間をいう。
 図8のモデル式の例によれば、予測値である当日のユーザの活動時間と、実測されたユーザの活動時間との誤差は13%であった。ここで、誤差は、(|残差|/実際のデータの値)×100の平均値で定義される。
 図8に示したユーザの前日の睡眠時間および予測される当日の活動時間は、図9に示すように、設定された時間帯におけるユーザの状態の合計時間から求めている。図9の状態1は、ユーザが臥位など横になっている状態を示し、状態2はユーザが起床している状態を示し、状態3は、ユーザが歩行している状態を示している。また、横軸は、時間(時:分)を示し、2日間にわたるユーザの各状態が生じた時間が示されている。
 例えば、ある日のユーザの活動時間を予測する場合を考える。ここで、活動時間とは、ユーザが起床した状態(状態2)または歩行している状態(状態1)の累積時間である。
 ユーザの睡眠時間の合計は、ユーザが時間帯T1(前日(1日目)の21:30から当日(2日目)の8:00)において、横になっていた状態(状態1)の合計時間で算出される。また、ユーザの活動時間の合計時間は、当日(2日目)の24時間(時間帯T2)での起床状態(状態2)と歩行状態(状態1)との累積時間で算出される。
 なお、モデル式で使用される変数の数や単位は任意に設定することができる。また、図8の例では、ユーザの将来の状態について、当日の午前0時からの24時間の時間帯に占めるユーザの活動時間を予測するが、時間帯としては、日、曜日、週、月、年など任意の時間単位を用いることができる。
 図9に示すユーザの各状態の累積時間は、状態算出部11によって算出され、記憶部14に記憶されている。また、予測部12Aが用いるモデル式についても、記憶部14に予め記憶されている。
 予測部12Aが予測するユーザの状態と、モデル式に与える入力であるユーザの状態とは、互いに相関関係があれば、同一であっても異なっていてもよい。例えば、図9の例では、ユーザの臥位の状態(睡眠時間)と起床および歩行(活動時間)との関係を用いたが、例えば、過去の歩行時間を入力として、将来のユーザの歩行時間を予測することもできる。
 [リハビリ支援方法]
 次に、上述した構成を有するリハビリ支援システムの動作について図10のフローチャートを用いて説明する。前提として、記憶部14には、予測部12Aによって用いられる予測のモデル式が記憶されているものとする。また、記憶部14には、判定部13が用いるリハビリの実施に関して設定された条件として用いるしきい値が記憶されているものとする。まず、例えば、センサ105がユーザに装着された状態で以下の処理が実行される。
 センサデータ取得部10は、センサ105で計測されたユーザの生体情報を、送受信部17を介して取得する(ステップS10)。取得された生体情報は記憶部14に蓄積される。
 次に、状態算出部11は、センサデータ取得部10によって取得されたユーザの生体情報に基づいて、ユーザの状態を算出する(ステップS11)。例えば、状態算出部11は、センサデータ取得部10によって取得されたユーザの加速度を示すデータから、ユーザの状態、例えば、臥位、起床、または歩行状態を算出する。状態算出部11による算出結果は、時刻情報とともに記憶部14に記憶される(ステップS12)。記憶部14には、ユーザの各状態の累積時間が記憶される。
 その後、予測部12Aは、記憶部14からユーザの状態を予測するためのモデル式を読み出す(ステップS13)。具体的には、予測部12Aは、記憶部14に記憶されている図8に示すユーザの前日の睡眠時間と、当日に予測される活動時間との関係を用いたモデル式を用いる。予測部12Aは、記憶部14からユーザの前日から当日にかけての睡眠時間(臥位の累積時間)読み出して、モデル式に入力する(ステップS14)。具体的には、前日の21:30から当日8:00までの時間帯におけるユーザが臥位状態であった累積時間をモデル式に入力する。
 その後、予測部12Aは、当日において予測されるユーザの活動時間を出力する(ステップS15)。予測されたユーザの活動時間は記憶部14に記憶される。
 次に、判定部13は、ステップS15で予測された当日におけるユーザの活動時間が、リハビリの実施に関して設定されたしきい値を下回る場合(ステップS16:NO)、選択部15は、記憶部14に記憶されている画像などのアイテムから、ユーザに対してリハビリの実施を促す画像などのアイテムの容態を選択する(ステップS17)。例えば、ユーザが起床や歩行のリハビリを行う場合、当日に予測されるユーザの活動時間がしきい値を下回る場合、ユーザは当日にリハビリを十分に実施しないと予測される。そのため、選択部15は、ユーザに対してリハビリを実施することや注意を促す特定の画像やテキストなどの容態を選択する。
 一方、予測部12Aにより予測された当日のユーザの活動時間がしきい値以上である場合(ステップS16:YES)、選択部15は、通常時にリハビリ支援情報として提示する画像などのアイテムの容態を選択する(ステップS18)。その後、提示部16は、選択部15によって選択された画像などのアイテムの容態を表示装置109に表示させる(ステップS19)。
 以上説明したように、第2の実施の形態に係るリハビリ支援システムによれば、状態算出部11によって算出されたユーザの状態の累積時間に基づいて、将来の一定期間に占める所定の状態の累積時間を予測する。したがって、将来における任意の時間帯、例えば、日、曜日、週、月などに占めるユーザの活動時間などを把握することができ、より効果的な事前のリハビリ支援を行うことが可能となる。
 [第3の実施の形態]
 次に、本発明の第3の実施の形態について説明する。なお、以下の説明では、上述した第1および第2の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
 第3の実施の形態は、判定部13Aが、ユーザごとに設定されたリハビリの実施に関する条件を用いて判定処理を行う点で第1および第2の実施の形態に係る判定部13と異なる。
 判定部13Aは、ユーザごとのリハビリに関する統計的なデータを含む情報に基づいて、判定に用いるしきい値を設定する。判定部13Aは、記憶部14から、リハビリの実施に関してユーザごとに設定したしきい値を読み出して、予測部12が予測した将来の一定期間におけるユーザの状態に対するしきい値処理を行う。
 リハビリは、ユーザの回復度や症例などの属性によって、その実施に関して適切な目標値を設定することが望ましい。例えば、機能的自立度評価法(Functional Independence Measure:FIM)の値に基づいたしきい値を設定することができる。FIMは、リハビリを行っている患者(ユーザ)が、日常生活の動作が自力でどの程度可能であるかを評価する指標である。ここでは、リハビリを行うユーザの回復度合いの評価指標の一例として用いているが、FIMの他にも心拍数や体動、経過時間、ストレス値、スクリーニングなど他の評価指標を用いてもよい。
 図12は、FIMの値とリハビリを行うユーザの当日の活動時間との関係を示している。図12の例に示す関係より、ユーザのFIM値(x)と活動時間(y)との回帰式を導出し、この回帰式からユーザことのしきい値を設定するモデル式(y=0.094x+5.865)を設定する。例えば、FIMの値が51のユーザでは、このモデル式により予測活動時間が10.659(h)と算出される。判定部13Aは、この予測時間をしきい値として設定し、判定処理を行うことができる。
 例えば、図12のしきい値の設定を行うモデル式の例において、予測部12が予測したユーザの活動時間が、ユーザのFIMの値から求められる予測活動時間(しきい値)よりも長い場合には、判定部13Aは、「可」とする判定結果を出力することができる。
 図12に示すように、判定部13Aが用いるしきい値をユーザごとに設定した場合、実際のユーザの活動時間がしきい値以上であるのに判定結果が「否」となる、またはしきい値を下回っているのに、判定結果が「可」となるユーザの割合は、サンプル数に対して28%であった。
 なお、リハビリの実施に関して設定されるしきい値の具体的な値は、ユーザごとに異なるリハビリの目標値に応じて任意に設定することができる。例えば、ユーザのFIMの値から求められる予測活動時間(しきい値)に対して、どのくらい長くユーザに起床や歩行などの活動時間を行ってもらいたいかによってしきい値を調整することができる。また、しきい値を調整して1日の最低限のリハビリの実施時間をしきい値により判定することもできる。このように、しきい値は、ユーザごとに設定された補正値α(h)によってさらに調整することができる。この場合、判定部13Aは、しきい値に補正値αを加えた値を用いて、予測されるユーザの状態に対する判定処理を実行する。
 図13は、補正値αの値と、全体のサンプル数における判定結果が「否」となるユーザの割合を示している。図13の例では、補正値αの値が大きくなるのに応じて判定結果が「否」となるユーザの割合が増加している。すなわち、補正値αが大きくなると、リハビリを実施することを促す画像などのアイテムの容態が提示されるユーザの人数が増加している。
 例えば、図8の例による、ユーザの前日の睡眠時間から翌日24時間の活動時間を予測する場合について考える。例えば、予測部12が予測するユーザの活動時間が、FIMの値から求められる予測活動時間(しきい値)よりも1時間以上少なくなるユーザに対して、リハビリを促す画像などのアイテムの容態を提示する。この場合、判定部13Aは、補正値αの値を-1に設定する。このようにしきい値を補正値αで調整することで、図13に示すように、ユーザのサンプル数全体の20%のユーザにおいて判定結果が「否」となる。したがって、全体の20%のユーザに対してリハビリを促進する画像などのアイテムの容態が提示されることになる。
 なお、補正値αの値は、ユーザに対して期待する活動時間など、リハビリの実施やリハビリを促進する画像などのアイテムの容態を提示したいユーザの割合などによっても任意に設定することができる。
 [リハビリ支援方法]
 次に、上述した構成を有するリハビリ支援システムの動作の具体的な例について、図14のフローチャートを用いて説明する。以下、前提として、記憶部14には、判定部13Aが用いるリハビリの実施に関して設定されたユーザのFIMの値に基づくしきい値が記憶されているものとする。また、記憶部14には予測部12が用いるユーザの状態を予測するモデル式が記憶されている。まず、例えば、センサ105がユーザに装着された状態で以下の処理が実行される。
 センサデータ取得部10は、センサ105で計測されたユーザの生体情報を、送受信部17を介して取得する(ステップS20)。取得された生体情報は記憶部14に蓄積される。
 次に、状態算出部11は、センサデータ取得部10によって取得されたユーザの生体情報に基づいて、ユーザの状態を算出する(ステップS21)。例えば、状態算出部11は、センサデータ取得部10によって取得されたユーザの加速度を示すデータから、ユーザの状態、例えば、臥位、起床、および歩行状態を算出する。状態算出部11による算出結果は、時刻情報とともに記憶部14に記憶される(ステップS22)。記憶部14には、ユーザの各状態の累積時間が記憶される。
 その後、予測部12は、記憶部14からユーザの状態を予測するためのモデル式を読み出して、状態算出部11によって算出されたユーザの臥位状態の累積時間を入力として、予測される当日のユーザの活動時間Bを出力する(ステップS23)。活動時間Bは記憶部14に記憶される。
 その後、判定部13Aは、記憶部14からユーザのFIMの値に基づいたしきい値設定のためのモデル式を読み出す(ステップS24)。次に、判定部13Aは、図12に示す例による、ユーザのFIMの値に応じた予測活動時間Aを算出する(ステップS25)。次に、判定部13Aは、予測活動時間Aに基づいたしきい値を設定する(ステップS26)。その後、判定部13Aは、ステップS23で予測部12が予測したユーザの活動時間Bが、しきい値を下回る場合(ステップS27:NO)、選択部15は、記憶部14に記憶されている、ユーザに対して注意を促す画像などのアイテムの容態を選択する(ステップS28)。
 一方、予測部12が予測したユーザの活動時間Bがしきい値以上である場合(ステップS27:YES)、選択部15は、通常時に提示される画像などのアイテムの容態を選択する(ステップS29)。その後、提示部16は、選択部15によって選択された画像などのアイテムの容態を表示装置109に表示させる(ステップS30)。
 このように、ユーザのFIMの値に基づいたしきい値を設定し、予測部12によって予測された将来の一定期間におけるユーザの状態に対してしきい値処理を行うことで、ユーザがリハビリを行う前の段階で、より適切なリハビリ支援を行うことができる。
 次に、別の具体例として、ユーザの状態の履歴に基づいたしきい値により判定処理を行う場合について、図15のフローチャートを用いて説明する。
 例えば、臥位の状態が多いユーザが、起床や歩行などのリハビリを実施する場合、リハビリの実施にともなって身体機能が回復し、活動時間が増加していくことが望ましい。そこで、判定部13Aは、ユーザの状態の履歴から、ユーザの過去の活動時間を上回るようなしきい値を設定することができる。例えば、1日前のユーザの活動時間に基づくしきい値を設定し、1日前の活動時間を下回る活動時間が予測された場合に、ユーザに対してリハビリの実施を促進するような画像の容態を提示する。
 以下、前提として、記憶部14には予測部12が用いるユーザの状態を予測するモデル式が記憶されている。まず、例えば、センサ105がユーザに装着された状態で以下の処理が実行される。
 センサデータ取得部10は、センサ105で計測されたユーザの生体情報を、送受信部17を介して取得する(ステップS40)。取得された生体情報は記憶部14に蓄積される。
 次に、状態算出部11は、センサデータ取得部10によって取得されたユーザの生体情報に基づいて、ユーザの状態を算出する(ステップS41)。状態算出部11による算出結果は、時刻情報とともに記憶部14に記憶される(ステップS42)。記憶部14には、例えば、ユーザの臥位、起床、および歩行状態の履歴が記憶される。
 その後、予測部12は、記憶部14からユーザの状態を予測するためのモデル式を読み出して、状態算出部11によって算出されたユーザの臥位状態の累積時間を入力として、予測される当日の活動時間Bを出力する(ステップS43)。活動時間Bは記憶部14に記憶される。
 その後、判定部13Aは、記憶部14に記憶されている状態算出部11によって算出されたユーザの状態の履歴から、ユーザの活動時間{An}を算出する(ステップS44)。ここで、ユーザの活動時間の予測値を求めたい日の1日前の活動時間を{A1}とし、n日前の活動時間をAnとする。判定部13Aは、ユーザの活動時間{An}の値に対してnが小さいほど加重が大きくなるように平均を取り、ユーザの1日における予測活動時間Cを算出する(ステップS45)。
 次に、判定部13Aは、予測活動時間Cからしきい値を設定する(ステップS46)。その後、予測部12によって予測された当日のユーザの活動時間Bが、しきい値(予測活動時間C)を下回る場合には(ステップS47:NO)、選択部15は、記憶部14に記憶されている、ユーザに対して注意を促す画像などのアイテムの容態を選択する(ステップS48)。
 一方、予測部12が予測したユーザの活動時間Bがしきい値以上である場合(ステップS47:YES)、選択部15は、通常時に提示される画像などのアイテムの容態を選択する(ステップS49)。その後、提示部16は、選択部15によって選択された画像などのアイテムの容態を表示装置109に表示させる(ステップS50)。
 なお、判定部13Aがユーザの状態の履歴に基づいて設定するしきい値は、1日単位の過去のユーザの活動時間に限らず、週、月、年など任意の期間の平均から設定することができる。例えば、ひと月のユーザの活動時間から判定処理に用いるしきい値を設定する場合、直近の「1日」のユーザの活動時間を用いた方が、現在のユーザの身体により適した活動時間が求められるので、加重平均を取ることでより適切なしきい値を設定できる。
 また、図13で説明したように、判定処理に用いられるしきい値に対して補正値を加えてもよい。
 このように、ユーザの状態の履歴に基づくしきい値を設定し、予測部12によって予測された将来の一定期間におけるユーザの状態に対してしきい値処理を行うことで、ユーザがリハビリを行う前の段階で、より適切なリハビリ支援を行うことができる。
 [第4の実施の形態]
 次に、本発明の第4の実施の形態について説明する。なお、以下の説明では、上述した第1から第3の実施の形態と同じ構成については同一の符号を付し、その説明を省略する。
 第1から第3の実施の形態では、選択部15が判定部13による判定結果に応じた画像などのアイテムの容態を選択し、提示部16が選択されたアイテムの容態を表示装置109に表示させる場合について説明した。これに対して、第4の実施の形態では、図16に示すように、提示部16Aは、選択部15によって選択された判定結果に応じた画像などのアイテムの容態を外部の端末に対しても提示する。
 例えば、ユーザのリハビリ実施時間が減少傾向にあることを示す予測値が出力された場合、ユーザのリハビリを管理する医師や介護者などに対してもその旨を提示することで、第三者を通したユーザのリハビリ支援が可能となる。具体的には、通信ネットワークNWで接続されている介護者などが携帯している通信端末に対しても、判定部13による判定結果に応じて選択された画像などのアイテムの容態を提示する。例えば、介護者は、提示された情報に基づいて、日中に寝ているユーザに対して、声掛けを行うなどしてユーザが体を動かすよう促すことができる。
 また、ユーザのリハビリ実施時間が極端に長くなることを示す予測値が出力された場合に、ユーザのリハビリを管理する介護者などに対して、提示部16Aは、その旨を提示する。これにより、ユーザの活動が過剰となっていないか、あるいは、ユーザが夜遅くまで起きていないか等を、第三者が容易に確認することができる。
 なお、第1から第3の実施の形態で説明したように、判定部13による判定結果に応じて選択された画像などのアイテムの容態は、ユーザに対しても提示することができる。また、同一の判定結果であっても、ユーザに対して提示する画像などのアイテムの容態と、介護者などに対して提示する画像などのアイテムの容態とが異なっていてもよい。例えば、ユーザに対してはリハビリ支援情報として表示画面には、画像とテキスト情報が提示され、介護者などに対しては、アラート音が提示される構成としてもよい。
 また、提示部16Aは、判定部13による判定結果に応じて選択された画像などのアイテムの容態に加えて、状態算出部11によって算出されたユーザの状態の履歴を示す情報を提示してもよい。
 以上説明したように、第4の実施の形態に係るリハビリ支援システムによれば、ユーザ本人だけでなく、ユーザのリハビリを管理する第三者に対してもリハビリ支援情報を提示するので、ユーザがリハビリを行う前の段階で、より確実なユーザのリハビリ支援ができる。
 なお、説明した実施の形態は、それぞれ組み合わせて実現することが可能である。また、説明した第2から第4の実施の形態に係るリハビリ支援システムについても、第1の実施の形態と同様に、図4および図5に示したセンサ端末200a、200b、中継端末300、および外部端末400で実現することができる。
 また、センサ端末200a、200b、中継端末300、および外部端末400で実現されるリハビリ支援システムにおいて、中継端末300が状態算出部11、予測部12、判定部13、および選択部15を備える場合について説明した。しかし、これらの機能部は、センサ端末200a、200bまたは外部端末400が備える構成であってもよい。
 また、状態算出部11、予測部12、判定部13、および選択部15の各機能をセンサ端末200a、200b、中継端末300、および外部端末400にそれぞれ分散して実現してもよい。
 以上、本発明のリハビリ支援システム、およびリハビリ支援方法における実施の形態について説明したが、本発明は説明した実施の形態に限定されるものではなく、請求項に記載した発明の範囲において当業者が想定し得る各種の変形を行うことが可能である。
10、202…センサデータ取得部、11、303…状態算出部、12、304…予測部、13、305…判定部、14…記憶部、15、306…選択部、16、404…提示部、17…送受信部、101…バス、102…プロセッサ、103…主記憶装置、104…通信インターフェース、105、201…センサ、106…補助記憶装置、107…時計、108…入出力装置、109…表示装置、200a、200b…センサ端末、300…中継端末、400…外部端末、203、302、402…データ記憶部、204、307…送信部、301、401…受信部、403…提示処理部。

Claims (8)

  1.  センサによって計測されたユーザの生体情報を含むセンサデータを取得するセンサデータ取得部と、
     取得された前記センサデータに基づいて前記ユーザの状態を求める状態算出部と、
     前記状態算出部によって求められた前記ユーザの状態から、前記ユーザの状態を予測する予測部と、
     リハビリテーションを支援する情報として提示される支援情報を記憶する記憶部と、
     前記予測部によって予測された前記ユーザの状態に基づいて、前記記憶部に記憶されている前記支援情報を選択する選択部と、
     前記選択部によって選択された前記支援情報を提示する提示部と
     を備えるリハビリ支援システム。
  2.  請求項1に記載のリハビリ支援システムにおいて、
     前記状態算出部は、前記ユーザの状態の累積時間を算出し、
     前記予測部は、前記状態算出部によって算出された前記ユーザの状態の累積時間に基づいて、将来の一定期間に占める前記ユーザの状態の累積時間を予測する
     ことを特徴とするリハビリ支援システム。
  3.  請求項1または請求項2に記載のリハビリ支援システムにおいて、
     前記予測部によって予測された前記ユーザの状態が、リハビリの実施に関して設定された条件を満たすか否かを判定する判定部をさらに備え、
     前記選択部は、前記判定部による判定結果に応じた前記支援情報を選択する
     ことを特徴とするリハビリ支援システム。
  4.  請求項3に記載のリハビリ支援システムにおいて、
     前記判定部は、前記ユーザごとのリハビリに関する統計的なデータを含む情報に基づいて、判定に用いるしきい値を設定する
     ことを特徴とするリハビリ支援システム。
  5.  請求項3に記載のリハビリ支援システムにおいて、
     前記判定部は、前記状態算出部によって算出された前記ユーザの状態の履歴に基づいて、判定に用いるしきい値を設定する
     ことを特徴とするリハビリ支援システム。
  6.  請求項1から5のいずれか1項に記載のリハビリ支援システムにおいて、
     前記提示部は、前記選択部によって選択された前記支援情報を表す画像を表示する表示装置を含む
     ことを特徴とするリハビリ支援システム。
  7.  請求項1から6のいずれか1項に記載のリハビリ支援システムにおいて、
     前記ユーザの状態は、臥位、立位、座位、および歩行の少なくとも1つを含む
     ことを特徴とするリハビリ支援システム。
  8.  センサによって計測されたユーザの生体情報を含むセンサデータを取得する第1ステップと、
     取得された前記センサデータに基づいて前記ユーザの状態を求める第2ステップと、
     前記第2ステップで求められた前記ユーザの状態から、前記ユーザの状態を予測する第3ステップと、
     前記第3ステップで予測された前記ユーザの状態に基づいて、記憶部に記憶されているリハビリテーションを支援する情報として提示される支援情報を選択する第4ステップと、
     前記第4ステップで選択された前記支援情報を提示する第5ステップと
     を備えるリハビリ支援方法。
PCT/JP2019/019887 2019-05-20 2019-05-20 リハビリ支援システム、およびリハビリ支援方法 WO2020234957A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/019887 WO2020234957A1 (ja) 2019-05-20 2019-05-20 リハビリ支援システム、およびリハビリ支援方法
US17/607,088 US20220117550A1 (en) 2019-05-20 2019-05-20 Rehabilitation Support System and Rehabilitation Support Method
JP2021520521A JP7298685B2 (ja) 2019-05-20 2019-05-20 リハビリ支援システム、およびリハビリ支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/019887 WO2020234957A1 (ja) 2019-05-20 2019-05-20 リハビリ支援システム、およびリハビリ支援方法

Publications (1)

Publication Number Publication Date
WO2020234957A1 true WO2020234957A1 (ja) 2020-11-26

Family

ID=73459068

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/019887 WO2020234957A1 (ja) 2019-05-20 2019-05-20 リハビリ支援システム、およびリハビリ支援方法

Country Status (3)

Country Link
US (1) US20220117550A1 (ja)
JP (1) JP7298685B2 (ja)
WO (1) WO2020234957A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022190181A (ja) * 2021-06-13 2022-12-23 Rehabilitation3.0株式会社 作業療法支援装置、作業療法支援装置のための人工知能学習装置、作業療法支援方法、作業療法支援装置のための人工知能学習方法、作業療法支援プログラム、及び人工知能学習プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138530A (ja) * 2011-01-26 2011-07-14 Olympus Corp 情報表示システム
JP2015092395A (ja) * 2015-01-07 2015-05-14 株式会社東芝 質問予測装置、質問予測方法および質問予測プログラム
WO2019008657A1 (ja) * 2017-07-04 2019-01-10 富士通株式会社 情報処理装置、情報処理プログラム及び情報処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138530A (ja) * 2011-01-26 2011-07-14 Olympus Corp 情報表示システム
JP2015092395A (ja) * 2015-01-07 2015-05-14 株式会社東芝 質問予測装置、質問予測方法および質問予測プログラム
WO2019008657A1 (ja) * 2017-07-04 2019-01-10 富士通株式会社 情報処理装置、情報処理プログラム及び情報処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022190181A (ja) * 2021-06-13 2022-12-23 Rehabilitation3.0株式会社 作業療法支援装置、作業療法支援装置のための人工知能学習装置、作業療法支援方法、作業療法支援装置のための人工知能学習方法、作業療法支援プログラム、及び人工知能学習プログラム
JP7246648B2 (ja) 2021-06-13 2023-03-28 Rehabilitation3.0株式会社 作業療法支援装置、作業療法支援装置のための人工知能学習装置、作業療法支援方法、作業療法支援装置のための人工知能学習方法、作業療法支援プログラム、及び人工知能学習プログラム

Also Published As

Publication number Publication date
US20220117550A1 (en) 2022-04-21
JPWO2020234957A1 (ja) 2020-11-26
JP7298685B2 (ja) 2023-06-27

Similar Documents

Publication Publication Date Title
US20110245633A1 (en) Devices and methods for treating psychological disorders
CN105807913A (zh) 基于生物信息的可穿戴装置、系统和操作方法
US20160220174A1 (en) Body-Sensing Tank Top with Biofeedback System for Patients with Scoliosis
Rohit et al. Iot based health monitoring system using raspberry PI-review
JP6800759B2 (ja) ユーザ端末
US20220409098A1 (en) A wearable device for determining motion and/or a physiological state of a wearer
JP2023512987A (ja) 患者の脊椎、平衡、歩行、又は姿勢を監視するためのシステム及び方法
US20220189278A1 (en) Method for operating a hearing system
Ilg et al. Quantitative gait and balance outcomes for ataxia trials: consensus recommendations by the Ataxia Global Initiative Working Group on Digital-Motor Biomarkers
WO2020234957A1 (ja) リハビリ支援システム、およびリハビリ支援方法
JP7399092B2 (ja) 潜在的な甲状腺異常のアラートを提供する方法
WO2021033569A1 (ja) リハビリ支援システム、リハビリ支援方法、およびリハビリ支援プログラム
Rayan et al. Monitoring technologies for precision health
JP2018068910A (ja) 疾病予測方法
CN106886669A (zh) 一种基于移动终端的健康数据处理方法和装置
JP2023025703A (ja) 評価システム
Mielnik et al. Monitoring of chronic arthritis patients with wearables-a report from the concept phase
JP7180216B2 (ja) 生体情報解析装置、生体情報解析方法、および生体情報解析システム
WO2021033570A1 (ja) リハビリ支援システム、リハビリ支援方法、およびリハビリ支援プログラム
AU2021104542A4 (en) I-Health-Care: Technologies Towards 5G Network for Intelligent Health-Care Using IoT Notification with Machine Learning Programming
JP7294449B2 (ja) 監視システム、監視方法、および監視プログラム
JP6861033B2 (ja) ユーザ端末、サーバ、改善提案作成装置の作動方法および状態データ生成方法
WO2023053176A1 (ja) 学習装置、行動推薦装置、学習方法、行動推薦方法及び記憶媒体
Neto et al. An architecture for creating mobile assistive products: a case study on posture monitoring of people with motor disability
Rajkomar Using Machine Learning to Forecast and Improve Clinical Outcomes and Healthy Aging Using Sensor Data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19930089

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021520521

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19930089

Country of ref document: EP

Kind code of ref document: A1