WO2023058391A1 - 情報処理方法、情報処理システム及び情報処理装置 - Google Patents

情報処理方法、情報処理システム及び情報処理装置 Download PDF

Info

Publication number
WO2023058391A1
WO2023058391A1 PCT/JP2022/033635 JP2022033635W WO2023058391A1 WO 2023058391 A1 WO2023058391 A1 WO 2023058391A1 JP 2022033635 W JP2022033635 W JP 2022033635W WO 2023058391 A1 WO2023058391 A1 WO 2023058391A1
Authority
WO
WIPO (PCT)
Prior art keywords
information processing
user
information
rehabilitation
data
Prior art date
Application number
PCT/JP2022/033635
Other languages
English (en)
French (fr)
Inventor
咲湖 安川
乃愛 金子
拓哉 岸本
正範 勝
厚志 大久保
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023058391A1 publication Critical patent/WO2023058391A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance

Definitions

  • the present disclosure relates to an information processing method, an information processing system, and an information processing device.
  • Patent Document 1 discloses a pedometer that has a function of calculating rehabilitation progress data based on the output signal of an acceleration sensor.
  • One aspect of the present disclosure makes it possible to easily grasp the situation regarding diseases of wheelchair patients.
  • an information processing device receives sensing data from a sensor provided for a user who is a wheelchair patient, and estimates a judgment index related to the user's disease based on the sensing data. do.
  • An information processing system includes an information acquisition device that acquires sensing data of a sensor provided for a user who is a wheelchair patient, and based on the sensing data acquired by the information acquisition device, the user's and an information processing device for estimating a judgment index related to a disease.
  • An information processing apparatus includes an estimation unit that estimates a judgment index regarding a user's disease based on sensing data from a sensor provided for the user who is a wheelchair patient.
  • FIG. 10 is a diagram schematically showing an example of distinguishing between when a person is in a wheelchair and when walking, based on acceleration data;
  • FIG. 10 is a diagram schematically showing an example of distinguishing between when a person is in a wheelchair and when walking, based on acceleration data;
  • FIG. 10 is a diagram schematically showing an example of a procedure for generating a degree-of-progression estimation model
  • FIG. 4 is a diagram schematically showing an example of a procedure for generating an effectiveness estimation model
  • FIG. 4 is a diagram showing an example of a user interface
  • FIG. 4 is a diagram showing an example of a user interface
  • FIG. 4 is a diagram showing an example of a user interface
  • FIG. 4 is a diagram showing an example of a user interface
  • FIG. 4 is a diagram showing an example of a user interface
  • FIG. 4 is a diagram showing an example of a user interface
  • FIG. 10 is a diagram schematically showing an example of a procedure for generating a degree-of-progression estimation model
  • FIG. 4 is a diagram schematically showing an example of a procedure for generating an effectiveness estimation model
  • FIG. 4 is a diagram showing an example of a user interface
  • FIG. 4 is a diagram showing an example of a user interface
  • FIG. 4 is a
  • FIG. 4 is a diagram showing an example of a user interface; 4 is a flowchart showing an example of processing (information processing method) executed in the information processing system; It is a figure which shows a modification. It is a figure which shows a modification. 3 is a block diagram showing an example of hardware configuration; FIG.
  • Embodiment FIG. 1 is a diagram showing an example of a schematic configuration of an information processing system that can be used for an information processing method according to an embodiment.
  • an index is estimated for judging the status of the wheelchair patient's disease.
  • a wheelchair patient is referred to as User U and is illustrated.
  • a wheelchair used by the user U is referred to as a wheelchair W and illustrated.
  • Examples of user U's disease types are neurological diseases and muscle degenerative diseases, more specifically Parkinson's disease, muscular dystrophy, cerebellar degenerative diseases, amyotrophic lateral sclerosis (ALS), and the like.
  • ALS amyotrophic lateral sclerosis
  • the information processing system 100 includes an information acquisition device 1, an information processing device 2, a medical worker terminal 3, and a community member terminal 4. These devices and terminals are configured to be able to communicate via network N.
  • FIG. 1 An information acquisition device 1, an information processing device 2, a medical worker terminal 3, and a community member terminal 4. These devices and terminals are configured to be able to communicate via network N.
  • FIG. 1 An information acquisition device 1, an information processing device 2, a medical worker terminal 3, and a community member terminal 4. These devices and terminals are configured to be able to communicate via network N.
  • the information acquisition device 1 acquires sensing data (detection results) of sensors provided for the user U.
  • Sensing data is, for example, time-series data. Since the user U is a wheelchair patient, the sensing data includes at least the sensing data acquired while the user U is in the wheelchair W.
  • the information acquisition device 1 includes a sensor 11 and a user terminal 12.
  • the sensors 11 include multiple sensors (for example, wearable devices) attached to the user's U body.
  • a wrist Ua, a forearm Ub, an upper arm Uc, a neck Ud, a waist Ue, and a thigh Uf are illustrated with reference numerals.
  • FIG. 2 is a diagram showing an example of sensors and sensing data.
  • the sensor 11 an acceleration sensor, a gyro sensor, a position sensor, an image sensor, a microphone, and a vital sensor are exemplified.
  • the acceleration sensor, gyro sensor, and position sensor detect acceleration, angular velocity, and position.
  • the sensing data of these sensors are called acceleration data, angular velocity data and position data.
  • the image sensor captures an image. Imaging may mean including photographing. An image may mean including a video. Sensing data of the image sensor is called image data. A microphone picks up sound. Sensing data of the microphone is called sound data.
  • the vital sensor detects biological information. Examples of biological information are heart rate, electroencephalogram, electrocardiogram, blood flow, blood pressure, and the like. Sensing data of the vital sensor is called vital data.
  • a magnetic sensor may be used as the position sensor.
  • a GPS sensor may be used as the position sensor.
  • sensing data may be sensing data other than the sensing data illustrated in FIG. Examples of other sensing data are sensing data such as respiration, vital capacity, electroencephalogram, myoelectricity, temperature, blood sugar level, weight, vibration, and impact.
  • the user terminal 12 is a terminal used by the user U, such as a mobile communication terminal such as a tablet terminal or a smart phone. Some sensors may be provided by user terminal 12 . The user terminal 12 collects sensing data from each sensor.
  • the information processing device 2 receives sensing data.
  • the medical staff terminal 3 is a terminal used by the medical staff D.
  • FIG. Examples of medical personnel D are doctors, physical therapists, and the like.
  • the community member terminal 4 is a terminal used by the member M.
  • the member M is a member belonging to the same community as the user U, such as a family member of the user U, another patient with the same disease as the user U, and the like. Further details of the information processing system 100 are described with reference to FIG.
  • FIG. 3 is a block diagram showing an example of a schematic configuration of an information processing system. As described above, in the information acquisition device 1, sensing data from the sensor 11 is transmitted to the user terminal 12 and collected.
  • the user terminal 12 includes a communication unit 13, a user interface unit 14, a processing unit 15, and a storage unit 16.
  • An application program 161 is exemplified as information stored in the storage unit 16 .
  • the application program 161 is a program (software) used to provide an application.
  • the communication unit 13 communicates with other devices. For example, the communication unit 13 receives sensing data from the sensor 11 , result information (described later) from the information processing device 2 , and intervention information (described later) from the medical staff terminal 3 . The communication unit 13 also transmits sensing data and rehabilitation history information (described later) to the information processing device 2 . The communication unit 13 transmits shared information (described later) to the community member terminals 4 .
  • the user interface unit 14 receives the operation of the user terminal 12 by the user U and presents information to the user U. Specific examples will be described later with reference to FIGS. 11 to 16. FIG.
  • the processing unit 15 functions as a control unit that controls each element of the user terminal 12 and executes various processes.
  • the processing unit 15 provides the user U with an application by executing the application program 161 (software).
  • An example of an application is a rehabilitation application.
  • An example of rehabilitation is self-rehabilitation performed according to a rehabilitation menu indicating the content of rehabilitation.
  • Another example of rehabilitation is a state in which communication between the user terminal 12 and the medical worker terminal 3 is established (on-line state), and guidance by a medical worker D (more specifically, a physical therapist or the like). It is an online rehabilitation that takes place at Information including the actually performed rehabilitation menu, start time, end time, etc. is transmitted to the information processing device 2 together with the sensing data as rehabilitation history information.
  • the information processing device 2 receives and processes the sensing data acquired by the information acquisition device 1.
  • Information processing device 2 includes communication unit 21 , extraction unit 22 , estimation unit 23 , and storage unit 24 .
  • Examples of information stored in the storage unit 24 include patient information 241 , feature quantity estimation model 242 , judgment index estimation model 243 , and community information 244 .
  • the patient information 241 includes information about the user U.
  • An example of patient information 241 is: They are user U's disease information, hospital visit history information, rehabilitation history information, daily condition history information, and the like.
  • the disease information includes information such as the type of user U's disease. Examples of types of diseases are, as mentioned above, neurological diseases and muscle degenerative diseases, more specifically Parkinson's disease, muscular dystrophy, cerebellar degenerative diseases, ALS and the like.
  • the hospital visit history information is information about the user U's past hospital visits, and is given from the outside of the information processing device 2 (medical worker terminal 3 or the like), for example.
  • the rehabilitation history information is information about past rehabilitation performed by the user U, and is transmitted from the user terminal 12 to the information processing device 2, for example, as described above.
  • the daily state history information is information about daily actions performed by the user U, and includes, for example, sensing data and information on feature amounts obtained therefrom.
  • the feature quantity estimation model 242 and the judgment index estimation model 243 will be described later.
  • the community information 244 is information about the community to which the user U belongs, and includes information about the member M2 and the community member terminal 4 .
  • the communication unit 21 communicates with other devices and the like. For example, the communication unit 21 receives sensing data and rehabilitation history information from the user terminal 12 .
  • the extraction unit 22 extracts (calculates, etc.) the feature amount obtained from the sensing data. Description will also be made with reference to FIG.
  • FIG. 4 is a diagram showing an example of feature values obtained from sensing data.
  • the feature amount include "feature amount related to raising and lowering the upper limb”, “feature amount related to riding in a wheelchair”, “feature amount related to walking”, “feature amount related to rehabilitation”, “feature amount related to sleep” and “other feature amounts”. be.
  • Each feature amount is expressed as a score, for example.
  • “Upper limb raising and lowering time”, “upper limb raising and lowering number of times”, and “upper limb raising and lowering height” are exemplified as “feature values related to upper limb raising and lowering”. These feature amounts indicate the length of time, the number of times, and the height during which the user U raised and lowered the upper limbs.
  • “Wheelchair riding time”, “Wheelchair riding distance”, and “Wheelchair riding speed” are exemplified as “feature values related to wheelchair riding”. These feature amounts indicate the length of time the user U has ridden (moved) in the wheelchair W, the moving distance, and the moving speed.
  • Walking time "Walking distance”, “walking distance”, and “walking speed” are exemplified as "feature values related to walking”. These feature amounts indicate the length of time the user U has been walking, the moving distance, and the moving speed.
  • the extraction unit 22 calculates, for example, the feature amount related to raising and lowering the upper limbs, the feature amount related to riding in a wheelchair, and the feature amount related to walking, based on acceleration data, angular velocity data, position data, and the like. It should be noted that the sensing data when riding in a wheelchair and the sensing data when walking are distinguished based on, for example, angular velocity data. Description will be made with reference to FIGS. 5 and 6. FIG.
  • FIGS. 5 and 6 are diagrams schematically showing an example of distinguishing between riding in a wheelchair and walking based on acceleration data. Acceleration data for each of the wrist Ua, neck Ud, and thigh Uf are illustrated. The horizontal axis of the graph indicates time, and the vertical axis of the graph indicates the value of the acceleration sensor.
  • the acceleration sensor is a triaxial sensor, and the value of each axis is indicated by three types of graph lines.
  • FIG. 5 illustrates acceleration data including acceleration data when riding in a wheelchair, more specifically, acceleration data during electric running and acceleration data during rowing.
  • FIG. 6 illustrates acceleration data during walking, more specifically acceleration data including acceleration data during normal walking and acceleration data during short walking.
  • the behavior of the acceleration data differs between when walking and when riding in a wheelchair. For example, on the basis of such a difference in behavior, it is possible to distinguish between sensing data while riding in a wheelchair and sensing data while walking.
  • sensing data other than acceleration data can also be used to distinguish between riding in a wheelchair and walking.
  • “Self-rehabilitation implementation rate” indicates the implementation rate of user U's self-rehabilitation.
  • the extraction unit 22 calculates the implementation rate of self-rehabilitation based on, for example, rehabilitation history information.
  • An example of the implementation rate is the ratio of the rehabilitation menu actually performed to the presented rehabilitation menu, and can be used to judge whether the rehabilitation is progressing as planned.
  • the extraction unit 22 may calculate the quality of rehabilitation based on other feature amounts.
  • the quality of rehabilitation is, for example, a score calculated based on rehabilitation results such as the time/number of times/height of raising and lowering the upper limb.
  • Results of comparison with past rehabilitation data shows the results of comparison with past rehabilitation.
  • the extraction unit 22 compares the result of comparison between the data indicated in the rehabilitation history information relating to the rehabilitation performed this time and the data indicated in the rehabilitation history information relating to the rehabilitation performed in the past with the past rehabilitation data. Calculated as a comparison result. For example, a difference, a ratio, or the like between a score (quality of rehabilitation, etc.) corresponding to past rehabilitation history information and a score corresponding to current rehabilitation history information is calculated as a comparison result.
  • “Other features” include “vital stability”, “utterance time”, “expression” and “emotion”. “Vital stability” indicates the stability of the user U's heartbeat and the like.
  • the extraction unit 22 calculates vital stability based on the vital data.
  • “Speech time” indicates the length of time that the user U has spoken.
  • the extraction unit 22 calculates the speech time based on, for example, image data and sound data.
  • “Facial expression” and “emotion” indicate the user U's facial expression and emotion. The extraction unit 22 calculates these feature amounts, for example, based on image data or the like.
  • Various feature values that can be obtained from sensing data may be extracted, not limited to the above feature values.
  • the extraction unit 22 may use the feature amount estimation model 242 to extract the feature amount.
  • the feature quantity estimation model 242 is a learned model (inference model) generated by machine learning so as to output output data corresponding to the feature quantity when input data corresponding to sensing data is input.
  • machine learning can be applied, such as neural networks, logistic regression analysis, decision trees, linear regression, support vector machines, etc., may be used.
  • the extraction unit 22 inputs the input data to the feature quantity estimation model 242 .
  • the feature estimation model 242 outputs output data in response to input of input data.
  • the extraction unit 22 acquires the output data of the feature amount estimation model 242 to extract the feature amount.
  • the generation of the feature quantity estimation model 242 will be explained using the quality of rehabilitation as an example. Prepare sensing data. Also, a rehabilitation score scored by a physical therapist or the like is prepared as teaching data. A feature estimation model 242 is generated by performing machine learning using the prepared sensing data and teacher data as training data. The same applies to other feature quantities.
  • the estimating unit 23 estimates a judgment index, which is an index for judging the situation regarding the user U's disease, based on the sensing data. Description will also be made with reference to FIG.
  • FIG. 7 is a diagram showing examples of judgment indicators. "Disease progression” and “rehabilitation effectiveness” are exemplified as judgment indices.
  • the judgment index "disease progression” indicates the degree of progression of the disease.
  • the degree of disease progression is exemplified by "upper limb motor dysfunction degree classification score”, “DMD dysfunction degree”, “PUL” and “STEF”. These are known indicators that can be used as upper limb function scores, and will be briefly described below.
  • the upper limb motor dysfunction classification score is a judgment index used to evaluate the upper limb motor function of patients with muscular dystrophy, and specifies the progression of the disease in 9 stages.
  • the degree of DMD dysfunction is a judgment index used for evaluation of upper extremity motor function in patients with Duchenne muscular dystrophy (DMD), and specifies the progress of the disease in 10 stages.
  • PUL Performance of the Upper Limb
  • STEF Simple Test for Evaluating Hand Function
  • the judgment index "rehabilitation effectiveness” indicates the effectiveness of the rehabilitation that has been carried out.
  • the effectiveness of rehabilitation is exemplified by "effectiveness probability" that indicates the probability that the rehabilitation that has been performed is effective.
  • various rehabilitation menus such as exercises for the neck (corresponding to the neck Ud of the user U) are known.
  • the effectiveness probability is calculated based on the score evaluation (for example, 5-level evaluation, etc.) of such gymnastics.
  • the effectiveness probability is calculated such that the effectiveness probability increases as the post-rehabilitation score becomes higher than the pre-rehabilitation score.
  • judgment indexes related to the disease of the user U may be estimated, not limited to the above judgment indexes.
  • the estimation unit 23 estimates the judgment index based on the feature amount extracted by the extraction unit 22.
  • the estimating unit 23 also estimates the effectiveness of rehabilitation based on the feature amount related to rehabilitation, the degree of progression of disease before and after rehabilitation, and the patient information 241 .
  • the judgment index estimation model 243 is used.
  • the judgment index estimation model 243 may also use various known configurations and techniques to which machine learning can be applied.
  • FIG. 8 is a diagram showing an example of a judgment index estimation model.
  • the judgment index estimation model 243 includes a progress estimation model 243a and an effectiveness estimation model 243b. I will explain in order.
  • the input data of the progress estimation model 243a is data corresponding to the feature amount.
  • the output data of the progression estimation model 243a is data corresponding to the disease progression.
  • the estimation unit 23 inputs the input data to the progress estimation model 243a.
  • the progress estimation model 243a outputs output data in response to input of input data.
  • the estimation unit 23 acquires the output data of the progression estimation model 243a to estimate the degree of progression of the disease.
  • FIG. 9 is a diagram schematically showing an example of the procedure for generating a progress estimation model.
  • a feature quantity extracted from sensing data is prepared (procedure P1, procedure P2).
  • Examples of sensing data are angular velocity data, angular velocity data, position data, and the like.
  • Examples of the feature amount are the time/number of times/height of raising and lowering the upper limbs, the time/number of times/height of wheelchair riding, and the time/number of times/height of walking.
  • the degree of disease progression corresponding to the feature quantity is prepared as training data (procedure P3).
  • a progression estimation model 243a is generated by performing machine learning using the prepared feature amount and disease progression as training data (procedures P4 and P5).
  • the input data of the effectiveness estimation model 243b are the data corresponding to the rehabilitation-related characteristic quantities (rehabilitation quality, implementation rate, etc.), disease progression before and after rehabilitation, and patient information.
  • the output data of the effectiveness estimation model 243b is data corresponding to rehabilitation effectiveness.
  • the estimation unit 23 inputs the input data to the effectiveness estimation model 243b.
  • the effectiveness estimation model 243b outputs output data in response to input of input data.
  • the estimation unit 23 acquires the output data of the effectiveness estimation model 243b to estimate rehabilitation effectiveness.
  • FIG. 10 is a diagram schematically showing an example of the procedure for generating an effectiveness estimation model.
  • a feature amount extracted from sensing data during rehabilitation and rehabilitation history information is prepared (procedures P11 to P13).
  • sensing data are acceleration data, angular velocity data, position data, vital data, image data, etc., and include various motion amounts (activity amounts) of the user U during rehabilitation.
  • feature quantities extracted from sensing data are the quality of rehabilitation, the time/number of times/height of raising and lowering the upper limbs before and after rehabilitation, and the wheelchair riding time/distance/speed before and after rehabilitation.
  • Examples of the feature amount extracted from the rehabilitation history information are the rehabilitation implementation rate and the like.
  • the degree of disease progression before and after rehabilitation is estimated based on, among the feature values, for example, the time/number of times/height of raising and lowering the upper limbs before and after rehabilitation, and the time/distance/speed of riding in a wheelchair before and after rehabilitation (procedure P14).
  • the progress estimation model 243a may be used for estimation.
  • the quality of rehabilitation, the degree of disease progression before and after rehabilitation, the implementation rate of rehabilitation, and the effectiveness of rehabilitation corresponding to patient information are prepared as teacher data (procedure P15).
  • the effectiveness estimation model 243b is generated by performing machine learning using the prepared rehabilitation quality, disease progression before and after rehabilitation, rehabilitation implementation rate, patient information, and rehabilitation effectiveness as training data (procedure P16, procedure P17 ).
  • the communication unit 21 transmits information obtained by the information processing device 2 (hereinafter also referred to as "result information") to the user terminal 12, the medical staff terminal 3, and the community member terminal 4.
  • the result information includes at least a decision indicator.
  • the result information may also include feature amounts, sensing data, and rehabilitation history information.
  • the result information may also include information such as a recommended rehabilitation menu according to the degree of disease progression and rehabilitation effectiveness. For example, when rehabilitation effectiveness is difficult to recognize, a new rehabilitation menu is recommended according to the type and progress of the disease.
  • the medical staff terminal 3 includes a communication unit 31, a user interface unit 32, and a storage unit 33.
  • Medical information 331 is exemplified as information stored in the storage unit 33 .
  • the medical information 331 includes, for example, medical record information of the user U, and is used by the medical staff D for diagnosis of the user U and online rehabilitation.
  • the communication unit 31 communicates with other devices and the like. For example, the communication unit 31 receives result information from the information processing device 2 . The communication unit 31 also transmits intervention information (described later) to the user terminal 12 .
  • the user interface unit 32 receives operations of the medical staff terminal 3 by the medical staff D and presents information to the medical staff D. For example, the user interface unit 32 presents result information. It becomes possible to monitor the progress of the user U's disease, the effectiveness of rehabilitation, and the like. Confirmation of the above-mentioned recommended rehabilitation menu, for example, confirmation of maintenance, change, etc. of the rehabilitation menu according to the degree of disease progression is also possible.
  • Medical staff D intervenes with user U according to the monitoring results.
  • interventions include guidance and advice on daily life, guidance and advice on rehabilitation, customization of rehabilitation menus, restrictions on overuse, messages (voices) for encouragement and maintenance of motivation, and counseling arrangements.
  • Information about intervention is transmitted to the user terminal 12 as intervention information. This leads to improvement of the rehabilitation technique, motivation of the user U, and the like.
  • the community member terminal 4 includes a communication unit 41 and a user interface unit 42.
  • the communication unit 41 communicates with other devices and the like.
  • the communication unit 41 receives result information and shared information (described later) from the information processing device 2 and intervention information from the medical staff terminal 3 .
  • the user interface unit 42 receives operations of the community member terminal 4 by the member M and presents information to the member M. For example, the user interface unit 42 presents result information.
  • the user U and the member M can share the rehabilitation continuation rate, the degree of achievement, the rehabilitation menu when the rehabilitation is effective, the information about the daily state, and the like.
  • the user terminal 12 will be explained again.
  • the communication unit 13 of the user terminal 12 receives result information from the information processing device 2 and intervention information from the medical staff terminal 3 .
  • the user interface unit 14 presents result information and intervention information. Description will be made with reference to FIGS. 11 to 16 as well.
  • the display screen of the user terminal 12 is an example of the user interface section 14 .
  • the judgment index included in the result information is displayed.
  • the decision indicators are illustrated schematically as "progress XX” and "effectiveness YY". “Progression XX” and “Effectiveness YY” indicate the degree of progression of the user U's disease and the effectiveness of rehabilitation. These decision indicators are visualized and fed back to the user U. The user U can easily judge the situation regarding his/her own disease. It also leads to maintenance and improvement of motivation of the user U.
  • the feature values included in the result information are also displayed.
  • “week” is selected from the icons “week”, “month” and “year”, and the feature amount for about one week is displayed for each day. It is possible to grasp the transition of the feature amount and predict the feature amount in the future.
  • a wheelchair icon, a rehabilitation icon, a sleep icon, a medication icon, and a chat icon are exemplified from left to right.
  • the wheelchair icon is selected, and the feature values related to wheelchair riding are displayed as graph lines and plots.
  • Examples of the feature amount are the wheelchair riding time, the wheelchair riding distance, the wheelchair riding speed, etc., which were described with reference to FIG.
  • a rehabilitation icon is selected, and feature amounts related to rehabilitation are displayed as graph lines and plots.
  • Examples of the feature amount are the implementation rate of self-rehabilitation, the quality of self-rehabilitation, the quality of online rehabilitation, etc., which were described with reference to FIG.
  • the sleep icon is selected, and the feature amount related to sleep is plotted.
  • the feature amount are the sleep time, the quality of sleep, etc., which were previously described with reference to FIG.
  • the medication icon when the medication icon is selected, information such as the medication schedule and medication history is displayed.
  • the feature amount of a specific day is selected from among the displayed feature amounts related to rehabilitation.
  • detailed information corresponding to the selected date is displayed.
  • rehabilitation menus and scores, as well as comprehensive evaluation scores, are displayed.
  • the icon "Share results" is selected in this state, the displayed information is transmitted from the user terminal 12 to the community member terminal 4 as the aforementioned shared information (FIG. 3) and shared by the member M. .
  • the chat icon is selected and a chat box is displayed.
  • a chat box is displayed.
  • a chat with the member M using the community member terminal 4 becomes possible.
  • a chat with the medical staff D using the medical staff terminal 3 becomes possible.
  • the aforementioned intervention information is displayed in a chat with the medical worker D, for example. Avatars of user U, medical worker D, and member M may be used for the chat.
  • Various user interfaces capable of presenting result information, intervention information, etc. may be used in addition to the above user interfaces.
  • the user interface unit 32 of the medical staff terminal 3 and the user interface unit 42 of the community member terminal 4 also present result information and the like.
  • FIG. 17 is a flowchart showing an example of processing (information processing method) executed in the information processing system. Descriptions of contents that overlap with the contents described so far will be omitted as appropriate.
  • step S1 sensing data and the like are received.
  • the information acquisition device 1 acquires sensing data.
  • the information processing device 2 receives (receives) sensing data and rehabilitation history information from the information acquisition device 1 .
  • step S2 feature quantities are extracted.
  • the extraction unit 22 of the information processing device 2 extracts feature amounts from the sensing data received in step S1.
  • step S3 a judgment index is estimated.
  • the estimation unit 23 of the information processing device 2 estimates a judgment index, such as the degree of progression of the disease of the user U or the effectiveness of rehabilitation, based on the feature amount extracted in the previous step S2.
  • step S4 result information is output.
  • the communication unit 21 of the information processing device 2 transmits the result information including the feature amount extracted in the previous step S2 and the judgment index estimated in the previous step S3 to the user terminal 12 and further to the medical staff terminal. 3 or the community member terminal 4.
  • the judgment index is visualized and displayed on each terminal.
  • the user U's degree of disease progression, effectiveness of rehabilitation, and the like are estimated.
  • the determination index By visualizing and displaying the determination index, it becomes possible to easily grasp the situation regarding the user U's disease.
  • the life insurance/health insurance terminal 5 is a terminal used by an insurance company, a health insurance company, or the like.
  • the communication unit 21 of the information processing device 2 transmits the result information to the life insurance/health insurance terminal 5 .
  • the life insurance/health insurance terminal 5 includes a communication unit 51, an analysis unit 52, and a storage unit 53.
  • Customer/employee information 531 is exemplified as information stored in the storage unit 53 .
  • Customer/employee information 531 includes information about user U's life insurance, health insurance, and the like.
  • the communication unit 51 receives result information from the information processing device 2 .
  • the analysis unit 52 analyzes the result information (e.g., judgment index) and specifies insurance premiums and rewards.
  • the identification may involve the work, judgment, etc. of an employee of a life insurance company or a health insurance company. A reduction in insurance premiums, a change to a limited plan, or the like may also be performed.
  • the communication unit 51 transmits the specified premium/reward information to the user terminal 12 .
  • Premium/reward information is presented by the user interface section 14 of the user terminal 12 .
  • the result information is anonymized and used for recommending products and services, and for data analysis.
  • the information processing device 2 further includes a processing unit 25 and a recommendation unit 26 .
  • the storage unit 24 also stores anonymously processed information 245 and recommendation information 246 .
  • the processing unit 25 generates anonymously processed information 245 by anonymizing the result information.
  • the anonymously processed information 245 describes the anonymized personal information and the result information in association with each other.
  • the product/service provider terminal 6 is a terminal used by companies that provide products/services. Examples of products are wheelchairs, rehabilitation equipment, health foods and health equipment. An example of a service is a health application or the like that can be executed on the user terminal 12 .
  • the product/service provider terminal 6 includes a communication unit 61 and a user interface unit 62.
  • product/service information that associates the anonymized result information with products and services is input or generated via the user interface unit 62 .
  • the communication unit 61 transmits product/service information to the information processing device 2 .
  • the communication unit 21 of the information processing device 2 receives product/service information from the product/service provider terminal 6 .
  • the recommendation unit 26 of the information processing device 2 generates recommendation information 246 including information on products and services to be recommended to the user U based on the product/service information from the product/service provider terminal 6 .
  • the communication unit 21 transmits the recommendation information 246 to the user terminals 12 and the community member terminals 4 .
  • Recommendation information 246 is presented by the user interface unit 14 of the user terminal 12 and the user interface unit 42 of the community member terminal 4 .
  • the communication unit 21 of the information processing device 2 transmits the anonymously processed information 245 to the analysis terminal 7 .
  • the analysis terminal 7 is a terminal used by, for example, a company that provides the above products/services, a pharmaceutical company that conducts clinical development, and the like.
  • the analysis terminal 7 includes a communication section 71 , an analysis section 72 and a user interface section 73 .
  • the communication unit 71 receives anonymously processed information from the information processing device 2 .
  • the analysis unit 72 performs data analysis (data analysis) based on the anonymously processed information.
  • the analysis may involve the work, judgment, etc., of employees of the company or the like.
  • the user interface unit 73 presents information related to data analysis. Examples of analysis include analysis of user groups for products such as health foods and health equipment, data analysis for clinical development, and the like.
  • the information processing device 2 life insurance/health insurance terminal 5, product/service provider terminal 6, and analysis terminal 7 illustrated in FIGS.
  • the functions of the information processing device 2 may be distributed to devices and terminals within the information processing system 100 .
  • at least part of the functions of the information processing device 2 may be implemented in the user terminal 12 .
  • the user terminal 12 and the information processing device 2 correspond to the information processing device according to the embodiment.
  • All the functions of the information processing device 2 may be implemented in the user terminal 12 .
  • the user terminal 12 corresponds to the information processing device according to the embodiment.
  • the judgment index may be estimated without using the judgment index estimation model 243.
  • a calculation formula for estimating a judgment index from sensing data or feature amounts may be used, or a data table may be referred to.
  • the judgment index may be estimated without going through feature quantity extraction.
  • the judgment index estimation model 243 may be configured to output data corresponding to the judgment index when data corresponding to sensing data is input. In that case, the estimating unit 23 can estimate the judgment index simply by inputting the input data corresponding to the sensing data to the judgment index estimation model 243 .
  • FIG. 20 is a block diagram showing an example of the hardware configuration.
  • the information processing device 2 will be described below as an example. A similar explanation can be given for the user terminal 12, the medical worker terminal 3, and the community member terminal 4.
  • FIG. Various processes by the information processing device 2 are realized by cooperation between software and hardware described below.
  • the information processing device 2 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, a RAM (Random Access Memory) 903, and a host bus 904a.
  • the information processing device 2 also includes a bridge 904 , an external bus 904 b , an interface 905 , an input device 906 , an output device 907 , a storage device 908 , a drive 909 , a connection port 911 , a communication device 913 and a sensor 915 .
  • the information processing device 2 may have a processing circuit such as a DSP or an ASIC in place of or together with the CPU 901 .
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls general operations within the information processing device 2 according to various programs.
  • the CPU 901 may be a microprocessor.
  • the ROM 902 stores programs, calculation parameters, and the like used by the CPU 901 .
  • the RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like.
  • the CPU 901 can embody the extraction unit 22 and the estimation unit 23 of the information processing device 2, for example.
  • the CPU 901, ROM 902 and RAM 903 are interconnected by a host bus 904a including a CPU bus and the like.
  • the host bus 904a is connected via a bridge 904 to an external bus 904b such as a PCI (Peripheral Component Interconnect/Interface) bus.
  • PCI Peripheral Component Interconnect/Interface
  • host bus 904a, bridge 904 and external bus 904b need not necessarily have separate configurations from each other and may be implemented in a single configuration (eg, one bus).
  • the input device 906 is implemented by a device such as a mouse, keyboard, touch panel, button, microphone, switch, lever, etc., through which information is input by the practitioner. Further, the input device 906 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or PDA corresponding to the operation of the information processing device 2. . Furthermore, the input device 906 may include, for example, an input control circuit that generates an input signal based on information input by the practitioner using the above input means and outputs the signal to the CPU 901 . By operating the input device 906, the practitioner can input various data to the information processing apparatus 2 and instruct processing operations.
  • the output device 907 is formed by a device capable of visually or audibly notifying the practitioner of the acquired information.
  • Such devices include display devices such as CRT display devices, liquid crystal display devices, plasma display devices, EL display devices and lamps, audio output devices such as speakers and headphones, and printer devices.
  • the storage device 908 is a device for storing data.
  • the storage device 908 is implemented by, for example, a magnetic storage device such as an HDD, a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the storage device 908 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like.
  • the storage device 908 stores programs executed by the CPU 901, various data, and various data acquired from the outside.
  • the storage device 908 can embody the storage unit 24 of the information processing device 2, for example.
  • the drive 909 is a reader/writer for storage media, and is built in or externally attached to the information processing device 2 .
  • the drive 909 reads information recorded on a removable storage medium such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and outputs the information to the RAM 903 .
  • Drive 909 can also write information to a removable storage medium.
  • connection port 911 is an interface that is connected to an external device, and is a connection port with an external device that can transmit data by, for example, USB (Universal Serial Bus).
  • USB Universal Serial Bus
  • the communication device 913 is, for example, a communication interface formed of a communication device or the like for connecting to the network 920 (corresponding to the network N in FIG. 1, for example).
  • the communication device 913 is, for example, a communication card for wired or wireless LAN (Local Area Network), LTE (Long Term Evolution), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 913 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various types of communication, or the like.
  • This communication device 913 can transmit and receive signals and the like to and from the Internet and other communication devices, for example, according to a predetermined protocol such as TCP/IP.
  • the communication device 913 can embody the communication unit 21 of the information processing device 2, for example.
  • the sensor 915 may include at least part of the sensors included in the sensor 11.
  • the network 920 is a wired or wireless transmission path for information transmitted from devices connected to the network 920 .
  • the network 920 may include the Internet, a telephone line network, a public line network such as a satellite communication network, various LANs (Local Area Networks) including Ethernet (registered trademark), WANs (Wide Area Networks), and the like.
  • Network 920 may also include a dedicated line network such as IP-VPN (Internet Protocol-Virtual Private Network).
  • a hardware configuration example capable of realizing the functions of the information processing device 2 has been shown above.
  • Each component described above may be implemented using general-purpose members, or may be implemented by hardware specialized for the function of each component. Therefore, it is possible to appropriately change the hardware configuration to be used according to the technical level at which the present disclosure is implemented.
  • a computer-readable recording medium storing such a computer program can also be provided. Recording media include, for example, magnetic disks, optical disks, magneto-optical disks, flash memories, and the like. Also, the above computer program may be distributed, for example, via a network without using a recording medium.
  • the technical category that embodies the above technical idea is not limited.
  • the above technical ideas may be embodied by a computer program for causing a computer to execute one or more procedures (steps) included in the method of manufacturing or using the above apparatus.
  • the above technical idea may be embodied by a computer-readable non-transitory recording medium in which such a computer program is recorded.
  • the technology described above is specified as follows, for example.
  • One of the disclosed technologies is an information processing method.
  • the information processing device 2 receives sensing data from the sensor 11 provided for the user U who is a wheelchair patient (Ste S1), based on the sensing data, estimates a judgment index regarding the disease of the user U (step S3).
  • a judgment index related to the disease of user U who is a wheelchair patient is estimated. Therefore, it is possible to easily grasp the disease status of the user U who is a wheelchair patient.
  • the sensing data may include at least sensing data acquired while the user U is riding in the wheelchair W. For example, based on such sensing data, it is possible to estimate a judgment index regarding the disease of user U who is a wheelchair patient.
  • the judgment index may include at least one of disease progression and rehabilitation effectiveness.
  • Disease progression may include an upper limb function score (eg, Upper Limb Motor Impairment Classification Score, DMD Impairment Degree, PUL, STEF, etc.).
  • Rehabilitation effectiveness may include an effectiveness probability that indicates the probability that the rehabilitation performed is effective. For example, by estimating such a judgment index, it becomes possible to easily grasp the situation regarding the user U's disease.
  • step S2 feature amounts obtained from sensing data may be extracted (step S2), and a judgment index may be estimated based on the extracted feature amounts (step S3).
  • a decision index can be estimated in this way. It is possible to obtain not only the judgment index, but also the feature amount from which the estimation is based.
  • the feature amount may be a feature amount related to wheelchair riding. For example, by extracting such a feature amount, it is possible to estimate a judgment index related to the disease of user U who is a wheelchair patient.
  • the feature amount includes the feature amount related to raising and lowering the upper limbs, the feature amount related to riding in a wheelchair, and the feature amount related to walking. good.
  • the degree of disease progression can be estimated based on such features.
  • the feature amount includes the feature amount related to rehabilitation, the degree of disease progression before and after rehabilitation, and the patient information 241, and the judgment index is rehabilitation effectiveness. It's okay. For example, rehabilitation effectiveness can be estimated in this way.
  • the result information including the judgment index may be transmitted to the user terminal 12 used by the user U (step S4). Thereby, result information can be fed back to the user U.
  • the user U can easily grasp the situation regarding his/her own disease. It also leads to maintenance and improvement of motivation.
  • the result information including the judgment index may be transmitted to the medical staff terminal 3 used by the medical staff D (step S4).
  • the result information can be shared with the medical staff D.
  • the medical staff D it becomes possible for the medical staff D to intervene in the user U according to the result information.
  • sensing data may include at least one of acceleration data, angular velocity data, position data, image data, sound data, and vital data.
  • a judgment index can be estimated based on such sensing data.
  • the information processing system 100 described with reference to FIGS. 1 to 10 and the like is also one of disclosed technologies.
  • the information processing system 100 includes an information acquisition device 1 that acquires sensing data from a sensor 11 provided for a user U who is a wheelchair patient, and a disease of the user U based on the sensing data acquired by the information acquisition device 1. and an information processing device 2 for estimating a judgment index relating to.
  • an information processing system 100 as well, as described above, it is possible to easily grasp the disease status of the user U who is a wheelchair patient.
  • the information processing system 100 presents the result information including the judgment index estimated by the information processing device 2 to the user U. may be further provided. Thereby, result information can be fed back to the user U.
  • the user U can easily grasp the situation regarding his/her own disease. It also leads to maintenance and improvement of motivation.
  • the information processing device 2 described with reference to FIGS. 1 and 3 is also one of the disclosed technologies.
  • the information processing device 2 includes an estimating unit 23 that estimates a judgment index regarding the disease of the user U based on the sensing data of the sensor 11 provided for the user U who is a wheelchair patient. With such an information processing device 2 as well, as described above, it is possible to easily grasp the disease status of the user U who is a wheelchair patient.
  • the present technology can also take the following configuration.
  • the information processing device Receiving sensing data of a sensor provided for a user who is a wheelchair patient, estimating a judgment index related to the user's disease based on the sensing data; Information processing methods.
  • the sensing data includes at least sensing data acquired while the user is in a wheelchair, The information processing method according to (1).
  • the indicator includes at least one of disease progression and rehabilitation effectiveness.
  • the rehabilitation effectiveness includes an effectiveness probability that indicates the probability that the rehabilitation performed is effective, The information processing method according to (3) or (4).
  • the feature amount is a feature amount related to wheelchair riding, The information processing method according to (6).
  • the feature amount includes a feature amount related to raising and lowering the upper limbs, a feature amount related to riding in a wheelchair, and a feature amount related to walking, wherein the indicator is the degree of disease progression;
  • the feature amount includes a feature amount related to rehabilitation, disease progression before and after rehabilitation, and patient information, The indicator is rehabilitation effectiveness, The information processing method according to (6).
  • (11) Sending the result information including the judgment index to the terminal used by the medical staff;
  • the sensing data includes at least one of acceleration data, angular velocity data, position data, image data, sound data and vital data,

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

情報処理方法では、情報処理装置(2)が、車椅子患者であるユーザ(U)に対して設けられたセンサ(11)のセンシングデータを受領し、センシングデータに基づいて、ユーザ(U)の疾患に関する判断指標を推定する。

Description

情報処理方法、情報処理システム及び情報処理装置
 本開示は、情報処理方法、情報処理システム及び情報処理装置に関する。
 例えば特許文献1は、加速度センサの出力信号に基づいてリハビリ進捗度データを演算する機能を備える歩数計を開示する。
特開2019-111167号公報
 車椅子患者の疾患に関する状況を容易に把握できることが望ましい。
 本開示の一側面は、車椅子患者の疾患に関する状況を容易に把握できるようにする。
 本開示の一側面に係る情報処理方法では、情報処理装置が、車椅子患者であるユーザに対して設けられたセンサのセンシングデータを受領し、センシングデータに基づいて、ユーザの疾患に関する判断指標を推定する。
 本開示の一側面に係る情報処理システムは、車椅子患者であるユーザに対して設けられたセンサのセンシングデータを取得する情報取得装置と、情報取得装置によって取得されたセンシングデータに基づいて、ユーザの疾患に関する判断指標を推定する情報処理装置と、を備える。
 本開示の一側面に係る情報処理装置は、車椅子患者であるユーザに対して設けられたセンサのセンシングデータに基づいて、ユーザの疾患に関する判断指標を推定する推定部を備える。
実施形態に係る情報処理方法に供することのできる情報処理システムの概略構成の例を示す図である。 センサ及びセンシングデータの例を示す図である。 情報処理システムの概略構成の例を示すブロック図である。 センシングデータから得られる特徴量の例を示す図である。 加速度データによる車椅子乗車時と歩行時の区別の例を模式的に示す図である。 加速度データによる車椅子乗車時と歩行時の区別の例を模式的に示す図である。 判断指標の例を示す図である。 判断指標推定モデルの例を示す図である。 進行度推定モデルの生成手順の例を模式的に示す図である。 有効性推定モデルの生成手順の例を模式的に示す図である。 ユーザインタフェースの例を示す図である。 ユーザインタフェースの例を示す図である。 ユーザインタフェースの例を示す図である。 ユーザインタフェースの例を示す図である。 ユーザインタフェースの例を示す図である。 ユーザインタフェースの例を示す図である。 情報処理システムにおいて実行される処理(情報処理方法)の例を示すフローチャートである。 変形例を示す図である。 変形例を示す図である。 ハードウェア構成の例を示すブロック図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の要素には同一の符号を付することにより重複する説明を省略する。
 以下に示す項目順序に従って本開示を説明する。
  1.実施形態
  2.変形例
  3.他の変形例
  4.ハードウェア構成の例
  5.効果の例
1.実施形態
 図1は、実施形態に係る情報処理方法に供することのできる情報処理システムの概略構成の例を示す図である。情報処理システム100では、車椅子患者の疾患に関する状況を判断するための指標が推定される。車椅子患者を、ユーザUと称し図示する。ユーザUが利用する車椅子を、車椅子Wと称し図示する。ユーザUの疾患の種類の例は、神経性疾患、筋変性疾患であり、より具体的には、パーキンソン病、筋ジストロフィー、小脳変性疾患、筋萎縮性側索硬化症(ALS)等である。
 情報処理システム100は、情報取得装置1と、情報処理装置2と、医療従事者端末3と、コミュニティメンバー端末4とを含む。これらの装置及び端末は、ネットワークNを介して通信可能に構成される。
 情報取得装置1は、ユーザUに対して設けられたセンサのセンシングデータ(検出結果)を取得する。センシングデータは、例えば時系列データである。ユーザUが車椅子患者であるので、センシングデータは、ユーザUが車椅子Wに乗車している際に取得されたセンシングデータを少なくとも含む。
 情報取得装置1は、センサ11と、ユーザ端末12とを含む。センサ11は、ユーザUの身体に取り付けられる複数のセンサ(例えばウェアラブルデバイス)を含む。センサ11が取り付けられるユーザUの身体の部位の例として、手首Ua、前腕Ub、上腕Uc、首Ud、腰Ue及び太ももUfが符号を付して図示される。
 図2は、センサ及びセンシングデータの例を示す図である。センサ11として、加速度センサ、ジャイロセンサ、位置センサ、イメージセンサ、マイク及びバイタルセンサが例示される。
 加速度センサ、ジャイロセンサ及び位置センサは、加速度、角速度及び位置を検出する。これらのセンサのセンシングデータを、加速度データ、角速度データ及び位置データと称する。
 イメージセンサは、画像を撮像する。撮像は、撮影を含む意味であってよい。画像は、映像を含む意味であってよい。イメージセンサのセンシングデータを、画像データと称する。マイクは、音を集音する。マイクのセンシングデータを、音データと称する。
 バイタルセンサは、生体情報を検出する。生体情報の例は、心拍数、脳波、心電図、血流、血圧等である。バイタルセンサのセンシングデータを、バイタルデータと称する。
 種々の公知のセンサが用いられてよい。例えば、位置センサとして、磁気センサ、GPSセンサ等が用いられてよい。また、図2に例示されるセンシングデータ以外の他のセンシングデータがあってもよい。他のセンシングデータの例は、呼吸、肺活量、脳波、筋電、温度、血糖値、重量、振動、衝撃等のセンシングデータである。
 図1に戻り、ユーザ端末12は、ユーザUが利用する端末であり、例えばタブレット端末、スマートフォン等の携帯通信端末である。一部のセンサは、ユーザ端末12が備えていてもよい。ユーザ端末12は、各センサからのセンシングデータを収集する。
 情報処理装置2は、センシングデータを受領する。医療従事者端末3は、医療従事者Dが利用する端末である。医療従事者Dの例は、医師、理学療法士等である。コミュニティメンバー端末4は、メンバーMが利用する端末である。メンバーMは、ユーザUと同じコミュニティに属するメンバーであり、例えばユーザUの家族、ユーザUと同様の疾患を抱える他の患者等である。情報処理システム100のさらなる詳細について、図3を参照して説明する。
 図3は、情報処理システムの概略構成の例を示すブロック図である。上述のように、情報取得装置1では、センサ11からのセンシングデータがユーザ端末12に送信され、収集される。
 ユーザ端末12は、通信部13と、ユーザインタフェース部14と、処理部15と、記憶部16とを含む。記憶部16に記憶される情報として、アプリケーションプログラム161が例示される。アプリケーションプログラム161は、アプリケーションを提供するために用いられるプログラム(ソフトウェア)である。
 通信部13は、他の装置等と通信する。例えば、通信部13は、センサ11からのセンシングデータ、情報処理装置2からの結果情報(後述)、及び医療従事者端末3からの介入情報(後述)を受信する。また、通信部13は、センシングデータ及びリハビリ履歴情報(後述)を、情報処理装置2に送信する。通信部13は、共有情報(後述)を、コミュニティメンバー端末4に送信する。
 ユーザインタフェース部14は、ユーザUによるユーザ端末12の操作を受け付けたり、情報をユーザUに提示したりする。具体例は、後に図11~図16を参照して説明する。
 処理部15は、ユーザ端末12の各要素を制御する制御部として機能するとともに、種々の処理を実行する。例えば、処理部15は、アプリケーションプログラム161(ソフトウェア)を実行することにより、ユーザUにアプリケーションを提供する。
 アプリケーションの例は、リハビリアプリケーションである。リハビリの例は、リハビリの内容等を示すリハビリメニューに従って行われるセルフリハビリである。リハビリの別の例は、ユーザ端末12と医療従事者端末3との通信が確立された状態(オンライン状態)で、医療従事者D(より具体的には理学療法士等)の指導等のもとで行われるオンラインリハビリである。実際に行われたリハビリのメニュー、開始時刻、終了時刻等を含む情報が、リハビリ履歴情報として、センシングデータとともに情報処理装置2に送信される。
 情報処理装置2は、情報取得装置1によって取得されたセンシングデータを受領し、処理する。情報処理装置2は、通信部21と、抽出部22と、推定部23と、記憶部24とを含む。記憶部24に記憶される情報の例として、患者情報241、特徴量推定モデル242、判断指標推定モデル243、及び、コミュニティ情報244が例示される。
 患者情報241は、ユーザUに関するの情報を含む。患者情報241の例は。ユーザUの疾患情報、通院履歴情報、リハビリ履歴情報、日常状態履歴情報等である。疾患情報は、ユーザUの疾患の種類等の情報を含む。疾患の種類の例は、先にも述べたように、神経性疾患、筋変性疾患であり、より具体的には、パーキンソン病、筋ジストロフィー、小脳変性疾患、ALS等である。通院履歴情報は、ユーザUの過去の通院に関する情報であり、例えば情報処理装置2の外部(医療従事者端末3等)から与えられる。リハビリ履歴情報は、ユーザUが行った過去のリハビリに関する情報であり、例えば説明したようにユーザ端末12から情報処理装置2に送信される。日常状態履歴情報は、ユーザUが行った日常的な動作等に関する情報であり、例えばセンシングデータや、そこから得られた特徴量の情報を含む。
 特徴量推定モデル242及び判断指標推定モデル243については後述する。コミュニティ情報244は、ユーザUが属するコミュニティに関する情報であり、メンバーM2やコミュニティメンバー端末4に関する情報を含む。
 通信部21は、他の装置等と通信する。例えば、通信部21は、ユーザ端末12からのセンシングデータ及びリハビリ履歴情報を受信する。
 抽出部22は、センシングデータから得られる特徴量を抽出(算出等)する。図4も参照して説明する。
 図4は、センシングデータから得られる特徴量の例を示す図である。特徴量として、「上肢上げ下げに関する特徴量」、「車椅子乗車に関する特徴量」、「歩行に関する特徴量」、「リハビリに関する特徴量」、「睡眠に関する特徴量」及び「他の特徴量」が例示される。各特徴量は、例えばスコア化されて表される。
 「上肢上げ下げに関する特徴量」として、「上肢上げ下げ時間」、「上肢上げ下げ回数」及び「上肢上げ下げ高さ」が例示される。これらの特徴量は、ユーザUが上肢を上げ下げしていた時間の長さ、回数及び高さを示す。
 「車椅子乗車に関する特徴量」として、「車椅子乗車時間」、「車椅子乗車距離」及び「車椅子乗車スピード」が例示される。これらの特徴量は、ユーザUが車椅子Wに乗車(して移動)していた時間の長さ、移動距離及び移動速度を示す。
 「歩行に関する特徴量」として、「歩行時間」、「歩行距離」及び「歩行スピード」が例示される。これらの特徴量は、ユーザUが歩行していた時間の長さ、移動距離及び移動速度を示す。
 抽出部22は、例えば加速度データ、角速度データ及び位置データ等に基づいて、上述の上肢上げ下げに関する特徴量、車椅子乗車に関する特徴量、及び、歩行に関する特徴量を算出する。なお、車椅子乗車時のセンシングデータと、歩行時のセンシングデータとの区別は、例えば角速度データに基づいて区別される。図5及び図6を参照して説明する。
 図5及び図6は、加速度データによる車椅子乗車時と歩行時の区別の例を模式的に示す図である。手首Ua、首Ud及び太ももUfそれぞれの加速度データが例示される。グラフの横軸は時刻を示し、グラフの縦軸は加速度センサの値を示す。この例では、加速度センサは3軸センサであり、各軸の値が3種類のグラフ線で示される。
 図5には、車椅子乗車時の加速度データ、より具体的には電動走行時の加速度データ及び手漕ぎ走行時の加速度データを含む加速度データが例示される。図6には、歩行時の加速度データ、より具体的には通常歩行時の加速度データ及び小股歩行時の加速度データを含む加速度データが例示される。理解されるように、歩行時と車椅子乗車時とでは、加速度データの挙動が異なる。例えばこのような挙動の相違に基づいて、車椅子乗車時におけるセンシングデータと、歩行時におけるセンシングデータとを区別することができる。
 当然ながら、加速度データ以外のセンシングデータによっても車椅子乗車時と歩行時の区別は可能である。
 図4に戻り、「リハビリに関する特徴量」として、「セルフリハビリの実施率」、「セルフリハビリの質」、「オンラインリハビリの質」及び「リハビリの過去データとの比較結果」が例示される。
 「セルフリハビリの実施率」は、ユーザUが行ったセルフリハビリの実施率を示す。抽出部22は、例えばリハビリ履歴情報等に基づいて、セルフリハビリの実施率を算出する。実施率の例は、提示されたリハビリメニューに対する、実際に行われたリハビリメニューの比率であり、リハビリが予定通りに進められているか否か等の判断に供することができる。
 「セルフリハビリの質」及び「オンラインリハビリの質」は、ユーザUが行ったリハビリの質を示す。抽出部22は、他の特徴量に基づいて、リハビリの質を算出してよい。リハビリの質は、例えば、上肢の上げ下げ時間/回数/高さ等のリハビリ結果に基づいて算出されるスコアである。
 「リハビリの過去データとの比較結果」は、過去のリハビリとの比較結果を示す。抽出部22は、例えば、今回行われたリハビリに係るリハビリ履歴情報に示されるデータと、過去に行われたリハビリに係るリハビリ履歴情報に示されるデータとの比較結果を、リハビリの過去データとの比較結果として算出する。例えば、過去のリハビリ履歴情報に対応するスコア(リハビリの質等)と、今回のリハビリ履歴情報に対応するスコアとの差、比率等が、比較結果として算出される。
 「睡眠に関する特徴量」として、「睡眠時間」及び「睡眠の質」が例示される。これらの特徴量は、ユーザUの睡眠時間の長さ及び睡眠の質を示す。抽出部22は、例えば画像データ、バイタルデータ等に基づいて、それらの特徴量を算出される。
 「他の特徴量」として、「バイタル安定性」、「発話時間」、「表情」及び「感情」が例示される。「バイタル安定性」は、ユーザUの心拍等の安定性を示す。抽出部22は、バイタルデータに基づいて、バイタル安定性を算出する。「発話時間」は、ユーザUが発話していた時間の長さを示す。抽出部22は、例えば画像データ及び音データ等に基づいて、発話時間を算出する。「表情」及び「感情」は、ユーザUの表情及び感情を示す。抽出部22は、例えば画像データ等に基づいて、それらの特徴量を算出する。
 上記の特徴量に限らず、センシングデータから得ることのできるさまざまな特徴量が抽出されてよい。
 図3に戻り、抽出部22は、特徴量推定モデル242を用いて特徴量を抽出してもよい。特徴量推定モデル242は、センシングデータに対応する入力データが入力されると、特徴量に対応する出力データを出力するように、機械学習によって生成された学習済みモデル(推論モデル)である。機械学習を適用可能な種々の公知の構成や手法、例えばニューラルネットワーク、ロジスティクス回帰分析、決定木、線形回帰、サポートベクターマシン等が用いられてよい。
 抽出部22は、入力データを、特徴量推定モデル242に入力する。特徴量推定モデル242は、入力データが入力されたことに応じて、出力データを出力する。抽出部22は、特徴量推定モデル242の出力データを取得することで、特徴量を抽出する。
 特徴量推定モデル242の生成について、リハビリの質を例に挙げて説明する。センシングデータを準備する。また、理学療法士等によってスコア付けされたリハビリのスコアを、教師データとして準備する。準備したセンシングデータ及び教師データを訓練データとして用いる機械学習を行うことにより、特徴量推定モデル242を生成する。他の特徴量についても同様である。
 推定部23は、センシングデータに基づいて、ユーザUの疾患に関する状況を判断するための指標である判断指標を推定する。図7も参照して説明する。
 図7は、判断指標の例を示す図である。判断指標として、「疾患進行度」及び「リハビリ有効性」が例示される。
 判断指標「疾患進行度」は、疾患の進行の程度を示す。疾患進行度として、「上肢運動機能障害度分類スコア」、「DMD機能障害度」、「PUL」及び「STEF」が例示される。これらは上肢機能スコアとして用いることのできる公知の判断指標であり、以下では端的に説明する。
 上肢運動機能障害度分類スコアは、筋ジストロフィー患者の上肢運動機能評価に用いられる判断指標であり、疾患の進行度を9段階で特定する。DMD機能障害度は、デュシェンヌ型筋ジストロフィー(DMD:Duchenne muscular dystrophy)患者の上肢運動機能評価に用いられる判断指標であり、疾患の進行度を10段階で特定する。
 PUL(Performance of the Upper Limb)は、DMD患者の全体的な進行や重症度を特徴付ける総合スコアと、肩(近位)、中位及び遠位を評価するサブスコアによって、疾患の進行度を特定する。STEF(Simple Test for Evaluating Hand Function)は、簡易上肢機能検査の評価結果であり、10種類の検査(サブテスト)のスコアによって、疾患の進行度を特定する。
 判断指標「リハビリ有効性」は、行われたリハビリの有効性を示す。リハビリの有効性として、行われたリハビリが有効である確率を示す「有効確率」が例示される。パーキンソン病を例に挙げて説明すると、頸部(ユーザUの首Udに相当)の体操等、さまざまなリハビリメニューが知られている。例えばそのような体操等のスコア評価(例えば5段階評価等)に基づいて、有効確率が算出される。リハビリ後のスコアがリハビリ前のスコアよりも高くなるにつれて、有効確率が高くなるように、有効確率が算出される。
 上記の判断指標に限らず、ユーザUの疾患に関するさまざまな判断指標が推定されてよい。
 図3に戻り、例えば、推定部23は、抽出部22によって抽出された特徴量に基づいて、判断指標を推定する。また、推定部23は、リハビリに関する特徴量と、リハビリ前後の疾患進行度と、患者情報241とに基づいて、リハビリ有効性を推定する。これらの推定には、例えば判断指標推定モデル243が用いられる。先に説明した特徴量推定モデル242と同様に、判断指標推定モデル243にも、機械学習を適用可能な種々の公知の構成や手法が用いられてよい。
 図8は、判断指標推定モデルの例を示す図である。この例では、判断指標推定モデル243は、進行度推定モデル243aと、有効性推定モデル243bとを含む。順に説明する。
 進行度推定モデル243aの入力データは、特徴量に対応するデータである。進行度推定モデル243aの出力データは、疾患進行度に対応するデータである。推定部23は、入力データを、進行度推定モデル243aに入力する。進行度推定モデル243aは、入力データが入力されたことに応じて、出力データを出力する。推定部23は、進行度推定モデル243aの出力データを取得することで、疾患進行度を推定する。
 図9は、進行度推定モデルの生成手順の例を模式的に示す図である。センシングデータから抽出した特徴量を準備する(手順P1、手順P2)。センシングデータの例は、角速度データ、角速度データ、位置データ等である。特徴量の例は、上肢上げ下げ時間/回数/高さ、車椅子乗車時間/回数/高さ、歩行時間/回数/高さ等である。
 特徴量に対応する疾患進行度を、教師データとして準備する(手順P3)。準備した特徴量及び疾患進行度を訓練データとして用いる機械学習を行うことにより、進行度推定モデル243aを生成する(手順P4、手順P5)。
 図8に戻り、有効性推定モデル243bの入力データは、リハビリに関する特徴量(リハビリの質、実施率等)、リハビリ前後の疾患進行度、及び、患者情報に対応するデータである。有効性推定モデル243bの出力データは、リハビリ有効性に対応するデータである。推定部23は、入力データを、有効性推定モデル243bに入力する。有効性推定モデル243bは、入力データが入力されたことに応じて、出力データを出力する。推定部23は、有効性推定モデル243bの出力データを取得することで、リハビリ有効性を推定する。
 図10は、有効性推定モデルの生成手順の例を模式的に示す図である。リハビリ中のセンシングデータやリハビリ履歴情報から抽出した特徴量を準備する(手順P11~手順P13)。センシングデータの例は、加速度データ、角速度データ、位置データ、バイタルデータ、画像データ等であり、リハビリ中のユーザUのさまざまな動きの量(活動量)が含まれる。センシングデータから抽出された特徴量の例は、リハビリの質、リハビリ前後の上肢の上げ下げ時間/回数/高さ、リハビリ前後の車椅子乗車時間/距離/スピード等である。リハビリ履歴情報から抽出された特徴量の例は、リハビリ実施率等である。
 特徴量のうち、例えばリハビリ前後の上肢上げ下げ時間/回数/高さ、リハビリ前後の車椅子乗車時間/距離/スピード等に基づいて、リハビリ前後の疾患進行度が推定される(手順P14)。推定には進行度推定モデル243aが用いられてよい。
 リハビリの質、リハビリ前後の疾患進行度、リハビリの実施率及び患者情報(疾患情報等)に対応するリハビリ有効性を、教師データとして準備する(手順P15)。準備したリハビリの質、リハビリ前後の疾患進行度、リハビリの実施率、患者情報及びリハビリ有効性を訓練データとして用いる機械学習を行うことにより、有効性推定モデル243bを生成する(手順P16、手順P17)。
 図3に戻り、通信部21は、情報処理装置2で得られた情報(以下、「結果情報」ともいう。)を、ユーザ端末12、医療従事者端末3及びコミュニティメンバー端末4に送信する。結果情報は、少なくとも判断指標を含む。結果情報は、特徴量、センシングデータ、リハビリ履歴情報も含んでよい。疾患進行度やリハビリ有効性に応じた推奨リハビリメニュー等の情報も、結果情報に含まれてよい。例えば、リハビリ有効性が認められにくい場合には、疾患の種別や進行度に合わせた新たなリハビリメニューが推奨される。
 医療従事者端末3は、通信部31と、ユーザインタフェース部32と、記憶部33とを含む。記憶部33に記憶される情報として、医療情報331が例示される。医療情報331は、例えばユーザUのカルテ情報等を含み、医療従事者DによるユーザUの診断やオンラインリハビリに用いられる。
 通信部31は、他の装置等と通信する。例えば、通信部31は、情報処理装置2からの結果情報を受信する。また、通信部31は、介入情報(後述)をユーザ端末12に送信する。
 ユーザインタフェース部32は、医療従事者Dによる医療従事者端末3の操作を受け付けたり、情報を医療従事者Dに提示したりする。例えば、ユーザインタフェース部32は、結果情報を提示する。ユーザUの疾患の進行度やリハビリ有効性等のモニタリングが可能になる。上述の推奨リハビリメニューの確認、例えば疾患進行度に応じたリハビリメニューの維持、変更等の確認も可能になる。
 医療従事者Dは、モニタリング結果に応じて、ユーザUに介入する。介入の例は、日常生活についての指導やアドバイス、リハビリについての指導やアドバイス、リハビリメニューのカスタマイズ、オーバーユーズの制限、励ましやモチベーション維持のためのメッセージ(声掛け)、カウンセリングの手配等である。介入に関する情報は、介入情報として、ユーザ端末12に送信される。リハビリ手法の改善やユーザUのモチベーション向上等につながる。
 コミュニティメンバー端末4は、通信部41と、ユーザインタフェース部42とを含む。通信部41は、他の装置等と通信する。例えば、通信部41は、情報処理装置2からの結果情報、共有情報(後述)、及び医療従事者端末3からの介入情報を受信する。
 ユーザインタフェース部42は、メンバーMによるコミュニティメンバー端末4の操作を受け付けたり、情報をメンバーMに提示したりする。例えば、ユーザインタフェース部42は、結果情報を提示する。リハビリの継続率、達成度、リハビリが有効であった場合のリハビリメニュー、日常状態に関する情報等が、ユーザUとメンバーMとの間で共有され得る。
 再びユーザ端末12について説明する。ユーザ端末12の通信部13は、情報処理装置2からの結果情報及び医療従事者端末3からの介入情報を受信する。ユーザインタフェース部14は、結果情報や介入情報を提示する。図11~図16も参照して説明する。
 図11~図16は、ユーザインタフェースの例を示す図である。ユーザ端末12の表示画面は、ユーザインタフェース部14の一例である。
 結果情報に含まれる判断指標が表示される。判断指標が、「進行度XX」及び「有効性YY」として模式的に図示される。「進行度XX」及び「有効性YY」は、ユーザUの疾患の進行度及びリハビリ有効性を示す。これらの判断指標が可視化され、ユーザUにフィードバックされる。ユーザUは、自身の疾患に関する状況の判断を容易に行うことができる。ユーザUのモチベーションの維持、向上等にもつながる。
 結果情報に含まれる特徴量も表示される。この例では、アイコン「週」、「月」及び「年」のうちの「週」が選択され、およそ1週間における特徴量が1日ごとに表示される。特徴量の推移を把握したり、今後の特徴量を予測したりすることができる。画面の下部には、左から順に、車椅子アイコン、リハビリアイコン、睡眠アイコン、服薬アイコン及びチャットアイコンが例示される。
 図11に示される例では、車椅子アイコンが選択され、車椅子乗車に関する特徴量がグラフ線及びプロットで表示される。特徴量の例は、先に図4を参照して説明した車椅子乗車時間、車椅子乗車距離、車椅子乗車スピード等である。
 図12に示される例では、リハビリアイコンが選択され、リハビリに関する特徴量がグラフ線及びプロットで表示される。特徴量の例は、先に図4を参照して説明したセルフリハビリの実施率、セルフリハビリの質、オンラインリハビリの質等である。
 図13に示される例では、睡眠アイコンが選択され、睡眠に関する特徴量がプロットで表示される。特徴量の例は、先に図4を参照して説明した睡眠時間、睡眠の質等である。
 図示されないが、服薬アイコンが選択されると、服薬予定、服薬履歴等の情報が表示される。
 図14に示される例では、表示されたリハビリに関する特徴量のうち、特定の日の特徴量が選択される。図15に示されるように、選択された日に対応する詳細情報が表示される。この例では、リハビリの各メニュー及びスコア、さらには総合評価のスコアが表示される。この状態でアイコン「結果を共有する」が選択されると、表示されている情報が、前述の共有情報(図3)としてユーザ端末12からコミュニティメンバー端末4に送信され、メンバーMによって共有される。
 図16に示される例では、チャットアイコンが選択され、チャットボックスが表示される。アイコン「コミュニティ」を選択することで、コミュニティメンバー端末4を利用するメンバーMとのチャットが可能になる。アイコン「担当医」を選択することで、医療従事者端末3を利用する医療従事者Dとのチャットが可能になる。前述の介入情報は、例えば医療従事者Dとのチャットに表示される。チャットには、ユーザU、医療従事者D及びメンバーMのアバタが用いられてもよい。
 上記のユーザインタフェースに限らず、結果情報、介入情報等を提示することが可能なさまざまなユーザインタフェースが用いられてよい。同様にして、医療従事者端末3のユーザインタフェース部32及びコミュニティメンバー端末4のユーザインタフェース部42によっても、結果情報等が提示される。
 図17は、情報処理システムにおいて実行される処理(情報処理方法)の例を示すフローチャートである。これまで説明した内容と重複する内容については、適宜説明を省略する。
 ステップS1において、センシングデータ等が受領される。情報取得装置1は、センシングデータを取得する。情報処理装置2は、情報取得装置1から、センシングデータやリハビリ履歴情報を受領(受信)する。
 ステップS2において、特徴量が抽出される。情報処理装置2の抽出部22は、先のステップS1で受領されたセンシングデータから、特徴量を抽出する。
 ステップS3において、判断指標が推定される。情報処理装置2の推定部23は、先のステップS2で抽出された特徴量等に基づいて、判断指標、例えばユーザUの疾患の進行度やリハビリ有効性を推定する。
 ステップS4において、結果情報が出力される。情報処理装置2の通信部21は、先のステップS2で抽出された特徴量、及び、先のステップS3で推定された判断指標等を含む結果情報を、ユーザ端末12、さらには医療従事者端末3やコミュニティメンバー端末4に送信する。各端末において判断指標が可視化表示等される。
 例えば以上のようにして、ユーザUの疾患進行度やリハビリ有効性等の判断指標が推定される。判断指標が可視化表示等されることにより、ユーザUの疾患に関する状況を容易に把握できるようになる。
2.変形例
 開示される技術は、上記実施形態に限定されない。いくつかの変形例について述べる。
 図18及び図19は、変形例を示す図である。図18に示される例では、結果情報が、保険料や報奨の算出(特定等)に活用される。生保/健保端末5は、保険会社、健康保険会社等が利用する端末である。情報処理装置2の通信部21は、結果情報を、生保/健保端末5に送信する。
 生保/健保端末5は、通信部51と、解析部52と、記憶部53とを含む。記憶部53に記憶される情報として、顧客/従業員情報531が例示される。顧客/従業員情報531は、ユーザUの生命保険や健康保険等に関する情報を含む。
 通信部51は、情報処理装置2からの結果情報を受信する。解析部52は、結果情報(例えば判断指標)を解析し、保険料や報奨を特定する。特定には、生命保険会社や健康保険会社の従業員等の作業、判断等が介在してもよい。保険料の値下げや限定プランへの変更等も行われてよい。通信部51は、特定された保険料/報奨情報を、ユーザ端末12に送信する。保険料/報奨情報がユーザ端末12のユーザインタフェース部14によって提示される。
 図19に示される例では、結果情報は、匿名化され、製品やサービスの推薦に活用されたり、データ解析に活用されたりする。情報処理装置2は、加工部25及び推薦部26をさらに含む。記憶部24には、匿名加工情報245及び推薦情報246も記憶される。
 加工部25は、結果情報を匿名化することによって、匿名加工情報245を生成する。匿名加工情報245は、匿名化された個人情報と、結果情報とを対応付けて記述する。
 製品/サービス提供者端末6は、製品/サービスを提供する企業等が利用する端末である。製品の例は、車椅子、リハビリ機器、健康食品及び健康器具等である。サービスの例は、ユーザ端末12において実行可能な健康アプリケーション等である。
 製品/サービス提供者端末6は、通信部61と、ユーザインタフェース部62とを含む。例えばユーザインタフェース部62を介して、匿名化された結果情報と製品及びサービスとを対応付ける製品/サービス情報が入力されたり生成されたりする。通信部61は、製品/サービス情報を、情報処理装置2に送信する。
 情報処理装置2の通信部21は、製品/サービス提供者端末6からの製品/サービス情報を受信する。情報処理装置2の推薦部26は、製品/サービス提供者端末6からの製品/サービス情報に基づいて、ユーザUに推薦すべき製品やサービスの情報を含む推薦情報246を生成する。通信部21は、推薦情報246をユーザ端末12及びコミュニティメンバー端末4に送信する。推薦情報246がユーザ端末12のユーザインタフェース部14及びコミュニティメンバー端末4のユーザインタフェース部42によって提示される。
 また、情報処理装置2の通信部21は、匿名加工情報245を分析端末7に送信する。分析端末7は、例えば上述の製品/サービスを提供する企業、臨床開発を行う製薬企業等が利用する端末である。分析端末7は、通信部71と、解析部72と、ユーザインタフェース部73とを含む。
 通信部71は、情報処理装置2からの匿名加工情報を受信する。解析部72は、匿名加工情報に基づいて、データ解析(データ分析)を行う。解析には、企業の従業員等の作業、判断等が介在してもよい。ユーザインタフェース部73は、データ解析に関する情報の提示等を行う。解析の例は、健康食品、健康器具等の製品のユーザ層の分析、臨床開発のためのデータ分析等である。
 上述の図18及び図19に例示される情報処理装置2、生保/健保端末5、製品/サービス提供者端末6及び分析端末7も、情報処理システム100の構成要素であってよい。
3.他の変形例
 情報処理装置2の機能は、情報処理システム100内の装置や端末に分散して設けられてよい。例えば、情報処理装置2の機能の少なくとも一部が、ユーザ端末12に実装されてもよい。その場合には、ユーザ端末12及び情報処理装置2が、実施形態に係る情報処理装置に対応する。情報処理装置2の機能の全部がユーザ端末12に実装されてもよい。その場合には、ユーザ端末12が、実施形態に係る情報処理装置に対応する。
 判断指標推定モデル243を用いずに判断指標が推定されてもよい。例えば、センシングデータや特徴量から判断指標を推定するための算出式が用いられたり、データテーブルが参照されたりしてよい。
 特徴量抽出を経由せずに判断指標が推定されてもよい。例えば、判断指標推定モデル243は、センシングデータに対応するデータが入力されると、判断指標に対応するデータを出力するように構成されてもよい。その場合、推定部23は、センシングデータに対応する入力データを判断指標推定モデル243に入力するだけで、判断指標を推定することができる。
4.ハードウェア構成の例
 図20は、ハードウェア構成の例を示すブロック図である。以下では、情報処理装置2を例に挙げて説明する。ユーザ端末12、医療従事者端末3及びコミュニティメンバー端末4についても同様の説明が可能である。情報処理装置2による各種処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
 図20に示されるように、情報処理装置2は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置2は、ブリッジ904、外部バス904b、インターフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911、通信装置913、及びセンサ915を備える。情報処理装置2は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
 CPU901は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置2内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、情報処理装置2の抽出部22及び推定部23等を具現し得る。
 CPU901、ROM902及びRAM903は、CPUバス等を含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス904bに接続されている。なお、ホストバス904a、ブリッジ904及び外部バス904bは、お互いから分離した構成を必ずしも有する必要はなく、単一の構成(例えば1つのバス)において実装されてもよい。
 入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、実施者によって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置2の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いて実施者により入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路等を含んでいてもよい。実施者は、この入力装置906を操作することにより、情報処理装置2に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置907は、取得した情報を実施者に対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音響出力装置や、プリンタ装置等がある。
 ストレージ装置908は、データ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、情報処理装置2の記憶部24等を具現し得る。
 ドライブ909は、記憶媒体用リーダライタであり、情報処理装置2に内蔵、或いは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
 接続ポート911は、外部機器と接続されるインターフェースであって、例えばUSB(Universal Serial Bus)等によりデータ伝送可能な外部機器との接続口である。
 通信装置913は、例えば、ネットワーク920(例えば図1のネットワークNに相当)に接続するための通信デバイス等で形成された通信インターフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、情報処理装置2の通信部21等を具現し得る。
 センサ915は、センサ11に含まれるセンサの少なくとも一部のセンサを含んでよい。
 なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線又は無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網等の公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)等を含んでもよい。また、ネットワーク920は、IP-VPN(Internet Protocol - Virtual Private Network)等の専用回線網を含んでもよい。
 以上、情報処理装置2の機能を実現可能なハードウェア構成例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、本開示を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 なお、上記のような情報処理装置2の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等を含む。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 本明細書で開示されている実施形態及び変形例は全ての点で例示に過ぎず限定的には解釈されないことに留意されるべきである。上述の実施形態及び変形例は、添付の特許請求の範囲及びその趣旨を逸脱することなく、様々な形態での省略、置換及び変更が可能である。例えば上述の実施形態及び変形例が全体的に又は部分的に組み合わされてもよく、また上述以外の実施形態が上述の実施形態又は変形例と組み合わされてもよい。また、本明細書に記載された本開示の効果は例示に過ぎず、その他の効果がもたらされてもよい。
 上述の技術的思想を具現化する技術的カテゴリは限定されない。例えば上述の装置を製造する方法或いは使用する方法に含まれる1又は複数の手順(ステップ)をコンピュータに実行させるためのコンピュータプログラムによって、上述の技術的思想が具現化されてもよい。またそのようなコンピュータプログラムが記録されたコンピュータが読み取り可能な非一時的(non-transitory)な記録媒体によって、上述の技術的思想が具現化されてもよい。
5.効果の例
 以上で説明した技術は、例えば次のように特定される。開示される技術の1つは、情報処理方法である。図1~図10及び図17等を参照して説明したように、情報処理方法では、情報処理装置2が、車椅子患者であるユーザUに対して設けられたセンサ11のセンシングデータを受領し(ステップS1)、センシングデータに基づいて、ユーザUの疾患に関する判断指標を推定する(ステップS3)。
 上記の情報処理方法によれば、車椅子患者であるユーザUの疾患に関する判断指標が推定される。従って、車椅子患者であるユーザUの疾患に関する状況を容易に把握できるようになる。
 図1及び図2等を参照して説明したように、センシングデータは、ユーザUが車椅子Wに乗車している際に取得されたセンシングデータを少なくとも含んでよい。例えばこのようなセンシングデータに基づいて、車椅子患者であるユーザUの疾患に関する判断指標を推定することができる。
 図7等を参照して説明したように、判断指標は、疾患進行度及びリハビリ有効性の少なくとも一方を含んでよい。疾患進行度は、上肢機能スコア(例えば上肢運動機能障害度分類スコア、DMD機能障害度、PUL、STEF等)を含んでよい。リハビリ有効性は、行われたリハビリが有効である確率を示す有効確率を含んでよい。例えばこのような判断指標を推定することで、ユーザUの疾患に関する状況を容易に把握できるようになる。
 図3~図10等を参照して説明したように、センシングデータから得られる特徴量を抽出し(ステップS2)、抽出した特徴量に基づいて、判断指標を推定してよい(ステップS3)。例えばこのようにして、判断指標を推定することができる。判断指標だけでなく、その推定のもととなった特徴量も得ることができる。
 図4等を参照して説明したように、特徴量は、車椅子乗車に関する特徴量であってよい。例えばこのような特徴量を抽出することで、車椅子患者であるユーザUの疾患に関する判断指標を推定することができる。
 図4及び図7等を参照して説明したように、特徴量は、上肢上げ下げに関する特徴量、車椅子乗車に関する特徴量、及び、歩行に関する特徴量を含み、判断指標は、疾患進行度であってよい。例えばこのような特徴量に基づいて、疾患進行度を推定することができる。
 図3、図7及び図10等を参照して説明したように、特徴量は、リハビリに関する特徴量、リハビリ前後の疾患進行度、及び、患者情報241を含み、判断指標は、リハビリ有効性であってよい。例えばこのようにして、リハビリ有効性を推定することができる。
 図3及び図17等を参照して説明したように、判断指標を含む結果情報を、ユーザUが利用するユーザ端末12に送信してよい(ステップS4)。これにより、結果情報をユーザUにフィードバックすることができる。ユーザUは、自身の疾患に関する状況を容易に把握できる。モチベーションの維持、向上等にもつながる。
 図3及び図17等を参照して説明したように、判断指標を含む結果情報を、医療従事者Dが利用する医療従事者端末3に送信してよい(ステップS4)。これにより、医療従事者Dとの間で結果情報を共有することができる。例えば結果情報に応じた医療従事者DによるユーザUへの介入等も可能になる。
 図2等を参照して説明したように、センシングデータは、加速度データ、角速度データ、位置データ、画像データ、音データ及びバイタルデータの少なくとも1つを含んでよい。例えばこのようなセンシングデータに基づいて、判断指標を推定することができる。
 図1~図10等を参照して説明した情報処理システム100も、開示される技術の1つである。情報処理システム100は、車椅子患者であるユーザUに対して設けられたセンサ11のセンシングデータを取得する情報取得装置1と、情報取得装置1によって取得されたセンシングデータに基づいて、ユーザUの疾患に関する判断指標を推定する情報処理装置2と、を備える。このような情報処理システム100によっても、これまで説明したように、車椅子患者であるユーザUの疾患に関する状況を容易に把握できるようになる。
 図1、図3及び図11~図16等を参照して説明したように、情報処理システム100は、情報処理装置2によって推定された判断指標を含む結果情報をユーザUに提示するユーザ端末12をさらに備えてよい。これにより、結果情報をユーザUにフィードバックすることができる。ユーザUは、自身の疾患に関する状況を容易に把握できる。モチベーションの維持、向上等にもつながる。
 図1及び図3等を参照して説明した情報処理装置2も、開示される技術の1つである。情報処理装置2は、車椅子患者であるユーザUに対して設けられたセンサ11のセンシングデータに基づいて、ユーザUの疾患に関する判断指標を推定する推定部23を備える。このような情報処理装置2によっても、これまで説明したように、車椅子患者であるユーザUの疾患に関する状況を容易に把握できるようになる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 情報処理装置が、
 車椅子患者であるユーザに対して設けられたセンサのセンシングデータを受領し、
 前記センシングデータに基づいて、前記ユーザの疾患に関する判断指標を推定する、
 情報処理方法。
(2)
 前記センシングデータは、前記ユーザが車椅子に乗車している際に取得されたセンシングデータを少なくとも含む、
 (1)に記載の情報処理方法。
(3)
 前記判断指標は、疾患進行度及びリハビリ有効性の少なくとも一方を含む、
 (1)又は(2)に記載の情報処理方法。
(4)
 前記疾患進行度は、上肢機能スコアを含む、
 (3)に記載の情報処理方法。
(5)
 前記リハビリ有効性は、行われたリハビリが有効である確率を示す有効確率を含む、
 (3)又は(4)に記載の情報処理方法。
(6)
 前記センシングデータから得られる特徴量を抽出し、抽出した特徴量に基づいて、前記判断指標を推定する、
 (1)~(5)のいずれかに記載の情報処理方法。
(7)
 前記特徴量は、車椅子乗車に関する特徴量である、
 (6)に記載の情報処理方法。
(8)
 前記特徴量は、上肢上げ下げに関する特徴量、車椅子乗車に関する特徴量、及び、歩行に関する特徴量を含み、
 前記判断指標は、疾患進行度である、
 (6)に記載の情報処理方法。
(9)
 前記特徴量は、リハビリに関する特徴量、リハビリ前後の疾患進行度、及び、患者情報を含み、
 前記判断指標は、リハビリ有効性である、
 (6)に記載の情報処理方法。
(10)
 前記判断指標を含む結果情報を、前記ユーザが利用する端末に送信する、
 (1)~(9)のいずれかに記載の情報処理方法。
(11)
 前記判断指標を含む結果情報を、医療従事者が利用する端末に送信する、
 (1)~(10)のいずれかに記載の情報処理方法。
(12)
 前記センシングデータは、加速度データ、角速度データ、位置データ、画像データ、音データ及びバイタルデータの少なくとも1つを含む、
 (1)~(11)のいずれかに記載の情報処理方法。
(13)
 車椅子患者であるユーザに対して設けられたセンサのセンシングデータを取得する情報取得装置と、
 前記情報取得装置によって取得されたセンシングデータに基づいて、前記ユーザの疾患に関する判断指標を推定する情報処理装置と、
 を備える、
 情報処理システム。
(14)
 前記情報処理装置によって推定された判断指標を含む結果情報を前記ユーザに提示するユーザ端末をさらに備える、
 (13)に記載の情報処理システム。
(15)
 車椅子患者であるユーザに対して設けられたセンサのセンシングデータに基づいて、前記ユーザの疾患に関する判断指標を推定する推定部を備える、
 情報処理装置。
   1 情報取得装置
  11 センサ
  12 ユーザ端末
  13 通信部
  14 ユーザインタフェース部
  15 処理部
  16 記憶部
 161 アプリケーションプログラム
   2 情報処理装置
  21 通信部
  22 抽出部
  23 推定部
  24 記憶部
 241 患者情報
 242 特徴量推定モデル
 243 判断指標推定モデル
243a 進行度推定モデル
243b 有効性推定モデル
 244 コミュニティ情報
 245 匿名加工情報
 246 推薦情報
  25 加工部
  26 推薦部
   3 医療従事者端末
  31 通信部
  32 ユーザインタフェース部
  33 記憶部
 331 医療情報
   4 コミュニティメンバー端末
  41 通信部
  42 ユーザインタフェース部
   5 生保/健保端末
  51 通信部
  52 解析部
  53 記憶部
 531 顧客/従業員情報
   6 製品/サービス提供者端末
  61 通信部
  62 ユーザインタフェース部
   7 分析端末
  71 通信部
  72 解析部
  73 ユーザインタフェース部

Claims (15)

  1.  情報処理装置が、
     車椅子患者であるユーザに対して設けられたセンサのセンシングデータを受領し、
     前記センシングデータに基づいて、前記ユーザの疾患に関する判断指標を推定する、
     情報処理方法。
  2.  前記センシングデータは、前記ユーザが車椅子に乗車している際に取得されたセンシングデータを少なくとも含む、
     請求項1に記載の情報処理方法。
  3.  前記判断指標は、疾患進行度及びリハビリ有効性の少なくとも一方を含む、
     請求項1に記載の情報処理方法。
  4.  前記疾患進行度は、上肢機能スコアを含む、
     請求項3に記載の情報処理方法。
  5.  前記リハビリ有効性は、行われたリハビリが有効である確率を示す有効確率を含む、
     請求項3に記載の情報処理方法。
  6.  前記センシングデータから得られる特徴量を抽出し、抽出した特徴量に基づいて、前記判断指標を推定する、
     請求項1に記載の情報処理方法。
  7.  前記特徴量は、車椅子乗車に関する特徴量である、
     請求項6に記載の情報処理方法。
  8.  前記特徴量は、上肢上げ下げに関する特徴量、車椅子乗車に関する特徴量、及び、歩行に関する特徴量を含み、
     前記判断指標は、疾患進行度である、
     請求項6に記載の情報処理方法。
  9.  前記特徴量は、リハビリに関する特徴量、リハビリ前後の疾患進行度、及び、患者情報を含み、
     前記判断指標は、リハビリ有効性である、
     請求項6に記載の情報処理方法。
  10.  前記判断指標を含む結果情報を、前記ユーザが利用する端末に送信する、
     請求項1に記載の情報処理方法。
  11.  前記判断指標を含む結果情報を、医療従事者が利用する端末に送信する、
     請求項1に記載の情報処理方法。
  12.  前記センシングデータは、加速度データ、角速度データ、位置データ、画像データ、音データ及びバイタルデータの少なくとも1つを含む、
     請求項1に記載の情報処理方法。
  13.  車椅子患者であるユーザに対して設けられたセンサのセンシングデータを取得する情報取得装置と、
     前記情報取得装置によって取得されたセンシングデータに基づいて、前記ユーザの疾患に関する判断指標を推定する情報処理装置と、
     を備える、
     情報処理システム。
  14.  前記情報処理装置によって推定された判断指標を含む結果情報を前記ユーザに提示するユーザ端末をさらに備える、
     請求項13に記載の情報処理システム。
  15.  車椅子患者であるユーザに対して設けられたセンサのセンシングデータに基づいて、前記ユーザの疾患に関する判断指標を推定する推定部を備える、
     情報処理装置。
PCT/JP2022/033635 2021-10-05 2022-09-08 情報処理方法、情報処理システム及び情報処理装置 WO2023058391A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021163863 2021-10-05
JP2021-163863 2021-10-05

Publications (1)

Publication Number Publication Date
WO2023058391A1 true WO2023058391A1 (ja) 2023-04-13

Family

ID=85804104

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/033635 WO2023058391A1 (ja) 2021-10-05 2022-09-08 情報処理方法、情報処理システム及び情報処理装置

Country Status (1)

Country Link
WO (1) WO2023058391A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018147023A (ja) * 2017-03-01 2018-09-20 ヤフー株式会社 提供装置、提供方法、及び提供プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018147023A (ja) * 2017-03-01 2018-09-20 ヤフー株式会社 提供装置、提供方法、及び提供プログラム

Similar Documents

Publication Publication Date Title
KR102116664B1 (ko) 온라인 기반의 건강 관리 방법 및 장치
KR102020598B1 (ko) 생체신호 센서 기반 정신질환 진단 및 치유를 위한 바이오피드백 시스템
JP5584413B2 (ja) 患者監視システム及び監視する方法
US7364544B2 (en) System for improving vascular systems in humans using biofeedback and network data communication
US20190392952A1 (en) Computer-implemented methods, systems, and computer-readable media for diagnosing a condition
US20140276095A1 (en) System and method for enhanced goniometry
Rosso et al. CHRONIOUS: an open, ubiquitous and adaptive chronic disease management platform for chronic obstructive pulmonary disease (COPD), chronic kidney disease (CKD) and renal insufficiency
US20180211730A1 (en) Health information (data) medical collection, processing and feedback continuum systems and methods
WO2019071166A1 (en) MULTIDISCIPLINARY CLINICAL EVALUATION IN VIRTUAL OR INCREASED REALITY
JP2004157941A (ja) ホームケア・システムおよびそのサーバ,ならびにホームケア・システムに用いられるおもちゃ装置
KR101890513B1 (ko) 수전증 진단 장치 및 방법
JP2022017204A (ja) 神経疾患補助検査方法及びそのシステム
WO2024024317A1 (ja) コンピュータプログラム、情報処理装置、情報処理方法及び学習モデル生成方法
WO2023058391A1 (ja) 情報処理方法、情報処理システム及び情報処理装置
EP4124287A1 (en) Regularized multiple-input pain assessment and trend
Xu et al. Total health: Toward continuous personal monitoring
WO2022044130A1 (ja) 肺音分析システム
TW202217847A (zh) 神經肌肉疾病評估系統
CN113876302A (zh) 一种基于智能机器人的中医调治系统
Ferrara et al. Infrastructure for data management and user centered rehabilitation in Rehab@ Home project
CN205942696U (zh) 大数据分析的健康监测与医理研究系统
WO2023228789A1 (ja) 情報処理システムおよび情報処理方法、ならびに、情報処理装置およびユーザ端末
WO2023136175A1 (ja) 情報取得装置及び情報処理システム
US20240115213A1 (en) Diagnosing and tracking stroke with sensor-based assessments of neurological deficits
WO2021255632A1 (ja) 情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22878262

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22878262

Country of ref document: EP

Kind code of ref document: A1