WO2019008657A1 - 情報処理装置、情報処理プログラム及び情報処理方法 - Google Patents

情報処理装置、情報処理プログラム及び情報処理方法 Download PDF

Info

Publication number
WO2019008657A1
WO2019008657A1 PCT/JP2017/024453 JP2017024453W WO2019008657A1 WO 2019008657 A1 WO2019008657 A1 WO 2019008657A1 JP 2017024453 W JP2017024453 W JP 2017024453W WO 2019008657 A1 WO2019008657 A1 WO 2019008657A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
motion
user
rehabilitation
patient
Prior art date
Application number
PCT/JP2017/024453
Other languages
English (en)
French (fr)
Inventor
拓郎 大谷
義典 柳沼
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to EP17917162.4A priority Critical patent/EP3649940A4/en
Priority to JP2019528224A priority patent/JP7001095B2/ja
Priority to PCT/JP2017/024453 priority patent/WO2019008657A1/ja
Publication of WO2019008657A1 publication Critical patent/WO2019008657A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • A61B5/1114Tracking parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1124Determining motor skills
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to an information processing apparatus, an information processing program, and an information processing method.
  • Patent Document 1 There is known a goal achievement degree evaluation apparatus which predicts an improvement which is appropriate and reasonable for each training subject who differs in symptoms, age and gender, and sets a target value (see, for example, Patent Document 1).
  • Patent Document 1 a patient group in which a plurality of patients are classified according to symptoms, age, sex, and disability severity is created, and motion information of users and patient groups is analyzed. At that time, the user's rehabilitation target motion information is an average value of motion information of the same patient group as the user.
  • Patent Document 1 when using the average value of the motion information of a plurality of patients grouped by attributes such as case, sex, age, and severity of disability as the target motion information of the user, the symptom deviates from the average value That is, there is a problem that the rehabilitation effect is reduced, not suitable for patients with symptoms whose average value does not become the target motion. Moreover, in patent document 1, since the classification item to group is thin and it is difficult to collect the number of samples suitable for a user, the reliability of an average value is low.
  • the present invention aims to provide users with appropriate rehabilitation information.
  • an operation extraction unit that extracts user operation information in which the user's operation has been quantified, and operation information of a plurality of rehabilitation target people in which the operations of a plurality of rehabilitation target persons are quantified.
  • a recording unit that records information in association with motion evaluation information
  • the user's motion information and motion evaluation information are classified based on the rehabilitation target person classified into the physical constitution indicated by the user's physical information. Selection of selecting motion information to be the target of the user based on the estimation unit that estimates recovery transition information from the motion information and motion evaluation information of a specific rehabilitation target person corresponding to motion information, and the estimated recovery transition information
  • An information processing apparatus comprising:
  • the present invention can provide users with appropriate rehab information.
  • FIG. 7 is a view for explaining data of each table at the time of recovery transition information selection processing according to the embodiment;
  • FIG. 7 is a view for explaining data of each table at the time of recovery transition information selection processing according to the embodiment;
  • the figure explaining presentation of the target operation to the user concerning one embodiment. 7 is a flowchart showing an example of setting processing of comparison period and update period of operation according to an embodiment. The figure which demonstrates the comparison period of the operation
  • An information processing system 10 includes a PC (Personal Computer) 4 and an information presentation device 3.
  • PC Personal Computer
  • the PC 4 is an example of an information processing apparatus, and may be applied to a tablet terminal, a smartphone, a PDA (Personal Digital Assistants), or a wearable device.
  • the PC 4 has a CPU 5 (Central Processing Unit) and a memory 6.
  • the CPU 5 acquires sensor data such as acceleration and speed from the sensor 1 such as an acceleration sensor or a gyro sensor, quantifies the operation for each patient based on the acquired sensor data (for example, stride or walking speed) It records in operation
  • sensor data such as acceleration and speed from the sensor 1 such as an acceleration sensor or a gyro sensor
  • the memory 6 includes, for example, a random access memory (RAM), a read only memory (ROM), and a hard disk drive (HDD), and stores various tables and various programs.
  • the memory 6 stores programs and data such as basic programs and network settings.
  • the CPU 5 executes information processing such as patient's operation information collection processing and user's recovery transition information selection processing using an information processing program recorded in the memory 6, other programs and data. Thus, the CPU 5 realizes the control of the entire apparatus and the mounted function.
  • the PC 4 presents the information presentation device 3 with a motion targeted by the user's rehabilitation.
  • the information presentation device 3 may be a wearable device such as an HMD (Head Mount Display) or an FMD (Face Mount Display) worn by a user, a smartphone, a tablet terminal, a PC or the like. In the present embodiment, the information presentation apparatus 3 will be described by taking an HMD attached to a user as an example.
  • the information processing system 10 having such a configuration provides, for example, a rehabilitation support service for stroke patients who can not operate normally due to the influence of paralysis, and a rehabilitation support service that supports recovery of normal-person-like operations. be able to.
  • the sensor 1 is attached to a patient or a user, and sensor data continuous in time is transferred from the sensor 1 to the PC 4. Sensor data acquired from the sensor 1 is used to estimate the motion of the patient and the user to which the sensor 1 is attached.
  • the user is the person who receives the provision of targeted rehabilitation information using this system.
  • the patient is a rehabilitation target who collects information on rehabilitation operation in advance.
  • the user is a person who receives the provision of the rehabilitation information from the present system, and can also be a rehabilitation target person from which the operation information of the rehabilitation is collected.
  • FIG. 10 An example of another hardware configuration of the information processing system 10 according to the present embodiment is shown in FIG.
  • the PC 4 and the server 9 are connected via a network.
  • the sensor 1 mounted on the user and the server 9 are connected via the wireless transmission device 8a and the wireless reception device 8b.
  • the patient group operation DB 26 may be recorded in the recording device of the PC 4, may be recorded in the recording device of the server 9, or may be recorded in the recording device on the cloud.
  • the server 9 has a DB (database) 9a that accumulates operation information of a user and a patient who quantified sensor data such as acceleration detected by the sensor 1.
  • the DB 9a may be recorded in a recording device in the server 9, or may be recorded in a recording device on the cloud.
  • the server 9 may be a computing device on the cloud.
  • the PC 4 has a communication I / F 7 in addition to the CPU 5 and the memory 6.
  • the communication I / F 7 is an interface that connects the PC 4 to the network. Thereby, the PC 4 performs data communication with other devices such as the server 9 and the information presentation device 3 via the communication I / F 7.
  • the PC 4 presents operation information to be a target of rehabilitation to the information presentation device 3 of the HMD attached to the user via the communication I / F 7.
  • the PC 4 and the server 9 are an example of an information processing apparatus.
  • the server 9 may execute information processing such as patient's operation information collection processing and user's recovery transition information selection processing using programs and data recorded in the memory 6, or the PC 4 executes the above-mentioned information processing You may
  • the PC 4 includes a recording unit 11, a motion extraction unit 12, a motion evaluation acquisition unit 15, a classification unit 16, a recovery estimation unit 17, a selection unit 18, a display control unit 19, and a physical model creation unit 20.
  • the recording unit 11 records a physical model table 21, a sensor management table 22, a rehabilitation time management table 23, a sensor information table 24, an operation management table 25, a patient group operation DB 26, and a recovery transition table 28.
  • the recording unit 11 also records an information processing program 29.
  • the physical model table 21 records a physical model created from physical information of the user of the information processing system 10 and a physical model created from physical information of a plurality of patients.
  • the sensor management table 22 records the attachment position of the sensor 1 to the user or patient.
  • the rehabilitation time management table 23 records each of an elapsed day from the start of rehabilitation of the user and an elapsed day from the start of rehabilitation of a plurality of patients.
  • the rehabilitation time management table 23 may record an elapsed time and an elapsed date and time from the start of rehabilitation of the user and the patient.
  • the sensor information table 24 records sensor data acquired from the sensor 1.
  • the operation management table 25 records operation information for each user and patient in which the sensing result of the sensor 1 is quantified to a meaning that can be understood by humans.
  • the operation management table 25 links and records operation evaluation information obtained by evaluating the operation information by a medical worker to the operation information.
  • the medical worker may go to the site where the patient performs rehab, and may record the visual evaluation of the medical worker's operation linked to the operation information for each rehabilitation elapsing day.
  • quantified motion information examples include motion of the whole body, stride, walking speed, and angle of each joint when bending or twisting a joint of the body.
  • a health care worker such as a physical therapist or a doctor evaluates the movement during rehabilitation
  • the movement information for each patient is quantified so that the health care worker can understand and evaluate.
  • Information quantifying sensing data obtained from the sensor 1 attached to the user is also referred to as "user's motion information”
  • information quantifying sensing data obtained from the sensor 1 attached to the patient is "patient's motion information It is also called.
  • the patient group operation DB 26 records operation information of each patient in which the sensing data of a plurality of patients are quantified and operation evaluation information in which the medical worker evaluates the operation.
  • the recovery transition table 28 records the recovery transition information of the user.
  • the motion extraction unit 12 includes a detection unit 13 and a motion quantification unit 14.
  • the detection unit 13 detects sensor data such as acceleration acquired from the sensor 1.
  • the motion quantification unit 14 quantifies the sensor data detected by the detection unit 13.
  • a walking speed and a stride are examples of quantified motion information.
  • the motion evaluation acquisition unit 15 acquires motion evaluation information in which a medical worker evaluates the motion of a patient.
  • the classification unit 16 classifies (groups) the quantified motion information of a plurality of patients into a plurality of physique groups.
  • the recovery estimation unit 17 is a motion of a specific patient that approximates the motion information of the user from the motion information of the patient of the physique group indicated by the physique information of the user among the motion information of the plurality of patients of the classified physique group. It is an example of the estimation part which estimates a user's recovery transition based on information, operation
  • the recovery transition information is a specific rehabilitation target corresponding to the motion information of the user based on the motion information and motion evaluation of the patient of the same physique group as the user's physique when the motion information of a plurality of patients is classified according to the physique
  • the recovery transition estimated from the person's motion information and motion evaluation information is shown.
  • the recovery transition may be the inclination (speed) of recovery calculated from movement evaluation information or movement information of a doctor for several days of the patient and the elapsed date from the start of rehabilitation.
  • the selection unit 18 selects operation information to be a target of the user based on the estimated recovery transition information.
  • the display control unit 19 causes the information presentation device 3 to display operation information to be a target of the selected user.
  • the physical model creating unit 20 creates a physical model of the user from the physical information of the user.
  • the display control unit 19 visualizes the selected target motion information as the rehab motion of the physical model of the user and superimposes it on the current motion of the physical model of the user visualized from the motion information of the user. It may be displayed on 3.
  • the functions of the motion extraction unit 12, the motion evaluation acquisition unit 15, the classification unit 16, the recovery estimation unit 17, the selection unit 18, the display control unit 19, and the physical model creation unit 20 are , And is realized by the processing executed by the CPU 5.
  • the function of the recording unit 11 is realized by, for example, the memory 6.
  • FIG. 4 is a flowchart showing an example of processing for quantifying the motion of the patient according to the present embodiment and collecting motion information and motion evaluation information of the patient.
  • the patient's motion which is an example of the motion of the rehabilitation target person below, is the patient's rehabilitation motion or daily motion. This stage is the pre-processing of information collection performed before the recovery transition information selection processing of the user shown in FIG. 11 is executed.
  • the sensor management table 22 which manages the position of the sensor 1 attached to the patient is created.
  • An example of the sensor management table 22 is shown in FIG. For example, when five sensors with sensor IDs 1 to 5 are attached to the patient's right ankle, left ankle, waist, right wrist, and left wrist, the sensor ID and attachment position information are recorded in association with the sensor management ID Be done.
  • the attachment position of the sensor 1 attach the sensor 1 to the whole body. This is because all users can use the information processing system 10 according to the present embodiment by sensing the motion of the patient's entire body, even if the motion differs depending on the type of disease.
  • the attachment position of the sensor 1 can be changed according to the site
  • motions of the whole body may be sensed, and then motions of a portion considered to be healthy may not be sensed, but motions of only the site of rehabilitation may be sensed.
  • the sensor 1 may be attached to the whole body at first, and then the sensor 1 may be attached to the foot and the waist. This makes it possible to evaluate the movement of the part of the body to be evaluated and reduce the processing load.
  • the detection unit 13 assigns a patient ID, which is identification information of a patient to which the sensor 1 is attached, to each patient (step S10).
  • the physical model creating unit 20 records the patient ID and the physical information of the patient in the physical model table 21 (step S12).
  • FIG. 5 (a-1) An example of the physical model table 21 is shown in FIG. 5 (a-1).
  • physique information such as the height of the patient is recorded corresponding to the patient ID.
  • the physical model creating unit 20 creates a physical model of the patient from the physical information of the patient (step S14).
  • a physique model in which the size such as the height of each patient is reflected is created.
  • the physical information shown in FIG. 5 (a-1) and the physical model shown in FIG. 5 (a-2) are merely examples, and the present invention is not limited to this.
  • the detection unit 13 records an elapsed date from the start of rehabilitation on the rehabilitation time management table 23 (step S16).
  • An example of the rehabilitation time management table 23 is shown in FIG.
  • the execution date (Row ID) of rehabilitation is recorded in association with the number of elapsed days of rehabilitation for each sensor management ID.
  • the rehabilitation time management table 23 may manage the execution time of rehabilitation.
  • the detection unit 13 senses the patient's rehabilitation operation (step S20), and ends the rehabilitation (step S22). Specifically, the detection unit 13 detects sensor data from the sensor 1 attached by the patient, and records the data in the sensor information table 24.
  • An example of the sensor information table 24 is shown in FIG. 6 (b) and FIG. 6 (c).
  • the sensor information table 24 records a patient ID, a date of rehabilitation execution, and sensor data (sensor acceleration, sensor speed) for each sensor identified by the sensor ID.
  • An example of a state in which sensor data is accumulated is shown in FIG. 6 (c). In the present embodiment, only sensor data of the x axis is recorded, but sensor data of the y axis and z axis may be recorded.
  • the motion quantifying unit 14 records patient motion information obtained by quantifying the motion of the patient from the sensor data (step S24).
  • FIG. 7B shows an example of the operation management table 25 in which information quantifying the patient's operation is recorded using the acceleration and velocity sensor data of FIG. 7A.
  • the walking speed and the stride are calculated as motion information in which the motion of the patient is quantified.
  • the information quantifying the motion of the patient is not limited to this, and may be, for example, the tilt of the body, the angle of the joint, or the like.
  • the motion quantifying unit 14 calculates the average speed from the waist sensor as the walking speed.
  • the motion quantifying unit 14 estimates the movement distance from the waveforms of the sensors at both ankles, and calculates the stride.
  • the movement evaluation acquisition unit 15 acquires movement evaluation information of 10 levels by the medical worker (step S26), and the quantified movement information of the patient and the movement evaluation information by the medical worker It associates and records in the operation management table 25 (step S28).
  • the operation management table 25 of FIG. 7B ten stages of operation evaluation information by a medical worker are added to each quantified operation information.
  • performing the operation evaluation in 10 stages is an example, and is not limited thereto.
  • the classification unit 16 classifies the target patient (patient ID) by the movement evaluation information and the physical constitution (step S30).
  • the classification unit 16 may classify the width of the physique at intervals of 5 cm in height.
  • the classification method is not limited to this.
  • the classification may be performed with the height and the site to be rehabilitated (the arm in the case of a broken arm) as a classification target.
  • the recovery estimation unit 17 determines whether or not there is the quantified patient movement information measured last time (step S32). If the recovery estimation unit 17 determines that there is no quantified patient movement information measured last time, the process ends. When it is determined that the quantified patient movement information measured last time is determined, the recovery estimating unit 17 records the inclination of recovery transition in the recovery transition table 28 from the previously quantified patient movement information quantified this time (step S34) ), End this processing.
  • the process shown in FIG. 4 is executed for each patient with respect to a plurality of patients, and quantified operation information of a plurality of patients is recorded in the patient group operation DB 26.
  • motion evaluation information and physique are targets of the motion management table 25 of a plurality of patients (FIG. 8A) and the physique model tables 21 of a plurality of patients (FIG. 8B).
  • the patients classified into physical group 2 are patient ID "16" in motion evaluation 1, patient ID "16” in motion evaluation 2, patient IDs "13” and "16” in motion evaluation 3, motion Patient ID "13” and "16” are given in the evaluation 4.
  • FIG. 9 shows an example of classification of body mass groups and an example of recovery transition.
  • FIGS. 9 (a-1) and 9 (a-2) show motion information of the patients A and B, motion evaluation information, and recovery transition information obtained from the elapsing date of rehabilitation.
  • Recovery transition information (that is, motion information of patients A, B, motion evaluation information, rehabilitation progress day) is recorded in the patient group motion DB 26.
  • the rehabilitation information on recovery transition recorded in the patient group motion DB 26 is the same as the physical group 5 of the user as shown in FIG.
  • Recovery transition information for each patient is expanded by the number of days elapsed from the start of motion evaluation and rehabilitation.
  • the patient group is classified into seven physique groups in FIG. 9C, the present invention is not limited thereto.
  • FIG. 10 is a flowchart showing an example of a physical model creation process according to an embodiment.
  • the detection unit 13 assigns a user ID that is identification information of the user who attached the sensor 1 (step S40).
  • the physical model creating unit 20 records the user ID and the physical information of the user in the physical model table 21 (step S42).
  • the physique model table 21 of FIG. 5 (a-1) Similar to the physique model table 21 of FIG. 5 (a-1) in which the physique model table 21 of the user records the physique information of the patient in the pre-processing, the physique such as the height of the user corresponding to the user ID. Information is recorded.
  • the physical model creating unit 20 creates a physical model of the user from the physical information of the user (step S44). As a result, as shown in FIG. 5 (a-2), a physique model in which the size such as the height for each user is reflected is created.
  • the physical model creation unit 20 may acquire size information on the physical size of each user and patient based on image data and motion capture, and record the size information in the physical model table 21.
  • the process shown in FIG. 10 is executed for each user. It is assumed that the physical constitution of the user does not change, and the process shown in FIG. 10 may be performed only the first time each user implements the information processing system 10. However, users may re-create their own physique model if their physique changes even after the first time.
  • FIG. 11 is a flowchart illustrating an example of recovery transition information selection processing according to an embodiment.
  • the motion of the user is quantified, the motion information of the quantified user and the motion information and motion evaluation information of the patient group accumulated in the patient group motion DB 26 are analyzed, and recovery transition is estimated and used. Present the target action to the person.
  • the sensor management table 22 for managing the position of the sensor 1 attached to the user is created before the main processing is started (FIG. 5 (b)). Then, the date of recovery (Row ID) from the start of rehabilitation is managed by linking the number of days elapsed for rehab for each sensor management ID by the rehab time management table 23 (FIG. 5C). In the following embodiment, in order to determine the recovery transition, it is assumed that sensor data obtained by sensing the user's operation for two days is acquired in advance.
  • the detection unit 13 senses the user's rehabilitation operation (step S52), and ends the rehabilitation (step S54). Specifically, the detection unit 13 detects sensor data from the sensor 1 attached by the user, and records the sensor data in the sensor information table 24.
  • An example of the sensor information table 24 is shown in FIG. 6 (b) and FIG. 6 (c).
  • the sensor information table 24 records a user ID, an elapsed date of rehabilitation, and sensor data of each sensor indicated by the sensor ID. An example of a state in which sensor data is accumulated is shown in FIG. 6 (c). Although only sensor data of the x-axis is described in the present embodiment, sensor data of the y-axis and z-axis may be added and recorded.
  • the motion quantifying unit 14 motion records the motion information of the user such as the walking speed obtained by quantifying the motion of the user from the sensor information in the motion management table 25 (step S56).
  • the operation evaluation information of the medical staff is unnecessary, and therefore is not recorded in the operation management table 25.
  • the recovery estimation unit 17 compares the movement information of the patient group recorded in the patient group movement DB 26 with the quantified movement information of the user, and the movement of the patient identical or similar to the movement of the user Information is searched (step S58). Next, the recovery estimation unit 17 assumes that the motion evaluation of the medical worker in the motion information of the identical or similar patient is the motion evaluation of the user (step S60).
  • the recovery estimation unit 17 creates motion information of the patient group from motion information quantified for each physical size, compares the motion information of the user with the created motion information of the patient group, and evaluates the motion of the user The current position is determined (step S62).
  • the recovery estimation unit 17 extracts the motion information of the patient group belonging to the same physical constitution as the user among the motion information of the patient group (step S64).
  • the operation management table 25 and the physique model table 21 of the user are specified based on the user ID.
  • patient motion information identical or similar to the user motion information is extracted from the plurality of quantified patient motion information of FIG. 12 (b).
  • FIG. 12D shows an example of the patient ID and the user ID classified according to physique and motion evaluation.
  • the operation evaluations 1 and 2 for the operation information of the patient ID "16" of the physical group 2 to which the user belongs corresponds to the operation information of the user with the user ID "00". I understand that.
  • the position of the user is determined in the column of motion evaluation 1 of the physical group 2 and the column of motion evaluation 2 of the physical group 2.
  • the user and the plurality of patients can be mapped by motion evaluation and physique.
  • the recovery estimation unit 17 uses the physical model table 21 of the user, for example, among the patient groups grouped into seven physical sizes shown in FIG. The case where is selected will be described.
  • the number of days elapsed since the start of rehabilitation and the operation evaluation are extracted from the operation information of the patient group of the selected physique group 5, and two days of the user acquired in advance Map the operation information of This determines the user's current position relative to the recovery transition for each patient.
  • the current position of the user is indicated by a circle pointed to by "the operation information for two days of the user".
  • the recovery estimation unit 17 sets a comparison period n day and an update period m day (step S66).
  • the comparison period n day may be an integer of 1 or more, and similarly, the update period m day may be an integer of 1 or more.
  • the minimum period (for example, days) required to compare the user's and patient's actions is set.
  • the update period m days a minimum period (for example, days) for updating the target operation of the user is set.
  • the recovery estimation unit 17 determines whether the operation information of the user is data of n days or more (step S68). If the recovery estimation unit 17 determines that the user's operation information is not data of n days or more, the process ends.
  • the recovery estimation unit 17 determines whether m days or more have elapsed since the previous data update (step S70). If the recovery estimation unit 17 determines that m days or more have not elapsed since the previous data update, the processing ends.
  • the recovery estimation unit 17 determines that m days or more have elapsed since the previous data update, the movement of the patient group is performed according to the movement evaluation of the patient group of the same physical size group as the user and the start of the rehabilitation.
  • the information is classified as recovery transition information of a patient group (step S72).
  • the recovery estimation unit 17 inputs INT_MAX into the variable Min (step S74). The maximum value on the program is set to INT_MAX.
  • the recovery estimation unit 17 sets the difference between the operation information of the user for n days (two days in this embodiment) and the recovery transition information of the patient group in the variable S (step S76).
  • the recovery estimation unit 17 determines whether the variable S is smaller than the variable Min (step S78). If the variable S is smaller than the variable Min, the recovery estimation unit 17 substitutes the value of the variable S into the variable Min (step S80), and proceeds to step S82. If the variable S is greater than or equal to the variable Min, the recovery estimation unit 17 immediately proceeds to step S82.
  • the recovery estimation unit 17 determines whether the extracted physique has been compared with all the same patients (step S82). If the recovery estimation unit 17 determines that there is a non-compared patient among all the patients having the same physical constitution, the process returns to step S76, and performs the processing of steps S76 to S80 for the non-compared patient. By comparing the processes of steps S76 to S80 with the motion information of all the patients having the same physical constitution, it is possible to determine the specific patient closest to the motion information of the user.
  • step S82 when it is determined that the recovery estimation unit 17 has compared with all patients having the same physical constitution, the selection unit 18 selects the recovery transition information of the patient stored in the variable Min as motion information targeted by the user. , Recording (step S84).
  • the display control unit 19 determines whether or not to continue the rehabilitation (step S86). If it is determined that the rehab is to be continued, the display control unit 19 presents the selected target motion (step S88), returns to step S50, and starts rehab again. On the other hand, when the display control unit 19 determines that the rehab is not continued, the process ends.
  • FIG. 13 (a) in which the user and the plurality of patients are mapped by the physical group and the motion evaluation, the patient with the patient ID "16" whose operation is similar to the user whose user ID is "00" is specified. It is defined as a patient.
  • FIG. 13 (b) is an example of the recovery transition table 28 developed based on the result of the motion evaluation of the patient group of the physical group 2 and the elapsed days, and the patient with the patient ID "16” performs the motion evaluation 1 according to the elapsed days of rehabilitation. It can be seen that they have obtained a few ratings. Therefore, as shown in FIG. 13C, the motion evaluation 3 of the patient with the patient ID "16" that matches the determined position of the user with the user ID "00" is the target motion of the user. Become.
  • the user's next goal is for the recovery transition information of the patient with the patient ID "16" indicated by the recovery transition information of the patient with respect to the recovery transition for 2 days of the user. It is specified that the elapsed days is the operation indicated by the operation information on the third day.
  • the physique model of the patient whose patient ID is "16" shown in FIG. 15 (b) is extracted from the physique model table 21, and the patient ID shown in FIG. 15 (c) is the third day of rehabilitation of the patient whose patient ID is "16".
  • the motion of the patient on the third day of rehabilitation is reproduced from the sensor acceleration and presented to the user as the target motion.
  • the operation target is selected from the operation information of the patient group collected in advance and presented to the user it can. This makes it possible for the user to be aware of maintaining appropriate rehabilitation operation, reduce compensation operation, and provide rehabilitation support that can use muscles that should normally be trained. As a result, rehabilitation can be implemented efficiently.
  • the screen of the information presentation device 3 is displayed by superimposing a two-dimensional or three-dimensional moving image of the target operation and a moving image of the current operation of the user. It is preferable to display in.
  • the user can clearly understand the difference between the current operation and the target operation. In this way, the user can support the restoration of the former behavior before illness alone without the need for a specialist in rehabilitation, and the user's ingenuity and motivation for rehabilitation and the rehabilitation policy with healthcare workers etc. It can be expected to be useful for discussion.
  • the motion information on the third day from the start of rehabilitation of the selected patient is The target action of
  • the method of selecting the target motion information is not limited to this.
  • the target patient's motion information may be selected according to the immediately preceding user's motion information, or according to the last n days (n ⁇ 2) of the user's motion information.
  • the target patient's motion information may be selected.
  • the target patient's motion information may be selected according to the user's motion information on the rehabilitation execution date at predetermined intervals.
  • FIG. 16 is a flowchart illustrating an example of setting processing of the comparison period and the update period of the operation according to an embodiment.
  • FIG. 17 is a diagram for explaining the comparison period and the update period of the operation according to one embodiment.
  • the recovery estimation unit 17 acquires an elapsed date from the start of rehabilitation (step S90).
  • the recovery estimation unit 17 substitutes the value of R / 10 into the comparison period n (step S94), substitutes the value of R / 10 into the update period m (step S96), and ends this processing.
  • the comparison period n and the update period m can be set so as to accelerate switching of the target operation in the early stage of rehabilitation and delay the switching of the target operation in the latter stage.
  • the expression of the recovery curve R according to the present embodiment is an example of a recovery curve, and the recovery curve may be defined by other than that.
  • the information processing apparatus, the information processing program, and the information processing method have been described in the above embodiments, the information processing apparatus, the information processing program, and the information processing method according to the present invention are not limited to the above embodiments. Various modifications and improvements are possible within the scope of the invention. Moreover, when there exist two or more said embodiment and modification, it can combine in the not inconsistent range.
  • the configuration of the information processing system according to the above-described embodiment is an example, and does not limit the scope of the present invention. It goes without saying that there are various system configuration examples according to the application and purpose.
  • the process of collecting motion information for a plurality of patients may not be performed by the PC 4 in advance, but may be performed by another device and the motion information (recovery transition information) quantified for each patient is the patient group motion It may be recorded in the DB 26.
  • a part of the process performed by the PC 4 may be executed by a server on the cloud, and a plurality of computers in the network system may perform a series of processes in cooperation such that other processes are executed by the PC 4.
  • the rehabilitation operation of the patient is collected by the sensor as a rehabilitation target person, but the daily movement of the patient may be collected by the sensor 1 as well as the patient's rehabilitation operation.
  • the sensor 1 may collect not only the patient but also the action of the elderly or the action of the athlete.
  • a target motion for recovery to the extent that gymnastics can be performed.
  • a target motion in which the elderly person can live alone for example, in the case of an elderly person, it is possible to present a target motion in which the elderly person can live alone.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Signal Processing (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Rehabilitation Tools (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

利用者の動作を定量化した利用者の動作情報を抽出する動作抽出部と、複数のリハビリ対象者の動作を定量化した複数のリハビリ対象者の動作情報を、該動作情報を評価した動作評価情報に対応付けて記録する記録部を参照して、前記利用者の体格情報が示す体格に分類されたリハビリ対象者の動作情報及び動作評価情報に基づき、前記利用者の動作情報に対応する特定のリハビリ対象者の動作情報及び動作評価情報から回復推移情報を推定する推定部と、推定した前記回復推移情報に基づき、前記利用者の目標となる動作情報を選択する選択部とを有する、情報処理装置が提供される。

Description

情報処理装置、情報処理プログラム及び情報処理方法
 本発明は、情報処理装置、情報処理プログラム及び情報処理方法に関する。
 症状、年齢、性別の異なる各々の訓練対象者にとって適切、かつ、無理のない向上予想を行うとともに目標値を設定する目標達成度評価装置が知られている(例えば、特許文献1参照)。
 特許文献1によれば、複数の患者を症状、年齢、性別、障害重症度で分類した患者グループを作成し、利用者および患者グループの動作情報を分析する。その際、利用者のリハビリ目標動作情報は、利用者と同じ患者グループの動作情報の平均値とする。
特開2001-420号公報 特開2001-218746号公報
 しかしながら、特許文献1のように、利用者の目標動作情報に、症例、性別、年齢、障害重症度等の属性でグルーピングした複数の患者の動作情報の平均値を用いると、平均値から外れる症状、つまり、平均値が目標動作とならない症状を持つ患者には向かず、リハビリ効果が低下するという課題がある。また、特許文献1では、グルーピングする分類項目が細く、利用者に合ったサンプル数を収集し難いため、平均値の信頼度が低い。
 そこで、1つの側面では、本発明は、利用者に適切なリハビリの情報を提供することを目的とする。
 1つの実施態様では、利用者の動作を定量化した利用者の動作情報を抽出する動作抽出部と、複数のリハビリ対象者の動作を定量化した複数のリハビリ対象者の動作情報を、該動作情報を評価した動作評価情報に対応付けて記録する記録部を参照して、前記利用者の体格情報が示す体格に分類されたリハビリ対象者の動作情報及び動作評価情報に基づき、前記利用者の動作情報に対応する特定のリハビリ対象者の動作情報及び動作評価情報から回復推移情報を推定する推定部と、推定した前記回復推移情報に基づき、前記利用者の目標となる動作情報を選択する選択部とを有する、情報処理装置が提供される。
 1つの側面では、本発明は、利用者に適切なリハビリの情報を提供することができる。
一実施形態に係る情報処理システムのハードウェア構成の一例を示す図。 一実施形態に係る情報処理システムのハードウェア構成の一例を示す図。 一実施形態に係るPC4の機能構成の一例を示す図。 一実施形態に係る患者の動作情報収集処理の一例を示すフローチャート。 一実施形態に係る体格モデルテーブル、センサ管理テーブル、リハビリ時間管理テーブルの一例を示す図。 一実施形態に係るセンサ情報テーブルの一例を示す図。 一実施形態に係る動作管理テーブルの一例を示す図。 一実施形態に係る患者群動作データベース(DB)の一例を示す図。 一実施形態に係る体格群の分類及び回復推移を説明する図。 一実施形態に係る利用者の体格モデル作成処理の一例を示すフローチャート。 一実施形態に係る利用者の回復推移情報選択処理の一例を示すフローチャート。 一実施形態に係る回復推移情報選択処理時の各テーブルのデータを説明する図。 一実施形態に係る回復推移情報選択処理時の各テーブルのデータを説明する図。 一実施形態に係る利用者の回復推移情報選択処理を説明する図。 一実施形態に係る利用者への目標動作の提示を説明する図。 一実施形態に係る動作の比較期間及び更新期間の設定処理の一例を示すフローチャート。 一実施形態に係る動作の比較期間及び更新期間を説明する図。
 以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
 [情報処理システムのハードウェア構成]
 まず、本発明の一実施形態に係る情報処理システム10のハードウェア構成の一例について、図1を参照しながら説明する。本実施形態に係る情報処理システム10は、PC(Personal Computer)4と情報提示装置3とを有する。
 PC4は、情報処理装置の一例であり、タブレット端末、スマートフォン、PDA(Personal Digital Assistants)、ウェアラブルデバイスに適用され得る。PC4は、CPU5(Central Processing Unit)及びメモリ6を有する。CPU5は、加速度センサやジャイロセンサ等のセンサ1から加速度や速度等のセンサデータを取得し、取得したセンサデータに基づき患者毎の動作を定量化(例えば、歩幅や歩行速度等)して患者群動作DB26に記録する。
 メモリ6は、例えばRAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)から構成され、各種のテーブルや各種のプログラムを格納する。メモリ6には、基本プログラム、ネットワーク設定等のプログラム及びデータが格納されている。CPU5は、メモリ6に記録された情報処理プログラム、その他のプログラム及びデータを用いて患者の動作情報収集処理及び利用者の回復推移情報選択処理等の情報処理を実行する。これにより、CPU5は、装置全体の制御や搭載機能を実現する。PC4は、利用者のリハビリの目標となる動作を情報提示装置3に提示する。情報提示装置3は、利用者に装着したHMD(Head Mount Display)又はFMD(Face Mount Display)等のウェアラブル機器、スマートフォン、タブレット端末、PC等であり得る。本実施形態では、利用者に装着したHMDを例に挙げて情報提示装置3を説明する。
 かかる構成の本実施形態に係る情報処理システム10では、例えば、麻痺の影響で正常動作ができない脳卒中患者向けのリハビリ支援サービスや、健常者並みの動作を取り戻すことを支援するリハビリ支援サービスを提供することができる。
 なお、例えば、センサ1は、患者や利用者に取り付けられ、時間的に連続したセンサデータがセンサ1からPC4に転送される。センサ1から取得したセンサデータは、センサ1を取り付けた患者及び利用者の動作を推定するために使用される。利用者は、本システムを使用して目標となる適切なリハビリの情報の提供を受ける者である。患者は、事前にリハビリの動作情報を収集するリハビリ対象者である。利用者は、本システムからリハビリ情報の提供を受ける者であるとともに、リハビリの動作情報が収集されるリハビリ対象者ともなり得る。
 [情報処理システムの他のハードウェア構成]
 本実施形態に係る情報処理システム10の他のハードウェア構成の一例を図2に示す。図2の情報処理システム10では、PC4とサーバ9とがネットワークを介して接続される。利用者に装着されたセンサ1とサーバ9とは、無線送信装置8a及び無線受信装置8bを介して接続される。患者群動作DB26は、PC4の記録装置に記録されてもよいし、サーバ9の記録装置に記録されてもよいし、クラウド上の記録装置に記録されてもよい。
 サーバ9は、センサ1が検出した加速度等のセンサデータを定量化した利用者及び患者の動作情報を蓄積するDB(データベース)9aを有する。DB9aは、サーバ9内の記録装置に記録されてもよいし、クラウド上の記録装置に記録されてもよい。なお、サーバ9は、クラウド上の演算装置であってもよい。
 PC4は、CPU5及びメモリ6に加えて通信I/F7を有する。通信I/F7は、PC4をネットワークに接続するインターフェースである。これにより、PC4は、通信I/F7を介して、サーバ9、情報提示装置3等の他の機器とデータ通信を行う。PC4は、通信I/F7を介して利用者に装着されたHMDの情報提示装置3にリハビリの目標となる動作情報を提示する。
 図2の情報処理システム10では、PC4及びサーバ9は情報処理装置の一例である。サーバ9が、メモリ6に記録されたプログラムやデータを用いて患者の動作情報収集処理及び利用者の回復推移情報選択処理等の情報処理を実行してもよいし、PC4が上記情報処理を実行してもよい。
 [PCの機能構成]
 次に、一実施形態に係る情報処理装置の一例であるPC4の機能構成について、図3を参照しながら説明する。PC4は、記録部11、動作抽出部12、動作評価取得部15、分類部16、回復推定部17、選択部18、表示制御部19及び体格モデル作成部20を有する。
 記録部11は、体格モデルテーブル21、センサ管理テーブル22、リハビリ時間管理テーブル23、センサ情報テーブル24、動作管理テーブル25、患者群動作DB26及び回復推移テーブル28を記録する。また、記録部11は、情報処理プログラム29を記録する。
 体格モデルテーブル21は、情報処理システム10の利用者の体格情報から作成された体格モデル及び複数の患者の体格情報から作成された体格モデルのそれぞれを記録する。センサ管理テーブル22は、センサ1の利用者又は患者への取付け位置を記録する。リハビリ時間管理テーブル23は、利用者のリハビリ開始からの経過日及び複数の患者のリハビリ開始からの経過日のそれぞれを記録する。リハビリ時間管理テーブル23は、利用者及び患者のリハビリ開始からの経過時間や経過日時を記録してもよい。センサ情報テーブル24は、センサ1から取得したセンサデータを記録する。
 動作管理テーブル25は、センサ1のセンシング結果を人間の判る意味に定量化した利用者及び患者毎の動作情報を記録する。患者毎の動作情報を記録する場合、動作管理テーブル25は、該動作情報を医療従事者により評価した動作評価情報を動作情報に紐付けて記録する。動作管理テーブル25には、医療従事者は、患者がリハビリを行う現場に立ち合い、目視による医療従事者の動作評価をリハビリ経過日毎の動作情報に紐付けて記録してもよい。
 定量化した動作情報の一例としては、全身の動作、歩幅、歩行速度、身体の関節を曲げる又はひねる等したときの関節毎の角度が挙げられる。リハビリ中の動きを理学療法士や医者等の医療従事者が評価する際、医療従事者が理解及び評価できるように、患者毎の動作情報を定量化する。利用者に取り付けたセンサ1から得たセンシングデータを定量化した情報を「利用者の動作情報」ともいい、患者に取り付けたセンサ1から得たセンシングデータを定量化した情報を「患者の動作情報」ともいう。
 患者群動作DB26は、複数の患者のセンシングデータを定量化した各患者の動作情報と医療従事者がその動作を評価した動作評価情報とを記録する。回復推移テーブル28は、利用者の回復推移情報を記録する。
 動作抽出部12は、検出部13及び動作定量化部14を有する。検出部13は、センサ1から取得した加速度等のセンサデータを検出する。
 動作定量化部14は、検出部13が検出したセンサデータを定量化する。定量化した動作情報の一例としては、歩行速度や歩幅がある。
 動作評価取得部15は、医療従事者が患者の動作を評価した動作評価情報を取得する。分類部16は、定量化した複数の患者の動作情報を複数の体格群に分類(グルーピング)する。
 回復推定部17は、分類された体格群の複数の患者の動作情報のうち、利用者の体格情報が示す体格群の患者の動作情報から、利用者の動作情報に近似する特定の患者の動作情報と動作評価情報とリハビリ開始からの経過日とに基づき利用者の回復推移を推定する推定部の一例である。
 回復推移情報は、複数の患者の動作情報を体格毎に分類したときに利用者の体格と同じ体格群の患者の動作情報及び動作評価に基づき、利用者の動作情報に対応する特定のリハビリ対象者の動作情報及び動作評価情報から推定される回復推移を示す。例えば、回復推移は、患者の数日間の医師の動作評価情報や動作情報とリハビリ開始からの経過日から算出される回復の傾き(速さ)であってもよい。
 選択部18は、推定した回復推移情報に基づき、利用者の目標となる動作情報を選択する。表示制御部19は、選択した利用者の目標となる動作情報を情報提示装置3に表示させる。体格モデル作成部20は、利用者の体格情報から利用者の体格モデルを作成する。表示制御部19は、選択した目標となる動作情報を利用者の体格モデルのリハビリ動作に可視化し、利用者の動作情報から可視化した利用者の体格モデルの現在の動作に重畳して情報提示装置3に表示してもよい。
 動作抽出部12、動作評価取得部15、分類部16、回復推定部17、選択部18、表示制御部19及び体格モデル作成部20の機能は、例えばメモリ6にインストールされた情報処理プログラム29が、CPU5に実行させる処理により実現される。記録部11の機能は、例えばメモリ6により実現される。
 [事前処理:患者の動作情報収集処理]
 次に、本実施形態に係る患者の動作情報収集処理の一例について、図4を参照して説明する。図4は、本実施形態に係る患者の動作を定量化し、患者の動作情報及び動作評価情報を収集する処理の一例を示すフローチャートである。以下のリハビリ対象者の動作の一例である患者の動作は、患者のリハビリ動作や日常動作である。本段階は図11に示す利用者の回復推移情報選択処理が実行される前に行われる情報収集の事前処理である。
 なお、本処理が開始される前に、患者に取り付けられたセンサ1の位置を管理するセンサ管理テーブル22が作成されている。センサ管理テーブル22の一例を図5(b)に示す。例えば、患者の右足首、左足首、腰、右手首、左手首にセンサIDが1~5の5つのセンサが取り付けられた場合、センサIDと取付け位置の情報がセンサ管理IDに対応付けて記録される。
 センサ1の取付け位置は、全身にセンサ1を取り付けることが好ましい。患者の全身の動作をセンシングすれば、病気の種類によって動作が異なっていても、全ての利用者が、本実施形態に係る情報処理システム10を利用できるためである。
 また、リハビリを行う身体の部位に応じてセンサ1の取付け位置を変えることができる。例えば全身にセンサ1を取り付け、更にリハビリを行う部位にセンサ1を取り付けることが好ましい。全身の動作をセンシングした上で、リハビリを行う部位の動作をセンシングすることで、身体の全体とリハビリ対象の部位の両方の動作を評価することができる。
 更に、最初は全身の動作をセンシングし、その後、健康とみられる部分の動作はセンシングせずに、リハビリ対象の部位の動作のみをセンシングしてもよい。例えば、足のリハビリの場合、最初は全身にセンサ1を取り付け、その後は、足と腰にセンサ1を取り付けてもよい。これにより、評価したい身体の部分の動作を評価できると共に、処理の負荷を軽減することができる。
 図4の本処理が開始されると、検出部13は、センサ1を取り付けた患者の識別情報である患者IDを患者毎に付与する(ステップS10)。次に、体格モデル作成部20は、患者IDと患者の体格情報を体格モデルテーブル21に記録する(ステップS12)。
 体格モデルテーブル21の一例を図5(a-1)に示す。図5(a-1)の体格モデルテーブル21には、患者IDに対応させて患者の身長等の体格情報が記録されている。
 図4に戻り、次に、体格モデル作成部20は、患者の体格情報から患者の体格モデルを作成する(ステップS14)。これにより、図5(a-2)に示すように、患者毎の身長等のサイズが反映された体格モデルが作成される。なお、図5(a-1)に示す体格情報及び図5(a-2)に示す体格モデルは一例であり、これに限らない。
 図4に戻り、次に、検出部13は、リハビリ開始からの経過日をリハビリ時間管理テーブル23に記録する(ステップS16)。リハビリ時間管理テーブル23の一例を図5(c)に示す。リハビリ時間管理テーブル23には、センサ管理ID毎にリハビリ経過日数に紐付けてリハビリの実行日(Row ID)が記録される。リハビリ時間管理テーブル23は、リハビリの実行時間を管理してもよい。
 図4に戻り、次に、リハビリが開始されると(ステップS18)、検出部13は、患者のリハビリ動作をセンシングし(ステップS20)、リハビリを終了する(ステップS22)。具体的には、検出部13は、患者が取り付けたセンサ1からのセンサデータを検出し、センサ情報テーブル24に記録する。センサ情報テーブル24の一例を図6(b)及び図6(c)に示す。センサ情報テーブル24には、患者IDと、リハビリ実行日と、センサIDで識別されるセンサ毎のセンサデータ(センサ加速度、センサ速度)とを記録する。センサデータが蓄積された状態の一例が、図6(c)に示されている。本実施形態では、x軸のセンサデータのみが記録されているが、y軸の及びz軸のセンサデータが記録されてもよい。
 図4に戻り、次に、動作定量化部14は、センサデータから患者の動作を定量化した患者の動作情報を記録する(ステップS24)。図7(b)は、図7(a)の加速度及び速度のセンサデータを使用して、患者の動作を定量化した情報を記録した動作管理テーブル25の一例を示す。本実施形態では、患者の動作を定量化した動作情報として、歩行速度及び歩幅が算出される。しかしながら、これらの情報は一例であって、患者の動作を定量化した情報はこれに限定されず、例えば身体の傾き、関節の角度等であってもよい。例えば、動作定量化部14は、腰のセンサからの平均速度を歩行速度として算出する。また、動作定量化部14は、両足首のセンサの波形から移動距離を推定し、歩幅を算出する。
 図4に戻り、次に、動作評価取得部15は、医療従事者による10段階の動作評価情報を取得し(ステップS26)、定量化した患者の動作情報と医療従事者による動作評価情報とを対応付けて動作管理テーブル25に記録する(ステップS28)。図7(b)の動作管理テーブル25の一例には、定量化した動作情報毎に医療従事者による10段階の動作評価情報が付与されている。ただし、動作評価を10段階で行うことは一例であって、これに限定されない。
 図4に戻り、次に、分類部16は、対象の患者(患者ID)を動作評価情報及び体格で分類する(ステップS30)。例えば、分類部16は、体格の幅を、身長が5cmの間隔で分類してもよい。ただし、分類方法はこれに限らない。例えば、身長及びリハビリ対象の部位(腕を骨折した場合には、腕)を分類対象にして分類を行ってもよい。
 次に、回復推定部17は、前回測定した定量化した患者の動作情報があるか否かを判定する(ステップS32)。回復推定部17は、前回測定した定量化した患者の動作情報がなかったと判定した場合、本処理を終了する。回復推定部17は、前回測定した定量化した患者の動作情報があったと判定した場合、前回と今回の定量化した患者の動作情報から回復推移の傾きを回復推移テーブル28に記録し(ステップS34)、本処理を終了する。
 図4に示す処理は、複数の患者に対して患者毎に実行され、患者群動作DB26には、複数の患者の定量化した動作情報が記録される。
 図8(c)には、複数の患者の動作管理テーブル25(図8(a))と、複数の患者の体格モデルテーブル21(図8(b))とから動作評価情報と体格とで対象の患者(患者ID)を分類した結果を記録した患者群動作DB26の一例が示されている。これによれば、体格群2に分類された患者は、動作評価1に患者ID「16」、動作評価2に患者ID「16」、動作評価3に患者ID「13」及び「16」、動作評価4に患者ID「13」及び「16」となっている。
 また、例えば、図9には、体格群の分類例と回復推移の例が示されている。図9(a-1)及び図9(a-2)には、患者A、Bの動作情報、動作評価情報、リハビリ経過日から得られる回復推移情報が示されている。回復推移情報(つまり、患者A、Bの動作情報、動作評価情報、リハビリ経過日)は、患者群動作DB26に記録される。患者群動作DB26に記録された回復推移のリハビリ情報は、図9(c)に示すように、同じ体格群で分類後、図9(d)に示すように、利用者と同じ体格群5の患者毎の回復推移情報が動作評価及びリハビリ開始からの経過日数で展開される。図9(c)では、患者群を7つの体格群のグループに分類しているが、これに限らない。
 [体格モデル作成処理]
 次に、本実施形態に係る利用者の体格モデル作成処理の一例について図10を参照して説明する。図10は、一実施形態に係る体格モデル作成処理の一例を示したフローチャートである。
 本処理が開始されると、検出部13は、センサ1を取り付けた利用者の識別情報である利用者IDを付与する(ステップS40)。次に、体格モデル作成部20は、利用者IDと利用者の体格情報とを体格モデルテーブル21に記録する(ステップS42)。
 利用者の体格モデルテーブル21には、事前処理において患者の体格情報を記録した図5(a-1)の体格モデルテーブル21と同様に、利用者IDに対応させて利用者の身長等の体格情報が記録される。
 図4に戻り、次に、体格モデル作成部20は、利用者の体格情報から利用者の体格モデルを作成する(ステップS44)。これにより、図5(a-2)に示すように、利用者毎の身長等のサイズが反映された体格モデルが作成される。
 なお、体格モデルテーブル21には、利用者及び患者毎の体格に関するサイズ情報が記録される。例えば、体格モデル作成部20は、画像データやモーションキャプチャに基づき利用者及び患者毎の体格に関するサイズ情報を取得し、体格モデルテーブル21に記録してもよい。
 図10に示す処理は、利用者毎に実行される。利用者の体格は変わらないと想定し、図10に示す処理は、各利用者が本情報処理システム10を実施する初回にのみ行えばよい。ただし、初回以外でも体格が変わった場合、利用者は自分の体格モデルを再作成してもよい。
 [回復推移情報選択処理]
 次に、本実施形態に係る利用者の回復推移情報選択処理の一例について図11を参照しながら説明する。図11は、一実施形態に係る回復推移情報選択処理の一例を示したフローチャートである。本処理では、利用者の動作を定量化し、定量化した利用者の動作情報と患者群動作DB26に蓄積された患者群の動作情報及び動作評価情報とを分析し、回復推移を推定して利用者に目標動作を提示する。
 上記事前処理と同様に、本処理が開始される前に、利用者に取り付けられたセンサ1の位置を管理するセンサ管理テーブル22が作成されている(図5(b))。そして、リハビリ時間管理テーブル23によりセンサ管理ID毎にリハビリ経過日数に紐付けてリハビリ開始からの経過日(Row ID)が管理される(図5(c))。以下の実施形態では、回復推移を定めるために、事前に利用者の2日分の動作をセンシングしたセンサデータが取得されているものとする。
 本処理にてリハビリが開始されると(ステップS50)、検出部13は、利用者のリハビリ動作をセンシングし(ステップS52)、リハビリを終了する(ステップS54)。具体的には、検出部13は、利用者が取り付けたセンサ1からのセンサデータを検出し、センサ情報テーブル24に記録する。センサ情報テーブル24の一例を図6(b)及び図6(c)に示す。センサ情報テーブル24には、利用者IDと、リハビリ経過日と、センサIDが示すセンサ毎のセンサデータとを記録する。センサデータが蓄積された状態の一例が、図6(c)に示されている。本実施形態では、x軸のセンサデータのみ表記するが、y軸及びz軸のセンサデータを加えて記録してもよい。
 図11に戻り、次に、動作定量化部14は、センサ情報から利用者の動作を定量化した歩行速度等の利用者の動作情報を動作管理テーブル25に動作記録する(ステップS56)。ここでは、医療従事者の動作評価情報は不要であるため、動作管理テーブル25には記録されない。
 次に、回復推定部17は、患者群動作DB26に記録された患者群の動作情報と、定量化された利用者の動作情報とを比較し、利用者の動作と同一又は近似する患者の動作情報を検索する(ステップS58)。次に、回復推定部17は、同一又は近似する患者の動作情報における医療従事者の動作評価を利用者の動作評価と仮定する(ステップS60)。
 次に、回復推定部17は、体格毎に定量化した動作情報で患者群の動作情報を作成し、利用者の動作情報と作成した患者群の動作情報とを比較して利用者の動作評価のポジション、すなわち現在の動作状態を決定する(ステップS62)。次に、回復推定部17は、患者群の動作情報の中で利用者と同じ体格に属する患者群の動作情報を抽出する(ステップS64)。
 例えば、図12(a)及び(c)に示すように、利用者IDに基づき利用者の動作管理テーブル25及び体格モデルテーブル21が特定される。これらのテーブルを用いて、図12(b)の複数の定量化された患者の動作情報から、利用者の動作情報と同一又は近似する患者の動作情報を抽出する。
 抽出した患者の動作情報は、体格別に分類される。図12(d)には、体格別及び動作評価別に分類された患者ID及び利用者IDの一例が示されている。これにより、例えば、図12(d)では、利用者が属する体格群2の患者ID「16」の動作情報に対する動作評価1,2に利用者ID「00」の利用者の動作情報が対応することが分かる。これにより、図12(d)に示すように、体格群2の動作評価1の欄と、体格群2の動作評価2の欄とに利用者のポジションが決定される。以上のようにして、利用者と複数の患者を動作評価及び体格でマッピングすることができる。
 例えば、回復推定部17は、利用者の体格モデルテーブル21を用いて、例えば、図9(c)に示す7つの体格にグルーピングされた患者群のうち、利用者と同じ又は近似する体格群5が選択された場合について説明する。この場合、図9(d)に示すように、選択された体格群5の患者群の動作情報の、リハビリ開始からの経過日数と動作評価を抽出し、事前に取得した利用者の2日分の動作情報をマッピングする。これにより、患者毎の回復推移に対する利用者の現状のポジションが決定される。図9(d)には、利用者の現状のポジションが「利用者の2日分の動作情報」が指す円で示されている。
 図11に戻り、次に、回復推定部17は、比較期間n日と更新期間m日を設定する(ステップS66)。比較期間n日は1以上の整数であればよく、同様に、更新期間m日は1以上の整数であればよい。比較期間n日は、利用者と患者の動作を比較するのに必要な最低期間(例えば、日数)が設定される。更新期間m日は、利用者の目標動作を更新する最低期間(例えば、日数)が設定される。
 次に、回復推定部17は、利用者の動作情報がn日以上のデータであるかを判定する(ステップS68)。回復推定部17は、利用者の動作情報がn日以上のデータでないと判定した場合、本処理を終了する。
 一方、回復推定部17は、利用者の動作情報がn日以上のデータであると判定した場合、前回のデータ更新からm日以上経過したかを判定する(ステップS70)。回復推定部17は、前回のデータ更新からm日以上経過していないと判定した場合、本処理を終了する。
 一方、回復推定部17は、前回のデータ更新からm日以上経過したと判定した場合、利用者と同じ体格群の患者群の動作評価及びリハビリ開始からの経過日に応じて、患者群の動作情報を患者群の回復推移情報として分類する(ステップS72)。
 次に、回復推定部17は、変数MinにINT_MAXを入力する(ステップS74)。INT_MAXには、プログラム上の最大値が設定されている。次に、回復推定部17は、変数Sにn日間(本実施形態では2日間)の利用者の動作情報と、患者群の回復推移情報との差異を設定する(ステップS76)。次に、回復推定部17は、変数Sが変数Minよりも小さいかを判定する(ステップS78)。回復推定部17は、変数Sが変数Minよりも小さい場合、変数Sの値を変数Minに代入し(ステップS80)、ステップS82に進む。回復推定部17は、変数Sが変数Min以上である場合、直ちにステップS82に進む。
 次に、回復推定部17は、抽出した体格が同じ全患者と比較したかを判定する(ステップS82)。回復推定部17は、体格が同じすべての患者のうち比較していない患者が存在すると判定した場合、ステップS76に戻り、比較していない患者に関し、ステップS76~S80の処理を行う。ステップS76~S80の処理を同じ体格の全患者の動作情報について比較することで、利用者の動作情報に最も近い特定の患者を定めることができる。
 ステップS82において、回復推定部17が体格が同じ全患者と比較したと判定した場合、選択部18は、変数Minに格納された患者の回復推移情報を利用者の目標とする動作情報に選択し、記録する(ステップS84)。
 次に、表示制御部19は、リハビリを継続するか否かを判定する(ステップS86)。表示制御部19は、リハビリを継続すると判定した場合、選択した目標動作の提示を行い(ステップS88)、ステップS50に戻り、再度リハビリを開始する。一方、表示制御部19は、リハビリを継続しないと判定した場合、本処理を終了する。
 これにより、利用者と複数の患者を体格群及び動作評価でマッピングした図13(a)により、利用者IDが「00」の利用者に動作が近似する患者ID「16」の患者が特定の患者と定められる。図13(b)は体格群2の患者群の動作評価の結果と経過日数で展開した回復推移テーブル28の一例であり、患者ID「16」の患者は、リハビリ経過日数に従い、動作評価1、2、3の評価を得ていることがわかる。よって、図13(c)に示すように、利用者ID「00」の利用者の決定されたポジションに一致する患者ID「16」の患者の動作評価3の動作が、利用者の目標動作となる。
 これにより、図14(a)の利用者の回復推移(2日分のリハビリ動作の結果)に対して、図14(b)の患者群動作DB26に記録されている複数の患者の回復推移情報の曲線のうち、図14(c)の最も近似する回復推移情報が選択されたとする。
 つまり、図14(c)に示すように、利用者の2日分の回復推移に対して、利用者の次の目標は、患者ID「16」の患者の回復推移情報が示すリハビリ開始からの経過日数が3日目の動作情報が示す動作であることが特定される。
 そこで、図15(b)に示す患者IDが「16」の患者の体格モデルを体格モデルテーブル21から抽出し、図15(c)に示す患者IDが「16」の患者のリハビリ3日目のセンサ加速度から、患者のリハビリ3日目の動作を再現し、目標となる動作として利用者へ提示する。
 以上に説明したように、一実施形態に係る情報処理システム10によれば、利用者が行うリハビリにおいて、事前に収集した患者群の動作情報から動作目標を選択し、利用者に提示することができる。これにより、利用者に適切なリハビリ動作を保ちことを意識づけ、代償動作を減らすことができ、本来鍛えるべき筋肉を使用することが可能なリハビリ支援を提供できる。この結果、リハビリを効率よく実施することができる。
 また、事前に収集した患者の動作情報の動作評価に基づき、利用者に適した動作目標を提示できるため、利用者のみのリハビリが可能となり、理学療法士等の医療従事者の存在を必要とせず、医療従事者によるサポートなどの作業コストを抑えることができる。
 動作目標の提示は、図15に一例を示すように、目標となる動作の2次元又は3次元の動画像と、利用者の現在の動作の動画像とを重畳させて情報提示装置3の画面に表示することが好ましい。
 動作フォームを画面に提示する方法については、2017年1月4日に出願された出願番号PCT/JP2017/000046の明細書に記載の方法を用いてもよいし、その他の方法を用いてもよい。
 例えば、入院後の利用者の状態と、その利用者と同じ体格の患者であって、利用者よりも少し回復した患者の動作(選択された目標動作)を重畳させて画面に表示することで、利用者は、現在の動作と目標となる動作との差異を明確に理解することができる。これにより、利用者が、リハビリの専門家を必要とせずに一人で病気前の元の動作を取り戻すことを支援でき、利用者本人のリハビリに対する工夫や意欲、医療従事者とのリハビリ方針等の議論に役立てることが期待できる。
 なお、本実施形態では、図9(d)に示すリハビリ開始から1日目及び2日目の利用者の動作情報に基づき、選択した患者のリハビリ開始から3日目の動作情報を、利用者の目標となる動作とした。しかしながら、目標となる動作情報の選択方法は、これに限らない。例えば、直前の1日の利用者の動作情報に応じて、目標となる患者の動作情報を選択してもよいし、直前のn日間(n≧2)の利用者の動作情報に応じて、目標となる患者の動作情報を選択してもよい。所定間隔のリハビリ実行日の利用者の動作情報に応じて、目標となる患者の動作情報を選択してもよい。
 [比較期間及び更新期間]
 回復推移は人によって異なる。このため、所定間隔で利用者の回復推移を再評価し、特定の患者の回復推移を動作目標として再設定することが好ましい。
 ここで、動作目標として再設定するための更新期間m日及び比較期間n日の決定方法について、図16及び図17を参照しながら説明する。図16は、一実施形態に係る動作の比較期間及び更新期間の設定処理の一例を示すフローチャートである。図17は、一実施形態に係る動作の比較期間及び更新期間を説明する図である。
 図17に示すように、リハビリによる動作の回復は、一次直線ではなく放物線を描くため、初期状態は回復し易く、徐々に回復し難くなる傾向がある。そこで、初期は目標動作の切り替えを早くし、後期は目標動作の切り替えを遅くするように設定する。
 その一例として、図16に示すように回復曲線の式を用いた比較期間n及び更新期間mの設定について説明する。図16の処理が開始され、最初に、回復推定部17は、リハビリ開始からの経過日を取得する(ステップS90)。次に、回復推定部17は、リハビリによる動作の回復曲線の式R=log(経過日)×42に経過日を代入し(ステップS92)、回復曲線Rを求める。
 次に、回復推定部17は、比較期間nにR/10の値を代入し(ステップS94)、更新期間mにR/10の値を代入し(ステップS96)、本処理を終了する。これにより、経過日によって変わる回復曲線Rに基づき、適切な比較期間n及び更新期間mを算出することができる。この結果、比較期間n及び更新期間mを、リハビリの初期は目標動作の切り替えを早くし、後期は目標動作の切り替えを遅くするように設定することができる。なお、本実施形態に係る回復曲線Rの式は回復曲線の一例であり、回復曲線は、それ以外により定めてもよい。
 以上、情報処理装置、情報処理プログラム及び情報処理方法を上記実施形態により説明したが、本発明に係る情報処理装置、情報処理プログラム及び情報処理方法は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。
 例えば、上記実施形態に係る情報処理システムの構成は一例であり、本発明の範囲を限定するものではなく、用途や目的に応じて様々なシステム構成例があることは言うまでもない。例えば、事前に複数の患者についての動作情報の収集処理は、PC4で行われなくてもよく、他の機器で実行され、患者毎に定量化された動作情報(回復推移情報)が患者群動作DB26に記録されるようにしてもよい。PC4で行う処理の一部がクラウド上のサーバで実行され、他の処理がPC4で実行されるようなネットワークシステム内の複数のコンピュータが連携して一連の処理が行われてもよい。
 例えば、実施形態では、リハビリ対象者として、患者のリハビリ動作をセンサにより収集したが、患者のリハビリ動作に限らず、患者の日常動作をセンサ1により収集してもよい。また、患者に限らず、高齢者の動作やスポーツ選手の動作をセンサ1により収集してもよい。本発明によれば、例えば、体操選手の場合には、体操ができる程に回復するための目標動作を提示することができる。例えば、高齢者の場合には、高齢者が一人で生活できる目標動作を提示することができる。
 1  センサ
 3  情報提示装置
 4  PC
 5  CPU
 6  メモリ
 7  通信I/F
 8a 無線送信装置
 8b 無線受信装置
 9  サーバ
 10 情報処理システム装置
 11 記録部
 12 動作抽出部
 13 検出部
 14 動作定量化部
 15 動作評価取得部
 16 分類部
 17 回復推定部
 18 選択部
 19 表示制御部
 20 体格モデル作成部
 21 体格モデルテーブル
 22 センサ管理テーブル
 23 リハビリ時間管理テーブル
 24 センサ情報テーブル
 25 動作管理テーブル
 26 患者群動作DB
 28 回復推移テーブル
 29 情報処理プログラム

Claims (15)

  1.  利用者の動作を定量化した利用者の動作情報を抽出する動作抽出部と、
     複数のリハビリ対象者の動作を定量化した複数のリハビリ対象者の動作情報を、該動作情報を評価した動作評価情報に対応付けて記録する記録部を参照して、前記利用者の体格情報が示す体格に分類されたリハビリ対象者の動作情報及び動作評価情報に基づき、前記利用者の動作情報に対応する特定のリハビリ対象者の動作情報及び動作評価情報から回復推移情報を推定する推定部と、
     推定した前記回復推移情報に基づき、前記利用者の目標となる動作情報を選択する選択部と、
     を有する、情報処理装置。
  2.  選択した前記目標となる動作情報を利用者に提示する表示制御部を有する、
     請求項1に記載の情報処理装置。
  3.  前記表示制御部は、選択した前記目標となる動作情報を利用者の体格モデルのリハビリ動作に可視化し、前記利用者の動作情報から可視化した前記体格モデルの動作に重畳して表示する、
     請求項2に記載の情報処理装置。
  4.  前記推定部は、特定の更新期間毎に特定の比較期間、前記利用者の体格情報が示す体格に分類されたリハビリ対象者の動作情報と前記利用者の動作情報とを比較し、比較の結果に基づき前記特定のリハビリ対象者を定める、
     請求項1~3のいずれか一項に記載の情報処理装置。
  5.  前記推定部は、特定の更新期間及び特定の比較期間を動作開始からの経過時間に応じて変更する、
     請求項4に記載の情報処理装置。
  6.  利用者の動作を定量化した利用者の動作情報を抽出し、
     複数のリハビリ対象者の動作を定量化した複数のリハビリ対象者の動作情報を、該動作情報を評価した動作評価情報に対応付けて記録する記録部を参照して、前記利用者の体格情報が示す体格に分類されたリハビリ対象者の動作情報及び動作評価情報に基づき、前記利用者の動作情報に対応する特定のリハビリ対象者の動作情報及び動作評価情報から回復推移情報を推定し、
     推定した前記回復推移情報に基づき、前記利用者の目標となる動作情報を選択する、
     処理をコンピュータに実行させる情報処理プログラム。
  7.  選択した前記目標となる動作情報を利用者に提示する、
     請求項6に記載の情報処理プログラム。
  8.  選択した前記目標となる動作情報を利用者の体格モデルのリハビリ動作に可視化し、前記利用者の動作情報から可視化した前記体格モデルの動作に重畳して表示する、
     請求項7に記載の情報処理プログラム。
  9.  特定の更新期間毎に特定の比較期間、前記利用者の体格情報が示す体格に分類されたリハビリ対象者の動作情報と前記利用者の動作情報とを比較し、比較の結果に基づき前記特定のリハビリ対象者を定める、
     請求項6~8のいずれか一項に記載の情報処理プログラム。
  10.  特定の更新期間及び特定の比較期間を動作開始からの経過時間に応じて変更する、
     請求項9に記載の情報処理プログラム。
  11.  利用者の動作を定量化した利用者の動作情報を抽出し、
     複数のリハビリ対象者の動作を定量化した複数のリハビリ対象者の動作情報を、該動作情報を評価した動作評価情報に対応付けて記録する記録部を参照して、前記利用者の体格情報が示す体格に分類されたリハビリ対象者の動作情報及び動作評価情報に基づき、前記利用者の動作情報に対応する特定のリハビリ対象者の動作情報及び動作評価情報から回復推移情報を推定し、
     推定した前記回復推移情報に基づき、前記利用者の目標となる動作情報を選択する、
     ことをコンピュータが実行する情報処理方法。
  12.  選択した前記目標となる動作情報を利用者に提示する、
     請求項11に記載の情報処理方法。
  13.  選択した前記目標となる動作情報を利用者の体格モデルのリハビリ動作に可視化し、前記利用者の動作情報から可視化した前記体格モデルの動作に重畳して表示する、
     請求項12に記載の情報処理方法。
  14.  特定の更新期間毎に特定の比較期間、前記利用者の体格情報が示す体格に分類されたリハビリ対象者の動作情報と前記利用者の動作情報とを比較し、比較の結果に基づき前記特定のリハビリ対象者を定める、
     請求項11~13のいずれか一項に記載の情報処理方法。
  15.  特定の更新期間及び特定の比較期間を動作開始からの経過時間に応じて変更する、
     請求項14に記載の情報処理方法。
PCT/JP2017/024453 2017-07-04 2017-07-04 情報処理装置、情報処理プログラム及び情報処理方法 WO2019008657A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17917162.4A EP3649940A4 (en) 2017-07-04 2017-07-04 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING METHOD
JP2019528224A JP7001095B2 (ja) 2017-07-04 2017-07-04 情報処理装置、情報処理プログラム及び情報処理方法
PCT/JP2017/024453 WO2019008657A1 (ja) 2017-07-04 2017-07-04 情報処理装置、情報処理プログラム及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/024453 WO2019008657A1 (ja) 2017-07-04 2017-07-04 情報処理装置、情報処理プログラム及び情報処理方法

Publications (1)

Publication Number Publication Date
WO2019008657A1 true WO2019008657A1 (ja) 2019-01-10

Family

ID=64950653

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/024453 WO2019008657A1 (ja) 2017-07-04 2017-07-04 情報処理装置、情報処理プログラム及び情報処理方法

Country Status (3)

Country Link
EP (1) EP3649940A4 (ja)
JP (1) JP7001095B2 (ja)
WO (1) WO2019008657A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020234957A1 (ja) * 2019-05-20 2020-11-26 日本電信電話株式会社 リハビリ支援システム、およびリハビリ支援方法
CN112043556A (zh) * 2019-06-07 2020-12-08 丰田自动车株式会社 康复训练系统和存储有康复训练的评价程序的可供计算机读取的存储介质
CN112137835A (zh) * 2019-06-27 2020-12-29 丰田自动车株式会社 学习系统、复健辅助系统、方法、程序及学习完毕模型
JP2021003521A (ja) * 2019-06-27 2021-01-14 トヨタ自動車株式会社 学習装置、リハビリ支援システム、方法、プログラム、及び学習済みモデル
JP2021007481A (ja) * 2019-06-28 2021-01-28 トヨタ自動車株式会社 学習装置、歩行訓練装置、システム、方法、プログラム、及び学習済みモデル
WO2021065184A1 (ja) * 2019-10-04 2021-04-08 日本電気株式会社 リハビリ計画装置、リハビリ計画システム、リハビリ計画方法、及びコンピュータ可読媒体
WO2021065183A1 (ja) * 2019-10-04 2021-04-08 日本電気株式会社 リハビリ業務支援装置、リハビリ業務支援システム、リハビリ業務支援方法、及びコンピュータ可読媒体
JP2021114021A (ja) * 2020-01-16 2021-08-05 コニカミノルタ株式会社 リハビリテーションを支援する情報の提供の方法およびリハビリテーション支援システム
JP2022060099A (ja) * 2020-10-02 2022-04-14 トヨタ自動車株式会社 リハビリ支援システム、リハビリ支援方法、及びプログラム
WO2023157855A1 (ja) * 2022-02-21 2023-08-24 パナソニックホールディングス株式会社 運動機能指標値変化量の推定方法、推定装置、及び推定プログラム、並びに、運動機能指標値変化量推定モデルの生成方法、生成装置、及び生成プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001000420A (ja) 1999-06-16 2001-01-09 Hitachi Plant Eng & Constr Co Ltd 目標達成度評価装置及び目標達成度評価方法
JP2001218746A (ja) 1995-09-13 2001-08-14 Seiko Epson Corp 健康状態管理装置
JP2011019669A (ja) * 2009-07-15 2011-02-03 Suncall Engineering Kk 歩行診断支援システム、歩行パターン生成装置、歩行パターン生成プログラム、及び歩行パターン生成方法
JP2012120579A (ja) * 2010-12-06 2012-06-28 Seiko Epson Corp 運動解析装置
JP2014238791A (ja) * 2013-06-10 2014-12-18 富士通株式会社 情報提供装置および情報提供方法
WO2016002885A1 (ja) * 2014-07-03 2016-01-07 帝人ファーマ株式会社 リハビリテーション支援装置及びリハビリテーション支援装置の制御プログラム
JP2016197330A (ja) * 2015-04-03 2016-11-24 日本電気株式会社 分析システム、リハビリテーション支援システム、方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007520310A (ja) * 2004-02-05 2007-07-26 モトリカ インク 歩行リハビリテーション方法及び器械
JP5113520B2 (ja) * 2004-08-25 2013-01-09 モトリカ リミテッド 脳の可塑性による運動訓練
US10225184B2 (en) * 2015-06-30 2019-03-05 Nicira, Inc. Redirecting traffic in a virtual distributed router environment
US20170055918A1 (en) * 2015-08-28 2017-03-02 Focus Ventures, Inc. Automated motion of interest recognition, detection and self-learning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001218746A (ja) 1995-09-13 2001-08-14 Seiko Epson Corp 健康状態管理装置
JP2001000420A (ja) 1999-06-16 2001-01-09 Hitachi Plant Eng & Constr Co Ltd 目標達成度評価装置及び目標達成度評価方法
JP2011019669A (ja) * 2009-07-15 2011-02-03 Suncall Engineering Kk 歩行診断支援システム、歩行パターン生成装置、歩行パターン生成プログラム、及び歩行パターン生成方法
JP2012120579A (ja) * 2010-12-06 2012-06-28 Seiko Epson Corp 運動解析装置
JP2014238791A (ja) * 2013-06-10 2014-12-18 富士通株式会社 情報提供装置および情報提供方法
WO2016002885A1 (ja) * 2014-07-03 2016-01-07 帝人ファーマ株式会社 リハビリテーション支援装置及びリハビリテーション支援装置の制御プログラム
JP2016197330A (ja) * 2015-04-03 2016-11-24 日本電気株式会社 分析システム、リハビリテーション支援システム、方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3649940A4

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020234957A1 (ja) * 2019-05-20 2020-11-26 日本電信電話株式会社 リハビリ支援システム、およびリハビリ支援方法
JPWO2020234957A1 (ja) * 2019-05-20 2020-11-26
JP7298685B2 (ja) 2019-05-20 2023-06-27 日本電信電話株式会社 リハビリ支援システム、およびリハビリ支援方法
CN112043556A (zh) * 2019-06-07 2020-12-08 丰田自动车株式会社 康复训练系统和存储有康复训练的评价程序的可供计算机读取的存储介质
JP2021003541A (ja) * 2019-06-27 2021-01-14 トヨタ自動車株式会社 学習装置、リハビリ支援システム、方法、プログラム、及び学習済みモデル
US12093815B2 (en) 2019-06-27 2024-09-17 Toyota Jidosha Kabushiki Kaisha Learning system, rehabilitation support system, method, program, and trained model
JP7326927B2 (ja) 2019-06-27 2023-08-16 トヨタ自動車株式会社 学習装置、リハビリ支援システム、方法、プログラム、及び学習済みモデル
JP7326926B2 (ja) 2019-06-27 2023-08-16 トヨタ自動車株式会社 学習装置、リハビリ支援システム、方法、プログラム、及び学習済みモデル
CN112137835A (zh) * 2019-06-27 2020-12-29 丰田自动车株式会社 学习系统、复健辅助系统、方法、程序及学习完毕模型
JP2021003521A (ja) * 2019-06-27 2021-01-14 トヨタ自動車株式会社 学習装置、リハビリ支援システム、方法、プログラム、及び学習済みモデル
JP7293915B2 (ja) 2019-06-28 2023-06-20 トヨタ自動車株式会社 学習装置、歩行訓練装置、システム、方法、プログラム、及び学習済みモデル
JP2021007481A (ja) * 2019-06-28 2021-01-28 トヨタ自動車株式会社 学習装置、歩行訓練装置、システム、方法、プログラム、及び学習済みモデル
US12087447B2 (en) 2019-06-28 2024-09-10 Toyota Jidosha Kabushiki Kaisha Learning system, walking training system, system, method, program, and trained model
JPWO2021065184A1 (ja) * 2019-10-04 2021-04-08
JP7276477B2 (ja) 2019-10-04 2023-05-18 日本電気株式会社 リハビリ計画装置、リハビリ計画システム、リハビリ計画方法、及びプログラム
JP2021060768A (ja) * 2019-10-04 2021-04-15 日本電気株式会社 リハビリ業務支援装置、リハビリ業務支援方法、及びプログラム
WO2021065183A1 (ja) * 2019-10-04 2021-04-08 日本電気株式会社 リハビリ業務支援装置、リハビリ業務支援システム、リハビリ業務支援方法、及びコンピュータ可読媒体
WO2021065184A1 (ja) * 2019-10-04 2021-04-08 日本電気株式会社 リハビリ計画装置、リハビリ計画システム、リハビリ計画方法、及びコンピュータ可読媒体
JP7349077B2 (ja) 2019-10-04 2023-09-22 日本電気株式会社 リハビリ業務支援装置、リハビリ業務支援方法、及びプログラム
JP2021114021A (ja) * 2020-01-16 2021-08-05 コニカミノルタ株式会社 リハビリテーションを支援する情報の提供の方法およびリハビリテーション支援システム
JP7388200B2 (ja) 2020-01-16 2023-11-29 コニカミノルタ株式会社 リハビリテーションを支援する情報の提供の方法およびリハビリテーション支援システム
JP2022060099A (ja) * 2020-10-02 2022-04-14 トヨタ自動車株式会社 リハビリ支援システム、リハビリ支援方法、及びプログラム
JP7405054B2 (ja) 2020-10-02 2023-12-26 トヨタ自動車株式会社 リハビリ支援システム、リハビリ支援方法、及びプログラム
WO2023157855A1 (ja) * 2022-02-21 2023-08-24 パナソニックホールディングス株式会社 運動機能指標値変化量の推定方法、推定装置、及び推定プログラム、並びに、運動機能指標値変化量推定モデルの生成方法、生成装置、及び生成プログラム

Also Published As

Publication number Publication date
EP3649940A1 (en) 2020-05-13
JPWO2019008657A1 (ja) 2020-05-21
EP3649940A4 (en) 2020-05-20
JP7001095B2 (ja) 2022-02-03

Similar Documents

Publication Publication Date Title
JP7001095B2 (ja) 情報処理装置、情報処理プログラム及び情報処理方法
CN110738192B (zh) 人体运动功能辅助评估方法、装置、设备、系统及介质
US8007450B2 (en) Systems, devices, and methods for interpreting movement
AU2017202152B2 (en) Method and system for determining postural balance of a person
JP7057589B2 (ja) 医療情報処理システム、歩行状態定量化方法およびプログラム
JP6433805B2 (ja) 運動機能診断装置及び方法、並びにプログラム
CN112970074A (zh) 身体活动量化和监测
Leightley et al. Benchmarking human motion analysis using kinect one: An open source dataset
WO2018211550A1 (ja) 情報処理装置、情報処理システム及び情報処理方法
Williams et al. Assessment of physical rehabilitation movements through dimensionality reduction and statistical modeling
Rahman Multimedia environment toward analyzing and visualizing live kinematic data for children with hemiplegia
CN113974612A (zh) 一种卒中患者上肢运动功能自动化评估方法与系统
CN114973048A (zh) 康复动作的纠正方法、装置、电子设备及可读介质
Van Wouwe et al. Diffusion inertial poser: Human motion reconstruction from arbitrary sparse imu configurations
Josiński et al. Assessment of local dynamic stability in gait based on univariate and multivariate time series
JP7113274B2 (ja) 下肢筋力推定システム、下肢筋力推定方法、及び、プログラム
Albert et al. A computer vision approach to continuously monitor fatigue during resistance training
Van Wouwe et al. DiffusionPoser: Real-time Human Motion Reconstruction From Arbitrary Sparse Sensors Using Autoregressive Diffusion
O’Hara et al. Introduction to special issue on body tracking and healthcare
Yee et al. Vision-based motion capture for the gait analysis of neurodegenerative diseases: A review
Goulao Kinematic data filtering with unscented kalman filter
JP2024087325A (ja) 行動解析結果出力方法、行動解析結果出力プログラム、および行動解析結果出力システム
Richmond Gait Analysis and Rehabilitation Using Web-Based Pose Estimation
Haaren Objective quantification of in-hospital patient mobilisation after cardiac surgery
Zhang et al. Edge Computing Assisted Internet of Things in Sports Management System

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17917162

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019528224

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017917162

Country of ref document: EP

Effective date: 20200204