WO2023127010A1 - 移動能力推定装置、移動能力推定システム、移動能力推定方法、および記録媒体 - Google Patents

移動能力推定装置、移動能力推定システム、移動能力推定方法、および記録媒体 Download PDF

Info

Publication number
WO2023127010A1
WO2023127010A1 PCT/JP2021/048552 JP2021048552W WO2023127010A1 WO 2023127010 A1 WO2023127010 A1 WO 2023127010A1 JP 2021048552 W JP2021048552 W JP 2021048552W WO 2023127010 A1 WO2023127010 A1 WO 2023127010A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobility
data
feature amount
estimation
user
Prior art date
Application number
PCT/JP2021/048552
Other languages
English (en)
French (fr)
Inventor
晨暉 黄
史行 二瓶
シンイ オウ
浩司 梶谷
善喬 野崎
謙一郎 福司
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/048552 priority Critical patent/WO2023127010A1/ja
Publication of WO2023127010A1 publication Critical patent/WO2023127010A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb

Definitions

  • the present disclosure relates to a mobility estimation device or the like that estimates mobility using sensor data related to leg movements.
  • gait characteristics included in walking patterns.
  • characteristics also called gait
  • techniques for analyzing gaits based on sensor data measured by sensors mounted on footwear such as shoes have been developed.
  • Characteristics of gait events (also called gait events) associated with physical conditions appear in time-series data of sensor data.
  • Patent Document 1 discloses a device that detects foot abnormalities based on the walking characteristics of a pedestrian.
  • the device of Patent Literature 1 uses data acquired from sensors installed on the footwear to extract characteristic walking feature amounts in the walking of a pedestrian wearing footwear.
  • the device of Patent Literature 1 detects an abnormality of a pedestrian walking while wearing footwear, based on the extracted walking feature amount. For example, the device of Patent Literature 1 extracts characteristic regions related to hallux valgus from walking waveform data for one step cycle.
  • the device of Patent Literature 1 estimates the state of progression of hallux valgus using the gait feature amount of the extracted feature site.
  • Patent Document 2 discloses a walking analysis device that estimates walking ability according to acceleration measured by an accelerometer installed on the waist.
  • the device of Patent Literature 2 measures the temporal change in acceleration of at least one of the vertical direction, front-rear direction, and left-right direction of the waist during walking.
  • the device of Patent Literature 2 extracts a specific period during which a specific walking motion is performed during walking based on the time change of any acceleration.
  • the device of Patent Literature 2 calculates an estimated index related to walking ability during walking based on the time change of any acceleration in a specific period.
  • the device of Patent Literature 2 estimates the walking ability by using the relationship between the calculated estimation index, the previously prepared estimation index, and the walking ability.
  • TUG Time Up and Go
  • the TUG test consists of three parts: standing, walking, and turning. The subject stands up from a chair, walks toward a mark 3 m (meters) ahead, turns around at the mark, walks toward the chair on which he or she was sitting, and sits down on the chair. The score of the TUG test is evaluated by the time taken for this series of operations.
  • Non-Patent Document 1 reports the results of verifying the TUG test for healthy young people around the age of 20 and healthy elderly people around the age of 70.
  • Non-Patent Document 1 verifies the ratio of each of standing, walking, and turning, which constitute the TUG test. According to the verification of Non-Patent Document 1, the percentage of healthy elderly people standing and sitting was 18% (percentage), the percentage of direction change was 12%, and the percentage of walking back and forth was 70%.
  • Non-Patent Document 2 reports on a case where the muscle activity of the supporting leg during a direction change was verified using a sole pressure sensor and an electromyograph.
  • Non-Patent Document 2 reports that cross-stepping is characterized by increased muscle activity of the gluteus medius, tensor fasciae latae, peroneus longus, and lateral head of the gastrocnemius.
  • Non-Patent Document 2 reports that side stepping is characterized by an increase in muscle activity of the plantar flexion/inversion muscle group (mainly the tibialis anterior muscle) and the medial head of the gastrocnemius muscle.
  • Patent Literature 1 does not disclose estimating mobility ability using walking feature amounts of characteristic regions extracted from data acquired from sensors installed on footwear.
  • the walking ability of the subject is estimated according to the acceleration measured by the accelerometer installed on the waist of the subject.
  • walking ability such as walking speed, stride length, knee extension force, and dorsiflexion force is estimated according to the calculated estimation index.
  • the walking ability of the subject is estimated according to the acceleration measured by the accelerometer on the waist.
  • the method of Patent Document 2 estimates the walking ability according to the movement of the waist, but cannot verify the leg muscle strength according to the movement of the legs.
  • Non-Patent Document 1 if the TUG test is evaluated, standing and sitting, walking, and turning, which are included in mobility ability, can be evaluated in detail. Further, as in Non-Patent Document 2, if a sole pressure sensor or an electromyograph is used, it is possible to evaluate in detail the change of direction included in the motion of locomotion. However, Non-Patent Documents 1 and 2 do not disclose a method for evaluating mobility in daily life.
  • An object of the present disclosure is to provide a mobility estimation device or the like that can appropriately estimate mobility in daily life.
  • a mobility estimation device includes a data acquisition unit that acquires feature amount data including a feature amount used for estimating a user's mobility, which is extracted from sensor data related to the movement of the user's legs; A storage unit that stores an estimation model that outputs a mobility index according to input of amount data; a storage unit that inputs the acquired feature amount data to the estimation model; An estimating unit for estimating mobility and an output unit for outputting information on the estimated mobility of the user.
  • feature amount data including the feature amount used for estimating the mobility ability of the user, which is extracted from sensor data relating to the movement of the user's legs, is acquired, and the acquired feature
  • the amount data is input to an estimation model that outputs a mobility index according to the input of the feature amount data, the user's mobility is estimated according to the mobility index output from the estimation model, and the estimated user's mobility is calculated.
  • Print information about mobility is input to an estimation model that outputs a mobility index according to the input of the feature amount data, the user's mobility is estimated according to the mobility index output from the estimation model, and the estimated user's mobility is calculated.
  • a program includes a process of acquiring feature amount data including a feature amount used for estimating a user's movement ability, which is extracted from sensor data relating to the movement of the user's feet; into an estimation model that outputs a mobility index according to the input of the feature amount data, a process of estimating the mobility ability of the user according to the mobility index output from the estimation model, and an estimated and a process of outputting information about the mobility ability of the user.
  • a mobility estimation device or the like capable of appropriately estimating mobility in daily life.
  • FIG. 1 is a block diagram showing an example of a configuration of a mobility estimation system according to a first embodiment
  • FIG. 1 is a block diagram showing an example of the configuration of a gait measuring device included in the mobility estimation system according to the first embodiment
  • FIG. 1 is a conceptual diagram showing an arrangement example of a gait measuring device according to a first embodiment
  • FIG. 2 is a conceptual diagram for explaining an example of the relationship between a local coordinate system and a world coordinate system set in the gait measuring device according to the first embodiment
  • FIG. 2 is a conceptual diagram for explaining a human body surface used in explaining the gait measuring device according to the first embodiment
  • FIG. 2 is a conceptual diagram for explaining a walking cycle used in explaining the gait measuring device according to the first embodiment
  • 5 is a graph for explaining an example of time-series data of sensor data measured by the gait measuring device according to the first embodiment
  • FIG. 4 is a diagram for explaining an example of normalization of walking waveform data extracted from time-series data of sensor data measured by the gait measuring device according to the first embodiment
  • FIG. 4 is a conceptual diagram for explaining an example of a walking phase cluster from which feature amounts are extracted by a feature amount data generation unit of the gait measuring device according to the first embodiment
  • 1 is a block diagram showing an example of the configuration of a mobility estimation device included in the mobility estimation system according to the first embodiment
  • 2 is a conceptual diagram for explaining a TUG (Time Up and Go) test for evaluating mobility that is an estimation target of the mobility estimation system according to the first embodiment
  • 4 is a table relating to specific examples of feature values extracted by the gait measuring device included in the mobility estimation system according to the first embodiment to estimate TUG test results (TUG required time).
  • 7 is a graph showing the correlation between the feature amount F1 extracted by the gait measuring device included in the mobility estimation system according to the first embodiment and the actually measured required TUG time.
  • 7 is a graph showing the correlation between the feature amount F2 extracted by the gait measuring device included in the mobility estimation system according to the first embodiment and the actually measured TUG required time.
  • 7 is a graph showing the correlation between the feature amount F3 extracted by the gait measuring device included in the mobility estimation system according to the first embodiment and the actually measured TUG required time.
  • 7 is a graph showing the correlation between the feature amount F4 extracted by the gait measuring device included in the mobility estimation system according to the first embodiment and the actually measured TUG required time.
  • 7 is a graph showing the correlation between the feature amount F5 extracted by the gait measuring device included in the mobility estimation system according to the first embodiment and the actually measured required TUG time.
  • 7 is a graph showing the correlation between the feature quantity F6 extracted by the gait measuring device included in the mobility estimation system according to the first embodiment and the actually measured TUG required time.
  • FIG. 4 is a block diagram showing an example of estimation of TUG required time (mobility capability index) by a mobility estimation device included in the mobility estimation system according to the first embodiment;
  • FIG. A graph showing the correlation between the estimated TUG required time estimated using an estimated model generated by learning with sex, age, height, weight, and walking speed as explanatory variables and the measured TUG required time.
  • is. 7 is a graph showing a correlation between an estimated value of the TUG required time estimated by the mobility estimation device included in the mobility estimation system according to the first embodiment and a measured value of the TUG required time.
  • FIG. FIG. 11 is a block diagram showing an example of the configuration of a learning system according to a second embodiment;
  • FIG. FIG. 11 is a block diagram showing an example of the configuration of a learning device included in a learning system according to a second embodiment;
  • FIG. FIG. 11 is a conceptual diagram for explaining an example of learning by a learning device included in a learning system according to a second embodiment;
  • FIG. 12 is a block diagram showing an example of the configuration of a mobility estimation device according to a third embodiment;
  • FIG. It is a block diagram showing an example of hardware constitutions which perform control and processing of each embodiment.
  • the mobility estimation system of the present embodiment measures sensor data related to the movement of the user's feet as they walk.
  • the mobility estimation system of this embodiment uses the measured sensor data to estimate the mobility of the user.
  • an example of estimating a TUG (Time Up and Go) test score is given as mobility ability.
  • the performance of the TUG test is evaluated by the time required to stand up from the chair, walk to a landmark, turn around, and sit back on the chair (also called TUG required time).
  • the TUG required time is the result value of the TUG test. The shorter the TUG duration, the better the TUG test performance.
  • the method of the present embodiment can also be applied to test results related to movement ability other than the TUG test.
  • FIG. 1 is a block diagram showing an example of the configuration of a mobility estimation system 1 according to this embodiment.
  • a mobility estimation system 1 includes a gait measuring device 10 and a mobility estimation device 13 .
  • the gait measuring device 10 and the mobility estimation device 13 are configured as separate hardware will be described.
  • the gait measuring device 10 is installed on footwear or the like of a subject (user) whose mobility is to be estimated.
  • the function of the mobility estimation device 13 is installed in a mobile terminal carried by a subject (user).
  • the configurations of the gait measuring device 10 and the mobility estimating device 13 will be individually described below.
  • FIG. 2 is a block diagram showing an example of the configuration of the gait measuring device 10. As shown in FIG. The gait measuring device 10 has a sensor 11 and a feature quantity data generator 12 . In this embodiment, an example in which the sensor 11 and the feature amount data generation unit 12 are integrated will be given. The sensor 11 and feature amount data generator 12 may be provided as separate devices.
  • the sensor 11 has an acceleration sensor 111 and an angular velocity sensor 112.
  • FIG. 2 shows an example in which the sensor 11 includes an acceleration sensor 111 and an angular velocity sensor 112 .
  • Sensors 11 may include sensors other than acceleration sensor 111 and angular velocity sensor 112 . Description of sensors other than the acceleration sensor 111 and the angular velocity sensor 112 that may be included in the sensor 11 is omitted.
  • the acceleration sensor 111 is a sensor that measures acceleration in three axial directions (also called spatial acceleration).
  • the acceleration sensor 111 measures acceleration (also referred to as spatial acceleration) as a physical quantity related to foot movement.
  • the acceleration sensor 111 outputs the measured acceleration to the feature quantity data generator 12 .
  • the acceleration sensor 111 can be a sensor of a piezoelectric type, a piezoresistive type, a capacitive type, or the like. As long as the sensor used as the acceleration sensor 111 can measure acceleration, the measurement method is not limited.
  • the angular velocity sensor 112 is a sensor that measures angular velocities around three axes (also called spatial angular velocities).
  • the angular velocity sensor 112 measures angular velocity (also referred to as spatial angular velocity) as a physical quantity relating to foot movement.
  • the angular velocity sensor 112 outputs the measured angular velocity to the feature quantity data generator 12 .
  • the angular velocity sensor 112 can be a vibration type sensor or a capacitance type sensor. As long as the sensor used as the angular velocity sensor 112 can measure the angular velocity, the measurement method is not limited.
  • the sensor 11 is realized, for example, by an inertial measurement device that measures acceleration and angular velocity.
  • An example of an inertial measurement device is an IMU (Inertial Measurement Unit).
  • the IMU includes an acceleration sensor 111 that measures acceleration along three axes and an angular velocity sensor 112 that measures angular velocity around three axes.
  • the sensor 11 may be implemented by an inertial measurement device such as VG (Vertical Gyro) or AHRS (Attitude Heading).
  • the sensor 11 may be realized by GPS/INS (Global Positioning System/Inertial Navigation System).
  • the sensor 11 may be implemented by a device other than an inertial measurement device as long as it can measure physical quantities related to foot movement.
  • FIG. 3 is a conceptual diagram showing an example in which the gait measuring device 10 is arranged inside the shoe 100 of the right foot.
  • the gait measuring device 10 is installed at a position corresponding to the back side of the foot arch.
  • the gait measuring device 10 is arranged on an insole that is inserted into the shoe 100 .
  • the gait measuring device 10 may be arranged on the bottom surface of the shoe 100 .
  • the gait measuring device 10 may be embedded in the body of the shoe 100 .
  • the gait measuring device 10 may be detachable from the shoe 100 or may not be detachable from the shoe 100 .
  • the gait measuring device 10 may be installed at a position other than the back side of the arch as long as it can measure sensor data relating to the movement of the foot. Also, the gait measuring device 10 may be installed on a sock worn by the user or an accessory such as an anklet worn by the user. Also, the gait measuring device 10 may be attached directly to the foot or embedded in the foot. FIG. 3 shows an example in which the gait measuring device 10 is installed on the shoe 100 of the right foot. The gait measuring device 10 may be installed on the shoes 100 of both feet.
  • a local coordinate system is set with the gait measuring device 10 (sensor 11) as a reference, including the x-axis in the horizontal direction, the y-axis in the front-back direction, and the z-axis in the vertical direction.
  • the x-axis is positive to the left
  • the y-axis is positive to the rear
  • the z-axis is positive to the top.
  • the directions of the axes set in the sensors 11 may be the same for the left and right feet, or may be different for the left and right feet.
  • the vertical directions (directions in the Z-axis direction) of the sensors 11 placed in the left and right shoes 100 are the same. .
  • the three axes of the local coordinate system set in the sensor data derived from the left leg and the three axes of the local coordinate system set in the sensor data derived from the right leg are the same on the left and right.
  • FIG. 4 shows a local coordinate system (x-axis, y-axis, z-axis) set in the gait measuring device 10 (sensor 11) installed on the back side of the foot and a world coordinate system set with respect to the ground.
  • FIG. 2 is a conceptual diagram for explaining (X-axis, Y-axis, Z-axis);
  • the world coordinate system X-axis, Y-axis, Z-axis
  • the user's lateral direction is the X-axis direction (leftward is positive)
  • the user's back direction is The Y-axis direction (backward is positive) and the direction of gravity is set to the Z-axis direction (vertically upward is positive).
  • FIG. 5 is a conceptual diagram for explaining the plane set for the human body (also called the human body plane).
  • a sagittal plane that divides the body left and right a coronal plane that divides the body front and back, and a horizontal plane that divides the body horizontally are defined.
  • the world coordinate system and the local coordinate system coincide with each other when the user stands upright with the center line of the foot facing the direction of travel.
  • rotation in the sagittal plane with the x-axis as the rotation axis is roll
  • rotation in the coronal plane with the y-axis as the rotation axis is pitch
  • rotation in the horizontal plane with the z-axis as the rotation axis is yaw.
  • the rotation angle in the sagittal plane with the x-axis as the rotation axis is the roll angle
  • the rotation angle in the coronal plane with the y-axis as the rotation axis is the pitch angle
  • the rotation angle in the horizontal plane with the z-axis as the rotation axis is defined as the yaw angle.
  • the feature amount data generation unit 12 (also called a feature amount data generation device) has an acquisition unit 121, a normalization unit 122, an extraction unit 123, a generation unit 125, and a feature amount data output unit 127.
  • the feature amount data generator 12 is implemented by a microcomputer or microcontroller that performs overall control and data processing of the gait measuring device 10 .
  • the feature data generator 12 has a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), flash memory, and the like.
  • the feature amount data generator 12 controls the acceleration sensor 111 and the angular velocity sensor 112 to measure angular velocity and acceleration.
  • the feature amount data generator 12 may be mounted on a mobile terminal (not shown) carried by a subject (user).
  • the acquisition unit 121 acquires acceleration in three axial directions from the acceleration sensor 111 . Also, the obtaining unit 121 obtains angular velocities about three axes from the angular velocity sensor 112 . For example, the acquisition unit 121 performs AD conversion (Analog-to-Digital Conversion) on physical quantities (analog data) such as the acquired angular velocity and acceleration. Physical quantities (analog data) measured by acceleration sensor 111 and angular velocity sensor 112 may be converted into digital data by acceleration sensor 111 and angular velocity sensor 112, respectively. The acquisition unit 121 outputs converted digital data (also referred to as sensor data) to the normalization unit 122 . Acquisition unit 121 may be configured to store sensor data in a storage unit (not shown).
  • the sensor data includes at least acceleration data converted into digital data and angular velocity data converted into digital data.
  • the acceleration data includes acceleration vectors in three axial directions.
  • the angular velocity data includes angular velocity vectors around three axes. Acceleration data and angular velocity data are associated with acquisition times of those data. Further, the acquisition unit 121 may apply corrections such as mounting error correction, temperature correction, and linearity correction to the acceleration data and the angular velocity data.
  • the normalization unit 122 acquires sensor data from the acquisition unit 121.
  • the normalization unit 122 extracts time-series data (also referred to as walking waveform data) for one step cycle from the time-series data of the acceleration in the three-axis direction and the angular velocity around the three axes included in the sensor data.
  • the normalization unit 122 normalizes (also referred to as first normalization) the time of the extracted walking waveform data for one step cycle to a walking cycle of 0 to 100% (percentage). Timings such as 1% and 10% included in the 0-100% walking cycle are also called walking phases.
  • the normalization unit 122 normalizes the first normalized walking waveform data for one step cycle so that the stance phase is 60% and the swing phase is 40% (also referred to as second normalization). do.
  • the stance phase is the period during which at least part of the sole of the foot is in contact with the ground.
  • the swing phase is the period during which the sole of the foot is off the ground.
  • FIG. 6 is a conceptual diagram for explaining the step cycle based on the right foot.
  • the step cycle based on the left foot is also the same as the right foot.
  • the horizontal axis of FIG. 6 represents one gait cycle of the right foot starting when the heel of the right foot lands on the ground and ending when the heel of the right foot lands on the ground.
  • the horizontal axis in FIG. 6 is first normalized with the stride cycle as 100%.
  • the horizontal axis in FIG. 6 is second normalized so that the stance phase is 60% and the swing phase is 40%.
  • One walking cycle of one leg is roughly divided into a stance phase in which at least part of the sole of the foot is in contact with the ground, and a swing phase in which the sole of the foot is separated from the ground.
  • the stance phase is further subdivided into a load response period T1, a middle stance period T2, a final stance period T3, and an early swing period T4.
  • the swing phase is further subdivided into early swing phase T5, middle swing phase T6, and final swing phase T7.
  • FIG. 6 is an example, and does not limit the periods constituting the one-step cycle, the names of those periods, and the like.
  • E1 represents an event (heel contact) in which the heel of the right foot touches the ground (HC: Heel Contact).
  • E2 represents an event in which the toe of the left foot leaves the ground while the sole of the right foot is in contact with the ground (OTO: Opposite Toe Off).
  • E3 represents an event (heel rise) in which the heel of the right foot is lifted while the sole of the right foot is in contact with the ground (HR: Heel Rise).
  • E4 is an event in which the heel of the left foot touches the ground (opposite heel strike) (OHS: Opposite Heel Strike).
  • E5 represents an event (toe off) in which the toe of the right foot leaves the ground while the sole of the left foot is in contact with the ground (TO: Toe Off).
  • E6 represents an event (Foot Adjacent) in which the left foot and the right foot cross each other while the sole of the left foot is in contact with the ground (FA: Foot Adjacent).
  • E7 represents an event (tibia vertical) in which the tibia of the right foot becomes almost vertical to the ground while the sole of the left foot is in contact with the ground (TV: Tibia Vertical).
  • E8 represents an event (heel contact) in which the heel of the right foot touches the ground (HC: Heel Contact).
  • E8 corresponds to the end point of the walking cycle starting from E1 and the starting point of the next walking cycle. Note that FIG. 6 is an example, and does not limit the events that occur during walking and the names of those events.
  • FIG. 7 is a diagram for explaining an example of detecting heel contact HC and toe off TO from time-series data (solid line) of traveling direction acceleration (Y-direction acceleration).
  • the timing of heel contact HC is the timing of the minimum peak immediately after the maximum peak appearing in the time-series data of traveling direction acceleration (Y-direction acceleration).
  • the maximum peak that marks the timing of heel contact HC corresponds to the maximum peak of the walking waveform data for one step cycle.
  • the interval between successive heel strikes HC is the stride period.
  • the timing of the toe-off TO is the timing of the rise of the maximum peak that appears after the period of the stance phase in which no change appears in the time-series data of the acceleration in the traveling direction (the Y-direction acceleration).
  • time-series data (dashed line) of the roll angle (angular velocity around the X-axis).
  • the midpoint timing between the timing when the roll angle is minimum and the timing when the roll angle is maximum corresponds to the middle stage of stance.
  • parameters also called gait parameters
  • walking speed stride length
  • circumcision internal rotation/external rotation
  • plantarflexion/dorsiflexion etc.
  • FIG. 8 is a diagram for explaining an example of walking waveform data normalized by the normalization unit 122.
  • the normalization unit 122 detects heel contact HC and toe off TO from the time-series data of traveling direction acceleration (Y-direction acceleration).
  • the normalization unit 122 extracts the interval between consecutive heel strikes HC as walking waveform data for one step cycle.
  • the normalization unit 122 converts the horizontal axis (time axis) of the walking waveform data for one step cycle into a walking cycle of 0 to 100% by the first normalization.
  • the walking waveform data after the first normalization is indicated by a dashed line.
  • the timing of the toe take-off TO deviates from 60%.
  • the normalization unit 122 normalizes the section from the heel contact HC at 0% in the walking phase to the toe-off TO following the heel contact HC to 0-60%. Further, the normalization unit 122 normalizes the section from the toe-off TO to the heel-contact HC in which the walking phase subsequent to the toe-off TO is 100% to 60 to 100%.
  • the gait waveform data for one step cycle is normalized into a section of 0 to 60% of the gait cycle (stance phase) and a section of 60 to 100% of the gait cycle (swing phase).
  • the walking waveform data after the second normalization is indicated by a solid line. In the second normalized walking waveform data (solid line), the timing of the toe take-off TO coincides with 60%.
  • the normalization unit 122 extracts/normalizes the walking waveform data for one step cycle in accordance with the walking cycle of the acceleration in the direction of travel (the acceleration in the Y direction). . Further, the normalization unit 122 may generate time-series data of angles about three axes by integrating time-series data of angular velocities about three axes. In this case, the normalization unit 122 also extracts/normalizes the walking waveform data for one step cycle in accordance with the walking cycle of the acceleration in the direction of travel (acceleration in the Y direction) for angles around the three axes.
  • the normalization unit 122 may extract/normalize walking waveform data for one step cycle based on acceleration/angular velocity other than acceleration in the direction of travel (acceleration in the Y direction) (not shown). For example, the normalization unit 122 may detect heel contact HC and toe off TO from time series data of vertical direction acceleration (Z direction acceleration).
  • the timing of the heel contact HC is the timing of a sharp minimum peak appearing in the time-series data of vertical acceleration (Z-direction acceleration). At the timing of the sharp minimum peak, the value of the vertical acceleration (Z-direction acceleration) becomes almost zero.
  • the minimum peak that marks the timing of heel contact HC corresponds to the minimum peak of walking waveform data for one step cycle.
  • the interval between successive heel strikes HC is the stride period.
  • the timing of the toe-off TO is the inflection point during which the time-series data of the vertical acceleration (Z-direction acceleration) gradually increases after the maximum peak immediately after the heel contact HC, and then passes through a section with small fluctuations. It's timing.
  • the normalization unit 122 may extract/normalize the walking waveform data for one step cycle based on both the traveling direction acceleration (Y-direction acceleration) and the vertical direction acceleration (Z-direction acceleration).
  • the normalization unit 122 extracts/normalizes the walking waveform data for one step cycle based on acceleration, angular velocity, angle, etc. other than the traveling direction acceleration (Y direction acceleration) and vertical direction acceleration (Z direction acceleration). may
  • the extraction unit 123 acquires walking waveform data for one step cycle normalized by the normalization unit 122 .
  • the extraction unit 123 extracts a feature amount used for estimating mobility ability from the walking waveform data for one step cycle.
  • the extraction unit 123 extracts a feature amount for each walking phase cluster from walking phase clusters obtained by integrating temporally continuous walking phases based on preset conditions.
  • a walking phase cluster includes at least one walking phase.
  • a gait phase cluster also includes a single gait phase. The walking waveform data and the walking phase from which the feature amount used for estimating mobility will be extracted will be described later.
  • FIG. 9 is a conceptual diagram for explaining extraction of a feature amount for estimating mobility ability from walking waveform data for one step cycle.
  • the extraction unit 123 extracts temporally continuous walking phases i to i+m as a walking phase cluster C (i and m are natural numbers).
  • the walking phase cluster C includes m walking phases (components). That is, the number of walking phases (constituent elements) constituting the walking phase cluster C (also referred to as the number of constituent elements) is m.
  • FIG. 9 shows an example in which the walking phase is an integer value, the walking phase may be subdivided to decimal places.
  • the number of constituent elements of the walking phase cluster C is a number corresponding to the number of data points in the section of the walking phase cluster.
  • the extraction unit 123 extracts feature amounts from each of the walking phases i to i+m.
  • the extraction unit 123 extracts the feature quantity from the single walking phase j (j is a natural number).
  • the generation unit 125 applies the feature quantity constitutive formula to the feature quantity (first feature quantity) extracted from each of the walking phases that make up the walking phase cluster, and generates the feature quantity (second feature quantity) of the walking phase cluster.
  • the feature quantity constitutive formula is a calculation formula set in advance to generate the feature quantity of the walking phase cluster.
  • the feature quantity configuration formula is a calculation formula regarding the four arithmetic operations.
  • the second feature amount calculated using the feature amount construction formula is the integral average value, arithmetic average value, inclination, variation, etc. of the first feature amount in each walking phase included in the walking phase cluster.
  • the generation unit 125 applies a calculation formula for calculating the slope and variation of the first feature amount extracted from each of the walking phases forming the walking phase cluster as the feature amount configuration formula. For example, if the walking phase cluster is composed of a single walking phase, the inclination and the variation cannot be calculated, so a feature value constitutive formula that calculates an integral average value or an arithmetic average value may be used.
  • the feature amount data output unit 127 outputs feature amount data for each walking phase cluster generated by the generation unit 125 .
  • the feature amount data output unit 127 outputs the feature amount data of the generated walking phase cluster to the mobility estimation device 13 that uses the feature amount data.
  • FIG. 10 is a block diagram showing an example of the configuration of the mobility estimation device 13. As shown in FIG. Mobility estimation device 13 has data acquisition unit 131 , storage unit 132 , estimation unit 133 , and output unit 135 .
  • the data acquisition unit 131 acquires feature amount data from the gait measurement device 10 .
  • the data acquisition unit 131 outputs the received feature amount data to the estimation unit 133 .
  • the data acquisition unit 131 may receive the feature amount data from the gait measurement device 10 via a cable such as a cable, or may receive the feature amount data from the gait measurement device 10 via wireless communication. .
  • the data acquisition unit 131 receives feature data from the gait measuring device 10 via a wireless communication function (not shown) conforming to standards such as Bluetooth (registered trademark) and WiFi (registered trademark). Configured.
  • the communication function of the data acquisition unit 131 may conform to standards other than Bluetooth (registered trademark) and WiFi (registered trademark).
  • the storage unit 132 stores an estimation model for estimating the TUG required time as a mobility index using the feature data extracted from the walking waveform data.
  • the storage unit 132 stores an estimation model that has learned the relationship between feature amount data relating to TUG required times of a plurality of subjects and TUG required times.
  • the storage unit 132 stores an estimation model for estimating the required TUG time that has been learned for a plurality of subjects. TUG duration is affected by age. Therefore, the storage unit 132 may store an estimation model corresponding to age-related attribute data.
  • FIG. 11 is a conceptual diagram for explaining the TUG test.
  • the subject stands up from a chair and walks toward the marked position.
  • the subject changes direction at the position of the mark and walks toward the chair he was sitting on earlier.
  • the subject returns to the chair and sits in it.
  • the measurement starts when the subject stands up from the chair, turns around at the mark, and ends when the subject sits on the chair again.
  • the time required for this series of operations is the TUG required time.
  • the mobility ability can be evaluated according to the TUG required time.
  • TUG required time 7.4 seconds or more for men and 7.5 seconds or more for women, it is said to correspond to specific elderly people
  • Non-Patent Document 1 Chihiro Kurosawa, “Healthy Kinematic Analysis of Timed Up and Go Test in the Elderly”, International University of Health and Welfare Examination Doctoral Dissertation (Ph.D.), 2016.
  • the criteria for evaluation of movement ability according to the TUG required time mentioned here are only a guideline, and may be set according to the situation.
  • the estimation model may be stored in the storage unit 132 at the time of factory shipment of the product or at the time of calibration before the mobility estimation system 1 is used by the user.
  • an estimation model stored in a storage device such as an external server may be used.
  • the estimated model may be used via an interface (not shown) connected to the storage device.
  • the estimation unit 133 acquires feature amount data from the data acquisition unit 131 .
  • the estimation unit 133 estimates the TUG required time as mobility capability using the acquired feature amount data.
  • the estimation unit 133 inputs the feature data to the estimation model stored in the storage unit 132 .
  • the estimation unit 133 outputs an estimation result according to the mobility capability (TUG required time) output from the estimation model.
  • the estimation unit 133 is configured to use the estimation model via an interface (not shown) connected to the storage device. be done.
  • the output unit 135 outputs the estimation result of the movement ability by the estimation unit 133 .
  • the output unit 135 causes the screen of the mobile terminal of the subject (user) to display the estimation result of the mobility ability.
  • the output unit 135 outputs the estimation result to an external system or the like that uses the estimation result. No particular limitation is imposed on the use of the mobility output from the mobility estimation device 13 .
  • the mobility estimation device 13 is connected to an external system built on a cloud or server via a mobile terminal (not shown) carried by the subject (user).
  • a mobile terminal (not shown) is a portable communication device.
  • the mobile terminal is a mobile communication device having a communication function such as a smart phone, a smart watch, or a mobile phone.
  • the mobility estimation device 13 is connected to the mobile terminal via a wire such as a cable.
  • the mobility estimation device 13 is connected to the mobile terminal via wireless communication.
  • the mobility estimation device 13 is connected to the mobile terminal via a wireless communication function (not shown) conforming to standards such as Bluetooth (registered trademark) and WiFi (registered trademark).
  • the communication function of the mobility estimation device 13 may conform to standards other than Bluetooth (registered trademark) and WiFi (registered trademark).
  • the mobile capability estimation result may be used by an application installed on the mobile terminal. In that case, the mobile terminal executes processing using the estimation result by application software or the like installed in the mobile terminal.
  • FIG. 12 is a correspondence table summarizing the feature values used for estimating the TUG required time.
  • the correspondence table in FIG. 12 associates the number of the feature quantity, the walking waveform data from which the feature quantity is extracted, the walking phase (%) from which the walking phase cluster is extracted, and the related muscles.
  • TUG required time is correlated with quadriceps, gluteus maxims, and tibialis anterior. Therefore, the feature amounts F1 to F5 extracted from the walking phases in which these features appear are used for estimating the TUG required time.
  • the TUG test consists of three parts: standing, walking, and turning.
  • Standing and sitting primarily involve the tibialis anterior, gastrocnemius, quadriceps, and biceps femoris muscles.
  • Walking performance is primarily related to stride length, walking speed, and cadence.
  • Cadence is the number of steps taken per minute.
  • a change of direction involves the muscles used in crossstepping and sidestepping. Muscles related to cross-stepping and side-stepping are disclosed in Non-Patent Document 2 (Non-Patent Document 2: Masanori Ito et al., "Direction change during walking", Kansai Physical Therapy, Vol.15, pp.23 -27, 2015).
  • Cross-stepping involves the gluteus medius, tensor fasciae latae, peroneus longus, and lateral head of the gastrocnemius.
  • Side stepping involves the plantar flexor-inverting muscles (mainly the tibialis anterior) and the medial head of the gastrocnemius.
  • Muscle features associated with turning are manifested during specific gait phases.
  • the gluteus medius characteristic appears in the gait phase 0-25%.
  • the tensor fascia lata muscle is characterized during the gait phase 0-45% and 85-100%.
  • the feature of the peroneus longus muscle appears in 10-50% of the gait phase.
  • the tibialis anterior muscle feature is present in the gait phase 0-10%, 57-100%.
  • Gastrocnemius features are present in 10-50% of the gait phase.
  • FIGS. 13 to 18 are the verification results of the correlation between the TUG required time and the feature amount data.
  • FIGS. 13 to 18 show the results of verification performed on a total of 62 subjects, 27 males and 35 females aged 60 to 85 years.
  • 13 to 18 show estimated values estimated using feature values extracted according to walking wearing footwear equipped with the gait measuring device 10, and measured values (true values) of the TUG required time. The result of verifying the correlation with is shown.
  • the feature quantity F1 is extracted from the walking phase 64 to 65% section of the walking waveform data Ax regarding the time-series data of lateral acceleration (X-direction acceleration). Walking phase 64-65% is included in swing initial T5.
  • the feature amount F1 mainly includes features related to the movement of the quadriceps femoris muscle during standing and sitting motions.
  • FIG. 13 shows verification results of the correlation between the feature quantity F1 and the TUG required time.
  • the horizontal axis of the graph in FIG. 13 is the normalized angular velocity.
  • the correlation coefficient R between the feature quantity F1 and the TUG required time was -0.333.
  • the feature quantity F2 is extracted from the walking phase 57% to 58% section of the walking waveform data Gx related to the angular velocity time series data in the sagittal plane (around the X axis).
  • the walking phase 57-58% is included in the early swing phase T4.
  • the feature amount F2 mainly includes features related to the movement of the quadriceps muscle related to the kicking speed of the leg.
  • FIG. 14 shows verification results of the correlation between the feature quantity F2 and the TUG required time.
  • the horizontal axis of the graph in FIG. 1 is the normalized angular velocity.
  • a correlation coefficient R between the feature amount F2 and the TUG required time was 0.338.
  • the feature quantity F3 is extracted from the walking phase 19-20% section of the walking waveform data Gy regarding the time-series data of the angular velocity in the coronal plane (around the Y axis). Walking phase 19-20% is included in mid-stance T2.
  • the feature amount F3 mainly includes features related to the movement of the gluteus maxims muscle during direction change.
  • FIG. 15 shows verification results of the correlation between the feature quantity F3 and the TUG required time.
  • the horizontal axis of the graph in FIG. 15 is the normalized angular velocity.
  • the correlation coefficient R between the feature quantity F3 and the TUG required time was -0.377.
  • the feature quantity F4 is extracted from the walking phase 12% to 13% section of the walking waveform data Ez related to the angular velocity time-series data in the horizontal plane (around the Z axis). Walking phase 12-13% is the beginning of mid-stance T2.
  • the feature amount F4 mainly includes features related to the movement of the gluteus maxims muscle during direction change.
  • FIG. 16 shows verification results of the correlation between the feature quantity F4 and the required TUG time.
  • the horizontal axis of the graph in FIG. 16 is the normalized angular velocity.
  • the correlation coefficient R between the feature quantity F4 and the TUG required time was -0.360.
  • the feature quantity F5 is extracted from the walking phase 74-75% section of the walking waveform data Ez regarding the time-series data of the angular velocity in the horizontal plane (around the Z-axis). Gait phase 74-75% is the beginning of mid-swing T6.
  • the feature amount F5 mainly includes features related to the movement of the tibialis anterior muscle during standing, sitting, and turning.
  • FIG. 17 shows the verification result of the correlation between the feature quantity F5 and the TUG required time.
  • the horizontal axis of the graph in FIG. 17 is the normalized angular velocity.
  • a correlation coefficient R between the feature amount F5 and the TUG required time was 0.324.
  • the feature quantity F6 is extracted from the walking phase 76-80% section of the walking waveform data Ey regarding the time-series data of the angle (posture angle) in the coronal plane (around the Y axis).
  • the gait phase 76-80% is included in mid-swing T6.
  • the feature amount F6 mainly includes features related to the movement of the tibialis anterior muscle during standing, sitting, and turning.
  • FIG. 18 shows verification results of the correlation between the feature quantity F6 and the TUG required time.
  • the horizontal axis of the graph in FIG. 18 is the angle in the coronal plane (around the Y-axis).
  • a correlation coefficient R between the feature amount F6 and the TUG required time was 0.302.
  • FIG. 19 shows an example of inputting feature quantities F1 to F6 extracted from sensor data measured as the user walks into an estimation model 151 that is pre-constructed for estimating the TUG required time as mobility ability.
  • the estimation model 151 outputs the TUG required time, which is a movement ability index, according to the input of the feature quantities F1 to F6.
  • the estimation model 151 is generated by learning using teacher data with the feature quantities F1 to F6 used for estimating the TUG required time as explanatory variables and the TUG required time as the objective variable.
  • the estimation result of the estimation model 151 is not limited as long as the estimated result of the TUG required time, which is an index of mobility, is output in response to the input of the feature amount data for estimating the TUG required time.
  • the estimation model 151 may be a model for estimating the required TUG time using attribute data (age) as explanatory variables in addition to the feature quantities F1 to F6 used for estimating the required TUG time.
  • the storage unit 132 stores an estimation model for estimating the TUG required time using the multiple regression prediction method.
  • the storage unit 132 stores parameters for estimating the TUG required time T using Equation 1 below.
  • T a1 ⁇ F1+a2 ⁇ F2+a3 ⁇ F3+a4 ⁇ F4+a5 ⁇ F5+a6 ⁇ F6+a0
  • F1, F2, F3, F4, F5, and F6 are feature amounts for each walking phase cluster used for estimating the TUG required time shown in the correspondence table of FIG. a1, a2, a3, a4, a5, and a6 are coefficients by which F1, F2, F3, F4, F5, and F6 are multiplied.
  • a0 is a constant term.
  • the storage unit 132 stores a0, a1, a2, a3, a4, a5, and a6.
  • FIG. 20 shows the results of testing the estimation model generated using the measurement data of 61 people using the measurement data of the remaining 1 person by the LOSO (Leave-One-Subject-Out) method.
  • FIG. 20 and FIG. 21 show the results of performing LOSO on all (62) subjects and matching the predicted values and measured values (true values) from the test.
  • the LOSO test results were evaluated by the values of intraclass correlation coefficients (ICC), mean absolute errors (MAE), and coefficients of determination R2 .
  • ICC intraclass correlation coefficients
  • MAE mean absolute errors
  • R2 coefficients of determination
  • FIG. 20 shows the results of verification of an estimation model of a comparative example that has been trained with teacher data using gender, age, height, weight, and walking speed as explanatory variables and TUG required time as an objective variable.
  • the intraclass correlation coefficient ICC(2,1) was 0.44
  • the mean absolute error MAE was 0.69
  • the coefficient of determination R 2 was 0.24.
  • the intraclass correlation coefficient ICC (2, 1) is relatively high, partly because walking speed, which has a large effect on walking, which accounts for 70% of the movements in the TUG test, is included as an explanatory variable. .
  • FIG. 21 shows the results of verification of the estimation model 151 of the present embodiment, which is learned with teacher data using feature quantities F1 to F6 and age as explanatory variables and TUG required time as objective variables.
  • the estimation model 151 of this embodiment had an intraclass correlation coefficient ICC(2, 1) of 0.686, a mean absolute error MAE of 0.62, and a coefficient of determination R 2 of 0.48. That is, the estimation model 151 of the present embodiment has high reliability, small error, and sufficient explanation of the objective variable by explanatory variables, as compared with the estimation model of the comparative example. That is, according to the method of the present embodiment, compared to an estimation model that uses only attributes and walking speed, the estimation model 151 is highly reliable, has a small error, and the objective variable is sufficiently explained by the explanatory variables. can be generated.
  • the walking speed which has a large effect on walking, which accounts for 70% of the movements in the TUG test, is not included in the explanatory variables.
  • the intraclass correlation coefficient ICC (2, 1) is higher in the verification result of FIG. 22 without using the walking speed as an explanatory variable than in the verification result of FIG. .
  • the feature quantities F1 to F6 may include the effect of walking speed, 30% of the motions in the TUG test are sitting down and turning. That is, the results of the TUG test are greatly influenced not only by walking, but also by actions such as standing, sitting, and turning. In other words, walking speed is an important factor in TUG test results, but TUG test results cannot be estimated with high accuracy unless there is a feature value that expresses standing and sitting and direction changes.
  • the operation of the mobility estimation system 1 will be described with reference to the drawings.
  • the gait measuring device 10 and the mobility estimation device 13 included in the mobility estimation system 1 will be individually described.
  • the operation of the feature amount data generation unit 12 included in the gait measuring device 10 will be described.
  • FIG. 22 is a flowchart for explaining the operation of the feature amount data generator 12 included in the gait measuring device 10. As shown in FIG. In the description according to the flow chart of FIG. 22, the feature amount data generation unit 12 will be described as an operator.
  • the feature amount data generation unit 12 acquires time-series data of sensor data related to foot movement (step S101).
  • the feature amount data generation unit 12 extracts walking waveform data for one step cycle from the time-series data of the sensor data (step S102).
  • the feature amount data generator 12 detects heel contact and toe off from the time-series data of the sensor data.
  • the feature amount data generator 12 extracts the time-series data of the interval between successive heel strikes as walking waveform data for one step cycle.
  • the feature amount data generation unit 12 normalizes the extracted walking waveform data for one step cycle (step S103).
  • the feature amount data generator 12 normalizes the walking waveform data for one step cycle to a walking cycle of 0 to 100% (first normalization). Further, the feature amount data generator 12 normalizes the ratio of the stance phase and the swing phase of the walking waveform data for the first normalized step cycle to 60:40 (second normalization).
  • the feature quantity data generation unit 12 extracts the feature quantity from the walking phase used for estimating the mobility ability with respect to the normalized walking waveform (step S104). For example, the feature amount data generation unit 12 extracts feature amounts input to an estimation model constructed in advance.
  • the feature quantity data generation unit 12 uses the extracted feature quantity to generate a feature quantity for each walking phase cluster (step S105).
  • the feature amount data generation unit 12 integrates the feature amounts for each walking phase cluster to generate feature amount data for the one step cycle (step S106).
  • the feature amount data generation unit 12 outputs the generated feature amount data to the mobility estimation device 13 (step S107).
  • FIG. 23 is a flowchart for explaining the operation of the mobility estimation device 13. As shown in FIG. In the explanation along the flow chart of FIG. 23, the mobility estimation device 13 will be explained as an operator.
  • the mobility estimation device 13 first acquires feature amount data generated using sensor data relating to leg movements (step S131).
  • the mobility estimation device 13 inputs the acquired feature amount data into an estimation model for estimating mobility (TUG required time) (step S132).
  • the mobility estimation device 13 estimates the user's mobility according to the output (estimated value) from the estimation model (step S133). For example, the mobility estimation device 13 estimates the user's TUG required time as mobility.
  • the mobility estimation device 13 outputs information about the estimated mobility (step S134). For example, mobility capability is output to a terminal device (not shown) carried by the user. For example, mobility capabilities are output to a system that performs processing using mobility capabilities.
  • the function of the mobility estimation device 13 installed in the portable terminal carried by the user estimates mobility using the feature amount data measured by the gait measurement device 10 placed on the shoe.
  • the function of the mobility estimation device 13 installed in the portable terminal carried by the user estimates mobility using the feature amount data measured by the gait measurement device 10 placed on the shoe.
  • FIG. 24 is a conceptual diagram showing an example of displaying the estimation result by the mobility estimation device 13 on the screen of the mobile terminal 160 carried by the user walking wearing the shoes 100 on which the gait measurement device 10 is arranged.
  • FIG. 24 shows an example of displaying on the screen of the mobile terminal 160 information corresponding to the result of estimating mobility ability using feature amount data corresponding to sensor data measured while the user is walking.
  • FIG. 24 is an example of information displayed on the screen of the mobile terminal 160 according to the estimated value of the TUG required time, which is the mobility ability.
  • the estimated value of the TUG required time is displayed on the display unit of the mobile terminal 160 as the estimation result of the mobility capability.
  • the information about the estimation result of the mobility capability such as "the mobility capability is declining”
  • the recommendation information corresponding to the estimation result of the mobility ability such as “Training A is recommended.
  • the mobility estimation system of this embodiment includes a gait measuring device and a mobility estimation device.
  • a gait measuring device includes a sensor and a feature amount data generator.
  • the sensor has an acceleration sensor and an angular velocity sensor.
  • the sensor measures spatial acceleration using an acceleration sensor.
  • the sensor measures the spatial angular velocity using an angular velocity sensor.
  • the sensor uses the measured spatial acceleration and spatial angular velocity to generate sensor data regarding foot movement.
  • the sensor outputs the generated sensor data to the feature data generator.
  • the feature amount data generation unit acquires time-series data of sensor data related to foot movements.
  • the feature amount data generation unit extracts walking waveform data for one step cycle from the time-series data of the sensor data.
  • the feature amount data generator normalizes the extracted walking waveform data.
  • the feature amount data generation unit extracts, from the normalized walking waveform data, a feature amount used for estimating mobility ability from a walking phase cluster composed of at least one temporally continuous walking phase.
  • the feature amount data generation unit generates feature amount data including the extracted feature amount.
  • the feature amount data generation unit outputs the generated feature amount data.
  • a mobility estimation device includes a data acquisition unit, a storage unit, an estimation unit, and an output unit.
  • the data acquisition unit acquires feature amount data including feature amounts used for estimating the mobility ability of the user, which are extracted from sensor data relating to the movement of the user's feet.
  • the storage unit stores an estimation model that outputs a mobility index according to the input of feature amount data.
  • the estimation unit inputs the acquired feature amount data to the estimation model to estimate the mobility ability of the user.
  • the output unit outputs information about the estimated mobility.
  • the mobility estimation system of this embodiment estimates the user's mobility by using feature values extracted from sensor data relating to the movement of the user's legs. Therefore, according to the mobility estimation system of the present embodiment, it is possible to appropriately estimate mobility in daily life without using equipment for measuring mobility.
  • the data acquisition unit acquires feature amount data including feature amounts extracted from walking waveform data generated using time-series data of sensor data related to foot movements.
  • the data acquisition unit acquires feature quantity data including a feature quantity used for estimating the performance value of the standing-sitting test as the mobility index. According to this aspect, by using the sensor data related to the movement of the legs, it is possible to appropriately estimate the mobility ability in daily life without using a device for measuring the mobility ability.
  • the storage unit stores an estimation model generated by learning using teacher data regarding a plurality of subjects.
  • the estimation model is generated by learning using teacher data, in which the feature values used for estimating the mobility index are explanatory variables and the mobility indexes of a plurality of subjects are objective variables.
  • the estimating unit inputs the feature amount data acquired regarding the user to the estimating model.
  • the estimation unit estimates the user's mobility ability according to the user's mobility index output from the estimation model. According to this aspect, it is possible to appropriately estimate the mobility ability in daily life without using a device for measuring the mobility ability.
  • the storage unit stores an estimation model learned using explanatory variables including subject attribute data (age).
  • the estimation unit inputs the feature amount data and attribute data (age) regarding the user to the estimation model.
  • the estimation unit estimates the user's mobility ability according to the user's mobility index output from the estimation model.
  • mobility ability is estimated including attribute data (age) that affects mobility ability. Therefore, according to this aspect, the movement ability can be measured with higher accuracy.
  • the storage unit stores an estimation model generated by learning using teacher data regarding a plurality of subjects.
  • the estimation model is a model generated by learning using supervised data in which feature values extracted from walking waveform data of multiple subjects are used as explanatory variables, and movement ability indices of multiple subjects are used as objective variables.
  • the explanatory variables include the feature amount relating to the activity of the gluteus maxims muscle extracted from the middle stage of stance.
  • the explanatory variables include a feature amount related to the quadriceps femoris muscle extracted from the section from the early swing period to the early swing period.
  • the explanatory variables include a feature amount relating to the activity of the tibialis anterior muscle extracted from the mid-swing period.
  • the estimating unit inputs the feature amount data acquired according to the user's walking to the estimating model.
  • the estimation unit estimates the user's mobility ability according to the user's mobility index output from the estimation model. According to this aspect, it is possible to estimate a mobility ability more suitable for physical activity by using an estimation model that has learned a feature amount according to muscle activity that affects the mobility ability.
  • the storage unit uses teacher data in which a plurality of feature amounts extracted from walking waveform data are used as explanatory variables for a plurality of subjects, and the movement ability related to the movement ability index of the subject is used as an objective variable. It stores the estimated model generated by the learning.
  • the explanatory variables include the feature amount extracted from the initial stage of swinging of the walking waveform data of lateral acceleration.
  • the explanatory variables include the feature amount extracted from the swing phase of the walking waveform data of the angular velocity in the sagittal plane.
  • the explanatory variables include feature amounts extracted from the beginning of the middle stage of stance and the beginning of the middle stage of swing of the walking waveform data of the angular velocity in the horizontal plane.
  • the explanatory variables include the feature amount extracted from the mid-swing phase of the angular walking waveform data in the coronal plane.
  • the data acquisition unit acquires feature amount data including the feature amount extracted according to the walking of the user. For example, the data acquisition unit acquires the feature amount of the walking waveform data of the lateral acceleration at the initial stage of the free leg. For example, the data acquisition unit acquires the feature amount of the early swing phase of the walking waveform data of the angular velocity in the sagittal plane. For example, the data acquisition unit acquires the feature amount of the walking waveform data of the angular velocity in the horizontal plane at the beginning of the middle stage of stance and the beginning of the middle stage of swing.
  • the data acquisition unit acquires the feature amount of the walking waveform data of the angular velocity in the horizontal plane at the beginning of the middle stage of stance and the beginning of the middle stage of swing.
  • the estimation unit inputs the acquired feature amount data to the estimation model.
  • the estimation unit estimates the user's mobility ability according to the user's mobility index output from the estimation model.
  • sensor data relating to leg movements is used. can estimate locomotion capacity more adapted to physical activity.
  • the mobility estimation device is implemented in a terminal device having a screen viewable by the user.
  • the mobility estimating device causes the screen of the terminal device to display information about the mobility that is estimated according to the movement of the user's legs.
  • the mobility estimation device displays on the screen of the terminal device recommendation information corresponding to the mobility ability estimated according to the movement of the user's legs.
  • the mobility estimation device displays, on the screen of the terminal device, a moving image related to training for training body parts related to mobility as recommended information corresponding to the mobility estimated according to the movement of the user's legs.
  • the user can check the movement ability according to the user's own movement ability. information can be checked.
  • the learning system of the present embodiment generates an estimation model for estimating movement ability according to the input of the feature amount by learning using the feature amount data extracted from the sensor data measured by the gait measuring device. .
  • FIG. 25 is a block diagram showing an example of the configuration of the learning system 2 according to this embodiment.
  • the learning system 2 includes a gait measuring device 20 and a learning device 25 .
  • the gait measuring device 20 and the learning device 25 may be wired or wirelessly connected.
  • the gait measuring device 20 and the learning device 25 may be configured as a single device.
  • the learning system 2 may be configured with only the learning device 25 excluding the gait measuring device 20 from the configuration of the learning system 2 .
  • one gait measuring device 20 may be arranged for each of the left and right feet (two in total).
  • the learning device 25 may be configured to perform learning using feature amount data generated by the gait measuring device 20 in advance and stored in a database without being connected to the gait measuring device 20. good.
  • the gait measuring device 20 is installed on at least one of the left and right feet.
  • the gait measuring device 20 has the same configuration as the gait measuring device 10 of the first embodiment.
  • Gait measuring device 20 includes an acceleration sensor and an angular velocity sensor.
  • the gait measuring device 20 converts the measured physical quantity into digital data (also called sensor data).
  • the gait measuring device 20 generates normalized gait waveform data for one step cycle from time-series data of sensor data.
  • the gait measuring device 20 generates feature amount data used for estimating mobility ability, which is an estimation target.
  • the gait measuring device 20 transmits the generated feature amount data to the learning device 25 .
  • the gait measuring device 20 may be configured to transmit feature amount data to a database (not shown) accessed by the learning device 25 .
  • the feature amount data accumulated in the database is used for learning by the learning device 25 .
  • the learning device 25 receives feature amount data from the gait measuring device 20 .
  • the learning device 25 receives the feature amount data from the database.
  • the learning device 25 performs learning using the received feature amount data.
  • the learning device 25 learns teacher data using feature amount data extracted from a plurality of subject walking waveform data as explanatory variables and values relating to movement ability according to the feature amount data as objective variables.
  • the learning algorithm executed by the learning device 25 is not particularly limited.
  • the learning device 25 generates an estimated model trained using teacher data regarding a plurality of subjects.
  • the learning device 25 stores the generated estimation model.
  • the estimation model learned by the learning device 25 may be stored in a storage device external to the learning device 25 .
  • FIG. 26 is a block diagram showing an example of the detailed configuration of the learning device 25. As shown in FIG. The learning device 25 has a receiving section 251 , a learning section 253 and a storage section 255 .
  • the receiving unit 251 receives feature amount data from the gait measuring device 20 .
  • the receiving unit 251 outputs the received feature amount data to the learning unit 253 .
  • the receiving unit 251 may receive the feature amount data from the gait measurement device 20 via a cable such as a cable, or may receive the feature amount data from the gait measurement device 20 via wireless communication.
  • the receiving unit 251 is configured to receive feature amount data from the gait measuring device 20 via a wireless communication function (not shown) conforming to standards such as Bluetooth (registered trademark) and WiFi (registered trademark). be done.
  • the communication function of the receiving unit 251 may conform to standards other than Bluetooth (registered trademark) and WiFi (registered trademark).
  • the learning unit 253 acquires feature amount data from the receiving unit 251 .
  • the learning unit 253 performs learning using the acquired feature amount data.
  • the learning unit 253 uses the feature data extracted from the sensor data measured according to the movement of the subject's foot as explanatory variables, and learns the data set with the subject's TUG required time as the objective variable as teacher data. do.
  • the learning unit 253 generates an estimation model for estimating the TUG required time according to the input of feature amount data learned about a plurality of subjects.
  • the learning unit 253 generates an estimation model according to attribute data (age).
  • the learning unit 253 estimates the TUG required time as mobility ability using feature amount data extracted from sensor data measured according to the movement of the subject's legs and attribute data (age) of the subject as explanatory variables. Generate an estimation model that The learning unit 253 causes the storage unit 255 to store the estimated models learned for a plurality of subjects.
  • the learning unit 253 performs learning using a linear regression algorithm.
  • the learning unit 253 performs learning using a Support Vector Machine (SVM) algorithm.
  • the learning unit 253 performs learning using a Gaussian Process Regression (GPR) algorithm.
  • the learning unit 253 performs learning using a random forest (RF) algorithm.
  • the learning unit 253 may perform unsupervised learning for classifying the subjects who generated the feature amount data according to the feature amount data.
  • a learning algorithm executed by the learning unit 253 is not particularly limited.
  • the learning unit 253 may perform learning using the walking waveform data for one step cycle as an explanatory variable.
  • the learning unit 253 uses the walking waveform data of the acceleration in the three-axis direction, the angular velocity around the three axes, and the angle (posture angle) around the three axes as explanatory variables, and the correct value of the movement ability to be estimated as the objective variable. perform supervised learning. For example, if the walking phase is set in increments of 1% in the walking cycle from 0% to 100%, the learning unit 253 learns using 909 explanatory variables.
  • FIG. 27 is a conceptual diagram for explaining learning for generating an estimation model.
  • FIG. 27 is a conceptual diagram showing an example of learning by the learning unit 253 using a data set of the feature values F1 to F6 as explanatory variables and the required TUG time (mobility index) as the objective variable as teacher data.
  • the learning unit 253 learns data about a plurality of subjects, and according to the input of the feature amount extracted from the sensor data, an estimation model that outputs an output (estimated value) regarding the TUG required time (mobility ability index). Generate.
  • the storage unit 255 stores estimated models learned for a plurality of subjects.
  • the storage unit 255 stores an estimation model for estimating mobility ability learned for a plurality of subjects.
  • the estimation model stored in the storage unit 255 is used for estimation of mobility by the mobility estimation device 13 of the first embodiment.
  • the learning system of this embodiment includes a gait measuring device and a learning device.
  • a gait measuring device acquires time-series data of sensor data relating to leg movements.
  • the gait measuring device extracts walking waveform data for one step cycle from time-series data of sensor data, and normalizes the extracted walking waveform data.
  • the gait measuring device extracts, from the normalized walking waveform data, a feature quantity used for estimating the mobility ability of the user from a walking phase cluster composed of at least one temporally continuous walking phase.
  • the gait measuring device generates feature amount data including the extracted feature amount.
  • the gait measuring device outputs the generated feature amount data to the learning device.
  • the learning device has a receiving unit, a learning unit, and a storage unit.
  • the receiving unit acquires feature amount data generated by the gait measuring device.
  • the learning unit performs learning using the feature amount data.
  • the learning unit generates an estimation model that outputs mobility ability according to the input of the feature amount (second feature amount) of the walking phase cluster extracted from the time-series data of the sensor data measured as the user walks. do.
  • the estimation model generated by the learning unit is stored in the storage unit.
  • the learning system of this embodiment uses the feature amount data measured by the gait measuring device to generate an estimation model. Therefore, according to this aspect, it is possible to generate an estimation model that makes it possible to appropriately estimate the mobility ability in daily life without using a device for measuring the mobility ability.
  • the mobility estimation device of this embodiment has a simplified configuration of the mobility estimation device included in the mobility estimation system of the first embodiment.
  • FIG. 28 is a block diagram showing an example of the configuration of the mobility estimation device 33 according to this embodiment.
  • Mobility estimation device 33 includes data acquisition unit 331 , storage unit 332 , estimation unit 333 , and output unit 335 .
  • the data acquisition unit 331 acquires feature amount data including the feature amount used for estimating the user's mobility index, which is extracted from the sensor data relating to the movement of the user's legs.
  • the storage unit 332 stores an estimation model that outputs a mobility index according to input of feature amount data.
  • the estimation unit 333 inputs the acquired feature amount data to the estimation model, and estimates the mobility ability of the user according to the mobility index output from the estimation model.
  • the output unit 335 outputs information about the estimated mobility.
  • the user's movement ability is estimated using the feature amount extracted from the sensor data regarding the movement of the user's feet. Therefore, according to the present embodiment, it is possible to appropriately estimate mobility in daily life without using equipment for measuring mobility.
  • the information processing device 90 includes a processor 91, a main storage device 92, an auxiliary storage device 93, an input/output interface 95, and a communication interface 96.
  • the interface is abbreviated as I/F (Interface).
  • Processor 91 , main storage device 92 , auxiliary storage device 93 , input/output interface 95 , and communication interface 96 are connected to each other via bus 98 so as to enable data communication.
  • the processor 91 , the main storage device 92 , the auxiliary storage device 93 and the input/output interface 95 are connected to a network such as the Internet or an intranet via a communication interface 96 .
  • the processor 91 loads the program stored in the auxiliary storage device 93 or the like into the main storage device 92 .
  • the processor 91 executes programs developed in the main memory device 92 .
  • a configuration using a software program installed in the information processing device 90 may be used.
  • the processor 91 executes control and processing according to each embodiment.
  • the main storage device 92 has an area in which programs are expanded.
  • a program stored in the auxiliary storage device 93 or the like is developed in the main storage device 92 by the processor 91 .
  • the main memory device 92 is realized by a volatile memory such as a DRAM (Dynamic Random Access Memory). Further, as the main storage device 92, a non-volatile memory such as MRAM (Magnetoresistive Random Access Memory) may be configured/added.
  • the auxiliary storage device 93 stores various data such as programs.
  • the auxiliary storage device 93 is implemented by a local disk such as a hard disk or flash memory. It should be noted that it is possible to store various data in the main storage device 92 and omit the auxiliary storage device 93 .
  • the input/output interface 95 is an interface for connecting the information processing device 90 and peripheral devices based on standards and specifications.
  • a communication interface 96 is an interface for connecting to an external system or device through a network such as the Internet or an intranet based on standards and specifications.
  • the input/output interface 95 and the communication interface 96 may be shared as an interface for connecting with external devices.
  • Input devices such as a keyboard, mouse, and touch panel may be connected to the information processing device 90 as necessary. These input devices are used to enter information and settings.
  • a touch panel is used as an input device, the display screen of the display device may also serve as an interface of the input device. Data communication between the processor 91 and the input device may be mediated by the input/output interface 95 .
  • the information processing device 90 may be equipped with a display device for displaying information.
  • the information processing device 90 is preferably provided with a display control device (not shown) for controlling the display of the display device.
  • the display device may be connected to the information processing device 90 via the input/output interface 95 .
  • the information processing device 90 may be equipped with a drive device. Between the processor 91 and a recording medium (program recording medium), the drive device mediates reading of data and programs from the recording medium, writing of processing results of the information processing device 90 to the recording medium, and the like.
  • the drive device may be connected to the information processing device 90 via the input/output interface 95 .
  • the above is an example of the hardware configuration for enabling control and processing according to each embodiment of the present invention.
  • the hardware configuration of FIG. 29 is an example of a hardware configuration for executing control and processing according to each embodiment, and does not limit the scope of the present invention.
  • the scope of the present invention also includes a program that causes a computer to execute control and processing according to each embodiment.
  • the scope of the present invention also includes a program recording medium on which the program according to each embodiment is recorded.
  • the recording medium can be implemented as an optical recording medium such as a CD (Compact Disc) or a DVD (Digital Versatile Disc).
  • the recording medium may be implemented by a semiconductor recording medium such as a USB (Universal Serial Bus) memory or an SD (Secure Digital) card.
  • the recording medium may be realized by a magnetic recording medium such as a flexible disk, or other recording medium.
  • each embodiment may be combined arbitrarily. Also, the components of each embodiment may be realized by software or by circuits.
  • (Appendix 1) a data acquisition unit that acquires feature amount data including feature amounts used for estimating the movement ability of the user, which are extracted from sensor data relating to the movement of the user's legs; a storage unit that stores an estimation model that outputs a mobility index according to the input of the feature amount data; an estimation unit that inputs the acquired feature amount data to the estimation model and estimates the mobility ability of the user according to the mobility index output from the estimation model; and an output unit that outputs information about the estimated mobility ability of the user.
  • the data acquisition unit A feature quantity used for estimating a TUG (Time Up and Go) test score as the movement ability index, which is extracted from the walking waveform data generated using the time-series data of the sensor data related to foot movement.
  • the mobility estimation device which acquires the feature amount data including (Appendix 3)
  • the storage unit Storing the estimation model generated by learning using teacher data in which the feature quantity used for estimating the mobility index of the plurality of subjects is used as an explanatory variable and the mobility index of the plurality of subjects is used as the objective variable. death,
  • the estimation unit The feature amount data acquired regarding the user is input to the estimation model, and the mobility capability of the user is estimated according to the mobility index of the user output from the estimation model. Mobility estimator.
  • Appendix 4 The storage unit storing the estimated model learned using explanatory variables including the age of a plurality of subjects;
  • the estimation unit The movement according to appendix 3, wherein the feature amount data and the age of the user are input to the estimation model, and the movement ability of the user is estimated according to the movement ability index of the user output from the estimation model.
  • Ability estimator The storage unit storing the estimated model learned using explanatory variables including the age of a plurality of subjects.
  • the storage unit With respect to the walking waveform data of the plurality of subjects, the feature amount related to gluteus maxims muscle activity extracted from the middle stage of stance, the feature amount related to the quadriceps femoris muscle extracted from the section from the early stage to the early stage of swing, and the movement storing the estimation model generated by learning using supervised data in which the feature value related to the activity of the tibialis anterior muscle extracted from the mid-leg is used as an explanatory variable and the movement ability index of the plurality of subjects is used as an objective variable; , The estimation unit Supplementary note of inputting the feature amount data acquired according to the walking of the user into the estimation model, and estimating the mobility ability of the user according to the mobility index of the user output from the estimation model.
  • the mobility estimation device (Appendix 6)
  • the storage unit With respect to the plurality of subjects, the feature amount extracted from the early stage of swing of the walking waveform data of lateral acceleration, the feature amount extracted from the early stage of swing of the walking waveform data of angular velocity in the sagittal plane, and the coronal A feature quantity extracted from the middle stance phase of the walking waveform data of the angular velocity in the plane, a feature quantity extracted from the beginning of the middle stance phase and the beginning of the mid-swing phase of the walking waveform data of the angular velocity in the horizontal plane, and the coronal plane.
  • the data acquisition unit A feature amount of the walking waveform data in the lateral direction extracted according to the walking of the user at the early stage of swing, a feature amount of the walking waveform data of the angular velocity in the sagittal plane at the early stage of swing, and a coronal plane.
  • the estimation unit Mobility ability estimation according to appendix 5, wherein the obtained feature amount data is input to the estimation model, and the mobility ability of the user is estimated according to the mobility index of the user output from the estimation model.
  • Device. (Appendix 7) The estimation unit estimating information about the mobility capability of the user according to the mobility capability index estimated for the user;
  • the mobility ability estimation device according to any one of appendices 3 to 6, which outputs information about the estimated mobility ability.
  • Appendix 8 the mobility estimation device according to any one of appendices 1 to 7; It is installed on the footwear of the user whose mobility is to be estimated, measures the spatial acceleration and the spatial angular velocity, generates sensor data relating to foot movement using the measured spatial acceleration and the spatial angular velocity, and generates the sensor data.
  • a mobility ability estimation system comprising: a gait measuring device having a feature amount data generation unit that generates feature amount data including a feature amount and outputs the generated feature amount data to the mobility estimation apparatus.
  • the mobility estimation device implemented in a terminal device having a screen viewable by the user, The mobility ability estimation system according to appendix 8, wherein the information about the mobility ability estimated according to the movement of the user's foot is displayed on the screen of the terminal device.
  • the mobility estimation device The mobility ability estimation system according to appendix 9, wherein the recommended information corresponding to the mobility ability estimated according to the movement of the user's foot is displayed on the screen of the terminal device.
  • the mobility estimation device 11. The method according to appendix 10, wherein, as the recommended information corresponding to the mobility ability estimated according to the movement of the user's legs, a video related to training for training body parts related to the mobility ability is displayed on the screen of the terminal device.
  • Mobility estimation system (Appendix 12) the computer Acquiring feature amount data including a feature amount used for estimating the movement ability of the user extracted from sensor data relating to the movement of the user's feet, inputting the obtained feature amount data into an estimation model that outputs a mobility index according to the input of the feature amount data; estimating the mobility ability of the user according to the mobility index output from the estimation model; A mobility capability estimation method for outputting information about the estimated mobility capability of the user.

Abstract

日常生活において移動能力を適宜推定するために、ユーザの足の動きに関するセンサデータから抽出された、ユーザの移動能力の推定に用いられる特徴量を含む特徴量データを取得するデータ取得部と、特徴量データの入力に応じた移動能力指標を出力する推定モデルを記憶する記憶部と、取得された特徴量データを推定モデルに入力し、推定モデルから出力された移動能力指標に応じて、ユーザの移動能力を推定する推定部と、推定されたユーザの移動能力に関する情報を出力する出力部と、を備える移動能力推定装置とする。

Description

移動能力推定装置、移動能力推定システム、移動能力推定方法、および記録媒体
 本開示は、足の動きに関するセンサデータを用いて、移動能力を推定する移動能力推定装置等に関する。
 ヘルスケアへの関心の高まりに伴って、歩行パターンに含まれる特徴(歩容とも呼ぶ)に応じた情報を提供するサービスに注目が集まっている。例えば、靴等の履物に実装されたセンサによって計測されるセンサデータに基づいて、歩容を解析する技術が開発されている。センサデータの時系列データには、身体状態と関連する歩容事象(歩行イベントとも呼ぶ)の特徴が現れる。
 特許文献1には、歩行者の歩行の特徴に基づいて足の異常を検出する装置について開示されている。特許文献1の装置は、履物に設置されたセンサから取得されたデータを用いて、履物を履いた歩行者の歩行において特徴的な歩行特徴量を抽出する。特許文献1の装置は、抽出された歩行特徴量に基づいて、履物を履いて歩行する歩行者の異常を検出する。例えば、特許文献1の装置は、一歩行周期分の歩行波形データから、外反母趾に関する特徴部位を抽出する。特許文献1の装置は、抽出された特徴部位の歩行特徴量を用いて、外反母趾の進行状態を推定する。
 特許文献2には、腰部に設置された加速度計によって計測された加速度に応じて、歩行能力を推定する歩行解析装置について開示されている。特許文献2の装置は、歩行時における腰部の上下方向/前後方向/左右方向のうち少なくともいずれかの加速度の時間変化を計測する。特許文献2の装置は、いずれかの加速度の時間変化に基づいて、歩行時における特定の歩行動作が行われる特定期間を抽出する。特許文献2の装置は、いずれかの加速度の特定期間における時間変化に基づいて、歩行時の歩行能力に関連する推定指標を算出する。特許文献2の装置は、算出された推定指標および予め用意された推定指標と、歩行能力との関係を用いて、歩行能力を推定する。
 歩行や、階段の上り下り、方向転換、跨る、立ち座りなどの動作は、日常生活を送る上で重要な動作である。歩行や、階段の上り下り、方向転換、跨る、立ち座りなどの能力は、移動能力と呼ばれる。移動能力は、QoL(Quality of Life)と深く関連する。移動能力を評価するテストとして、TUG(Time Up and Go)テストがある。TUGテストは、立ち座り、歩行、および方向転換の三部で構成される。被験者は、椅子に座った状態から立ち上がり、3m(メートル)先の目印に向けて歩き、目印の位置で方向転換し、座っていた椅子に向けて歩き、その椅子に座る。TUGテストの成績は、この一連の動作に掛かる時間で評価される。
 非特許文献1には、20歳前後の健常若年者と、70歳前後の健常高齢者とについて、TUGテストを検証した結果が報告されている。非特許文献1では、TUGテストを構成する立ち座り、歩行、および方向転換の各々の割合を検証している。非特許文献1の検証では、健常高齢者に関しては、立ち座りの割合が18%(パーセント)、方向転換の割合が12%、往復歩行の割合が70%であった。
 非特許文献2には、方向転換動作時における支持側下肢の筋活動を、足底圧センサや筋電計を用いて検証した事例について報告されている。非特許文献2には、クロスステップでは、中殿筋、大腿筋膜張筋、長腓骨筋、および腓腹筋外側頭の筋活動の高まりが特徴的であると報告されている。非特許文献2には、サイドステップでは、底屈・内がえし筋群(主に前脛骨筋)と腓腹筋内側頭の筋活動の高まりが特徴的であると報告されている。
国際公開第2021/140658号 特開2007-125368号公報
黒澤千尋、"健常高齢者におけるTimed Up and Go testの運動学的分析"、国際医療福祉大学審査学位論文(博士)、平成28年度. 伊藤正憲ら、 "歩行時の方向転換動作"、関西理学療法、Vol.15、 pp.23-27、2015.
 特許文献1の手法では、履物に設置されたセンサから取得されたデータから抽出された特徴部位の歩行特徴量を用いて、外反母趾の進行状態を推定する。特許文献1には、履物に設置されたセンサから取得されたデータから抽出された特徴部位の歩行特徴量を用いて、移動能力を推定することは開示されていない。
 特許文献2の手法では、被験者の腰部に設置された加速度計によって計測される加速度に応じて、被験者の歩行能力を推定する。特許文献2の手法では、算出された推定指標に応じて、歩行速度や歩幅、膝伸展力、背屈力などの歩行能力を推定する。特許文献2の手法では、腰部の加速度計によって計測される加速度に応じて、被験者の歩行能力を推定する。特許文献2の手法では、腰部の動きに応じた歩行能力を推定するが、足の動きに応じた下肢筋力を検証することはできなかった。
 非特許文献1のように、TUGテストを評価すれば、移動能力に含まれる立ち座り、歩行、および方向転換について、詳細に評価できる。また、非特許文献2のように、足底圧センサや筋電計を用いれば、移動能力の動作に含まれる方向転換について、詳細に評価できる。しかしながら、非特許文献1~2には、日常生活において、移動能力を評価する手法については開示されていない。
 本開示の目的は、日常生活において、移動能力を適宜推定できる移動能力推定装置等を提供することにある。
 本開示の一態様の移動能力推定装置は、ユーザの足の動きに関するセンサデータから抽出された、ユーザの移動能力の推定に用いられる特徴量を含む特徴量データを取得するデータ取得部と、特徴量データの入力に応じた移動能力指標を出力する推定モデルを記憶する記憶部と、取得された特徴量データを推定モデルに入力し、推定モデルから出力された移動能力指標に応じて、ユーザの移動能力を推定する推定部と、推定されたユーザの移動能力に関する情報を出力する出力部と、を備える。
 本開示の一態様の移動能力推定方法においては、ユーザの足の動きに関するセンサデータから抽出された、ユーザの移動能力の推定に用いられる特徴量を含む特徴量データを取得し、取得された特徴量データを、特徴量データの入力に応じた移動能力指標を出力する推定モデルに入力し、推定モデルから出力された移動能力指標に応じて、ユーザの移動能力を推定し、推定されたユーザの移動能力に関する情報を出力する。
 本開示の一態様のプログラムは、ユーザの足の動きに関するセンサデータから抽出された、ユーザの移動能力の推定に用いられる特徴量を含む特徴量データを取得する処理と、取得された特徴量データを、特徴量データの入力に応じた移動能力指標を出力する推定モデルに入力する処理と、推定モデルから出力された移動能力指標に応じて、ユーザの移動能力を推定する処理と、推定されたユーザの移動能力に関する情報を出力する処理と、をコンピュータに実行させる。
 本開示によれば、日常生活において、移動能力を適宜推定できる移動能力推定装置等を提供することが可能になる。
第1の実施形態に係る移動能力推定システムの構成の一例を示すブロック図である。 第1の実施形態に係る移動能力推定システムが備える歩容計測装置の構成の一例を示すブロック図である。 第1の実施形態に係る歩容計測装置の配置例を示す概念図である。 第1の実施形態に係る歩容計測装置に設定されるローカル座標系と世界座標系の関係の一例について説明するための概念図である。 第1の実施形態に係る歩容計測装置に関する説明で用いられる人体面について説明するための概念図である。 第1の実施形態に係る歩容計測装置に関する説明で用いられる歩行周期について説明するための概念図である。 第1の実施形態に係る歩容計測装置が計測するセンサデータの時系列データの一例について説明するためのグラフである。 第1の実施形態に係る歩容計測装置が計測するセンサデータの時系列データから抽出される歩行波形データの正規化の一例について説明するための図である。 第1の実施形態に係る歩容計測装置の特徴量データ生成部が特徴量を抽出する歩行フェーズクラスターの一例について説明するための概念図である。 第1の実施形態に係る移動能力推定システムが備える移動能力推定装置の構成の一例を示すブロック図である。 第1の実施形態に係る移動能力推定システムの推定対象である移動能力を評価するTUG(Time Up and Go)テストについて説明するための概念図である。 第1の実施形態に係る移動能力推定システムが備える歩容計測装置がTUGテストの成績(TUG所要時間)を推定するために抽出する特徴量の具体例に関する表である。 第1の実施形態に係る移動能力推定システムが備える歩容計測装置が抽出した特徴量F1と、実測されたTUG所要時間との相関関係を示すグラフである。 第1の実施形態に係る移動能力推定システムが備える歩容計測装置が抽出した特徴量F2と、実測されたTUG所要時間との相関関係を示すグラフである。 第1の実施形態に係る移動能力推定システムが備える歩容計測装置が抽出した特徴量F3と、実測されたTUG所要時間との相関関係を示すグラフである。 第1の実施形態に係る移動能力推定システムが備える歩容計測装置が抽出した特徴量F4と、実測されたTUG所要時間との相関関係を示すグラフである。 第1の実施形態に係る移動能力推定システムが備える歩容計測装置が抽出した特徴量F5と、実測されたTUG所要時間との相関関係を示すグラフである。 第1の実施形態に係る移動能力推定システムが備える歩容計測装置が抽出した特徴量F6と、実測されたTUG所要時間との相関関係を示すグラフである。 第1の実施形態に係る移動能力推定システムが備える移動能力推定装置によるTUG所要時間(移動能力指標)の推定例を示すブロック図である。 性別、年齢、身長、体重、および歩行速度を説明変数とした学習によって生成された推定モデルを用いて推定されたTUG所要時間の推定値と、TUG所要時間の計測値との相関関係を示すグラフである。 第1の実施形態に係る移動能力推定システムが備える移動能力推定装置によって推定されたTUG所要時間の推定値と、TUG所要時間の計測値との相関関係を示すグラフである。 第1の実施形態に係る移動能力推定システムが備える歩容計測装置の動作の一例について説明するためのフローチャートである。 第1の実施形態に係る移動能力推定システムが備える移動能力推定装置の動作の一例について説明するためのフローチャートである。 第1の実施形態に係る移動能力推定システムの適用例について説明するための概念図である。 第2の実施形態に係る学習システムの構成の一例を示すブロック図である。 第2の実施形態に係る学習システムが備える学習装置の構成の一例を示すブロック図である。 第2の実施形態に係る学習システムが備える学習装置による学習の一例について説明するための概念図である。 第3の実施形態に係る移動能力推定装置の構成の一例を示すブロック図である。 各実施形態の制御や処理を実行するハードウェア構成の一例を示すブロック図である。
 以下に、本発明を実施するための形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。なお、以下の実施形態の説明に用いる全図においては、特に理由がない限り、同様箇所には同一符号を付す。また、以下の実施形態において、同様の構成・動作に関しては繰り返しの説明を省略する場合がある。
 (第1の実施形態)
 まず、第1の実施形態に係る移動能力推定システムについて図面を参照しながら説明する。本実施形態の移動能力推定システムは、ユーザの歩行に応じた足の動きに関するセンサデータを計測する。本実施形態の移動能力推定システムは、計測されたセンサデータを用いて、そのユーザの移動能力を推定する。
 本実施形態では、移動能力として、TUG(Time Up and Go)テストの成績を推定する例を挙げる。本実施形態においては、TUGテストの成績を、椅子から立ち上がり、目印まで歩いて方向転換し、再び椅子に座るまでの時間(TUG所要時間とも呼ぶ)で評価する。TUG所要時間は、TUGテストの成績値である。TUG所要時間が短いほど、TUGテストの成績が高い。本実施形態の手法は、TUGテスト以外の移動能力に関するテストの成績にも適用できる。
 (構成)
 図1は、本実施形態に係る移動能力推定システム1の構成の一例を示すブロック図である。移動能力推定システム1は、歩容計測装置10と移動能力推定装置13を備える。本実施形態においては、歩容計測装置10と移動能力推定装置13が別々のハードウェアに構成される例について説明する。例えば、歩容計測装置10は、移動能力の推定対象である被験者(ユーザ)の履物等に設置される。例えば、移動能力推定装置13の機能は、被験者(ユーザ)の携帯する携帯端末にインストールされる。以下においては、歩容計測装置10および移動能力推定装置13の構成について、個別に説明する。
 〔歩容計測装置〕
 図2は、歩容計測装置10の構成の一例を示すブロック図である。歩容計測装置10は、センサ11と特徴量データ生成部12を有する。本実施形態においては、センサ11と特徴量データ生成部12が一体化された例を挙げる。センサ11と特徴量データ生成部12は、別々の装置として提供されてもよい。
 図2のように、センサ11は、加速度センサ111と角速度センサ112を有する。図2には、加速度センサ111と角速度センサ112が、センサ11に含まれる例を挙げる。センサ11には、加速度センサ111および角速度センサ112以外のセンサが含まれてもよい。センサ11に含まれうる加速度センサ111および角速度センサ112以外のセンサについては、説明を省略する。
 加速度センサ111は、3軸方向の加速度(空間加速度とも呼ぶ)を計測するセンサである。加速度センサ111は、足の動きに関する物理量として、加速度(空間加速度とも呼ぶ)を計測する。加速度センサ111は、計測した加速度を特徴量データ生成部12に出力する。例えば、加速度センサ111には、圧電型や、ピエゾ抵抗型、静電容量型等の方式のセンサを用いることができる。加速度センサ111として用いられるセンサは、加速度を計測できれば、その計測方式に限定を加えない。
 角速度センサ112は、3軸周りの角速度(空間角速度とも呼ぶ)を計測するセンサである。角速度センサ112は、足の動きに関する物理量として、角速度(空間角速度とも呼ぶ)を計測する。角速度センサ112は、計測した角速度を特徴量データ生成部12に出力する。例えば、角速度センサ112には、振動型や静電容量型等の方式のセンサを用いることができる。角速度センサ112として用いられるセンサは、角速度を計測できれば、その計測方式に限定を加えない。
 センサ11は、例えば、加速度や角速度を計測する慣性計測装置によって実現される。慣性計測装置の一例として、IMU(Inertial Measurement Unit)が挙げられる。IMUは、3軸方向の加速度を計測する加速度センサ111と、3軸周りの角速度を計測する角速度センサ112を含む。センサ11は、VG(Vertical Gyro)やAHRS(Attitude Heading)などの慣性計測装置によって実現されてもよい。また、センサ11は、GPS/INS(Global Positioning System/Inertial Navigation System)によって実現されてもよい。センサ11は、足の動きに関する物理量を計測できれば、慣性計測装置以外の装置によって実現されてもよい。
 図3は、右足の靴100の中に、歩容計測装置10が配置される一例を示す概念図である。図3の例では、足弓の裏側に当たる位置に、歩容計測装置10が設置される。例えば、歩容計測装置10は、靴100の中に挿入されるインソールに配置される。例えば、歩容計測装置10は、靴100の底面に配置されてもよい。例えば、歩容計測装置10は、靴100の本体に埋設されてもよい。歩容計測装置10は、靴100から着脱できてもよいし、靴100から着脱できなくてもよい。歩容計測装置10は、足の動きに関するセンサデータを計測できさえすれば、足弓の裏側ではない位置に設置されてもよい。また、歩容計測装置10は、ユーザが履いている靴下や、ユーザが装着しているアンクレット等の装飾品に設置されてもよい。また、歩容計測装置10は、足に直に貼り付けられたり、足に埋め込まれたりしてもよい。図3には、右足の靴100に歩容計測装置10が設置される例を示す。歩容計測装置10は、両足の靴100に設置されてもよい。
 図3の例では、歩容計測装置10(センサ11)を基準として、左右方向のx軸、前後方向のy軸、上下方向のz軸を含むローカル座標系が設定される。x軸は左方を正とし、y軸は後方を正とし、z軸は上方を正とする。センサ11に設定される軸の向きは、左右の足で同じでもよく、左右の足で異なっていてもよい。例えば、同じスペックで生産されたセンサ11が左右の靴100の中に配置される場合、左右の靴100に配置されるセンサ11の上下の向き(Z軸方向の向き)は、同じ向きである。その場合、左足に由来するセンサデータに設定されるローカル座標系の3軸と、右足に由来するセンサデータに設定されるローカル座標系の3軸とは、左右で同じにある。
 図4は、足弓の裏側に設置された歩容計測装置10(センサ11)に設定されるローカル座標系(x軸、y軸、z軸)と、地面に対して設定される世界座標系(X軸、Y軸、Z軸)について説明するための概念図である。世界座標系(X軸、Y軸、Z軸)では、進行方向に正対した状態のユーザが直立した状態で、ユーザの横方向がX軸方向(左向きが正)、ユーザの背面の方向がY軸方向(後ろ向きが正)、重力方向がZ軸方向(鉛直上向きが正)に設定される。なお、図4の例は、ローカル座標系(x軸、y軸、z軸)と世界座標系(X軸、Y軸、Z軸)の関係を概念的に示すものであり、ユーザの歩行に応じて変動するローカル座標系と世界座標系の関係を正確に示すものではない。
 図5は、人体に対して設定される面(人体面とも呼ぶ)について説明するための概念図である。本実施形態では、身体を左右に分ける矢状面、身体を前後に分ける冠状面、身体を水平に分ける水平面が定義される。なお、図5のように、足の中心線を進行方向に向けて直立した状態では、世界座標系とローカル座標系が一致する。本実施形態においては、x軸を回転軸とする矢状面内の回転をロール、y軸を回転軸とする冠状面内の回転をピッチ、z軸を回転軸とする水平面内の回転をヨーと定義する。また、x軸を回転軸とする矢状面内の回転角をロール角、y軸を回転軸とする冠状面内の回転角をピッチ角、z軸を回転軸とする水平面内の回転角をヨー角と定義する。
 図2のように、特徴量データ生成部12(特徴量データ生成装置とも呼ぶ)は、取得部121、正規化部122、抽出部123、生成部125、および特徴量データ出力部127を有する。例えば、特徴量データ生成部12は、歩容計測装置10の全体制御やデータ処理を行うマイクロコンピュータまたはマイクロコントローラによって実現される。例えば、特徴量データ生成部12は、CPU(Central Processing Unit)やRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等を有する。特徴量データ生成部12は、加速度センサ111および角速度センサ112を制御して、角速度や加速度を計測する。例えば、特徴量データ生成部12は、被験者(ユーザ)の携帯する携帯端末(図示しない)の側に実装されてもよい。
 取得部121は、加速度センサ111から、3軸方向の加速度を取得する。また、取得部121は、角速度センサ112から、3軸周りの角速度を取得する。例えば、取得部121は、取得された角速度および加速度等の物理量(アナログデータ)をAD変換(Analog-to-Digital Conversion)する。なお、加速度センサ111および角速度センサ112によって計測された物理量(アナログデータ)は、加速度センサ111および角速度センサ112の各々においてデジタルデータに変換されてもよい。取得部121は、変換後のデジタルデータ(センサデータとも呼ぶ)を正規化部122に出力する。取得部121は、図示しない記憶部に、センサデータを記憶させるように構成されてもよい。センサデータには、デジタルデータに変換された加速度データと、デジタルデータに変換された角速度データとが少なくとも含まれる。加速度データは、3軸方向の加速度ベクトルを含む。角速度データは、3軸周りの角速度ベクトルを含む。加速度データおよび角速度データには、それらのデータの取得時間が紐付けられる。また、取得部121は、加速度データおよび角速度データに対して、実装誤差や温度補正、直線性補正などの補正を加えてもよい。
 正規化部122は、取得部121からセンサデータを取得する。正規化部122は、センサデータに含まれる3軸方向の加速度および3軸周りの角速度の時系列データから、一歩行周期分の時系列データ(歩行波形データとも呼ぶ)を抽出する。正規化部122は、抽出された一歩行周期分の歩行波形データの時間を、0~100%(パーセント)の歩行周期に正規化(第1正規化とも呼ぶ)する。0~100%の歩行周期に含まれる1%や10%などのタイミングを、歩行フェーズとも呼ぶ。また、正規化部122は、第1正規化された一歩行周期分の歩行波形データに関して、立脚相が60%、遊脚相が40%になるように正規化(第2正規化とも呼ぶ)する。立脚相は、足の裏側の少なくとも一部が地面に接している期間である。遊脚相は、足の裏側が地面から離れている期間である。歩行波形データを第2正規化すれば、特徴量が抽出される歩行フェーズのずれが、外乱の影響でぶれることを抑制できる。
 図6は、右足を基準とする一歩行周期について説明するための概念図である。左足を基準とする一歩行周期も、右足と同様である。図6の横軸は、右足の踵が地面に着地した時点を起点とし、次に右足の踵が地面に着地した時点を終点とする右足の一歩行周期である。図6の横軸は、一歩行周期を100%として第1正規化されている。また、図6の横軸は、立脚相が60%、遊脚相が40%になるように第2正規化されている。片足の一歩行周期は、足の裏側の少なくとも一部が地面に接している立脚相と、足の裏側が地面から離れている遊脚相とに大別される。立脚相は、さらに、荷重応答期T1、立脚中期T2、立脚終期T3、遊脚前期T4に細分される。遊脚相は、さらに、遊脚初期T5、遊脚中期T6、遊脚終期T7に細分される。なお、図6は一例であって、一歩行周期を構成する期間や、それらの期間の名称等を限定するものではない。
 図6のように、歩行においては、複数の事象(歩行イベントとも呼ぶ)が発生する。E1は、右足の踵が接地する事象(踵接地)を表す(HC:Heel Contact)。E2は、右足の足裏が接地した状態で、左足の爪先が地面から離れる事象(反対足爪先離地)を表す(OTO:Opposite Toe Off)。E3は、右足の足裏が接地した状態で、右足の踵が持ち上がる事象(踵持ち上がり)を表す(HR:Heel Rise)。E4は、左足の踵が接地した事象(反対足踵接地)である(OHS:Opposite Heel Strike)。E5は、左足の足裏が接地した状態で、右足の爪先が地面から離れる事象(爪先離地)を表す(TO:Toe Off)。E6は、左足の足裏が接地した状態で、左足と右足が交差する事象(足交差)を表す(FA:Foot Adjacent)。E7は、左足の足裏が接地した状態で、右足の脛骨が地面に対してほぼ垂直になる事象(脛骨垂直)を表す(TV:Tibia Vertical)。E8は、右足の踵が接地する事象(踵接地)を表す(HC:Heel Contact)。E8は、E1から始まる歩行周期の終点に相当するとともに、次の歩行周期の起点に相当する。なお、図6は一例であって、歩行において発生する事象や、それらの事象の名称を限定するものではない。
 図7は、進行方向加速度(Y方向加速度)の時系列データ(実線)から、踵接地HCや爪先離地TOを検出する一例について説明するための図である。踵接地HCのタイミングは、進行方向加速度(Y方向加速度)の時系列データに表れる極大ピークの直後の極小ピークのタイミングである。踵接地HCのタイミングの目印になる極大ピークは、一歩行周期分の歩行波形データの最大ピークに相当する。連続する踵接地HCの間の区間が、一歩行周期である。爪先離地TOのタイミングは、進行方向加速度(Y方向加速度)の時系列データに変動が表れない立脚相の期間の後に表れる極大ピークの立ち上がりのタイミングである。図7には、ロール角(X軸周り角速度)の時系列データ(破線)も示す。ロール角が最小のタイミングと、ロール角が最大のタイミングとの中点のタイミングが、立脚中期に相当する。例えば、歩行速度や、歩幅、分回し、内旋/外旋、底屈/背屈などのパラメータ(歩容パラメータとも呼ぶ)は、立脚中期を基準として求めることができる。
 図8は、正規化部122によって正規化された歩行波形データの一例について説明するための図である。正規化部122は、進行方向加速度(Y方向加速度)の時系列データから、踵接地HCと爪先離地TOを検出する。正規化部122は、連続する踵接地HCの間の区間を、一歩行周期分の歩行波形データとして抽出する。正規化部122は、第1正規化によって、一歩行周期分の歩行波形データの横軸(時間軸)を、0~100%の歩行周期に変換する。図8には、第1正規化後の歩行波形データを破線で示す。第1正規化後の歩行波形データ(破線)では、爪先離地TOのタイミングが60%からずれている。
 図8の例において、正規化部122は、歩行フェーズが0%の踵接地HCから、その踵接地HCに後続する爪先離地TOまでの区間を0~60%に正規化する。また、正規化部122は、爪先離地TOから、爪先離地TOに後続する歩行フェーズが100%の踵接地HCまでの区間を60~100%に正規化する。その結果、一歩行周期分の歩行波形データは、歩行周期が0~60%の区間(立脚相)と、歩行周期が60~100%の区間(遊脚相)とに正規化される。図8には、第2正規化後の歩行波形データを実線で示す。第2正規化後の歩行波形データ(実線)では、爪先離地TOのタイミングが60%に一致する。
 図7~図8には、進行方向加速度(Y方向加速度)に基づいて、一歩行周期分の歩行波形データを抽出/正規化する例を示した。進行方向加速度(Y方向加速度)以外の加速度/角速度に関して、正規化部122は、進行方向加速度(Y方向加速度)の歩行周期に合わせて、一歩行周期分の歩行波形データを抽出/正規化する。また、正規化部122は、3軸周りの角速度の時系列データを積分することで、3軸周りの角度の時系列データを生成してもよい。その場合、正規化部122は、3軸周りの角度に関しても、進行方向加速度(Y方向加速度)の歩行周期に合わせて、一歩行周期分の歩行波形データを抽出/正規化する。
 正規化部122は、進行方向加速度(Y方向加速度)以外の加速度/角速度に基づいて、一歩行周期分の歩行波形データを抽出/正規化してもよい(図面は省略)。例えば、正規化部122は、垂直方向加速度(Z方向加速度)の時系列データから、踵接地HCや爪先離地TOを検出してもよい。踵接地HCのタイミングは、垂直方向加速度(Z方向加速度)の時系列データに表れる急峻な極小ピークのタイミングである。急峻な極小ピークのタイミングにおいては、垂直方向加速度(Z方向加速度)の値がほぼ0になる。踵接地HCのタイミングの目印になる極小ピークは、一歩行周期分の歩行波形データの最小ピークに相当する。連続する踵接地HCの間の区間が、一歩行周期である。爪先離地TOのタイミングは、垂直方向加速度(Z方向加速度)の時系列データが、踵接地HCの直後の極大ピークの後に変動の小さい区間を経た後に、なだらかに増大する途中の変曲点のタイミングである。また、正規化部122は、進行方向加速度(Y方向加速度)および垂直方向加速度(Z方向加速度)の両方に基づいて、一歩行周期分の歩行波形データを抽出/正規化してもよい。また、正規化部122は、進行方向加速度(Y方向加速度)および垂直方向加速度(Z方向加速度)以外の加速度や角速度、角度等に基づいて、一歩行周期分の歩行波形データを抽出/正規化してもよい。
 抽出部123は、正規化部122によって正規化された一歩行周期分の歩行波形データを取得する。抽出部123は、一歩行周期分の歩行波形データから、移動能力の推定に用いられる特徴量を抽出する。抽出部123は、予め設定された条件に基づいて、時間的に連続する歩行フェーズを統合した歩行フェーズクラスターから、歩行フェーズクラスターごとの特徴量を抽出する。歩行フェーズクラスターは、少なくとも一つの歩行フェーズを含む。歩行フェーズクラスターには、単一の歩行フェーズも含まれる。移動能力の推定に用いられる特徴量が抽出される歩行波形データや歩行フェーズについては、後述する。
 図9は、一歩行周期分の歩行波形データから、移動能力を推定するための特徴量を抽出することについて説明するための概念図である。例えば、抽出部123は、時間的に連続する歩行フェーズi~i+mを、歩行フェーズクラスターCとして抽出する(i、mは自然数)。歩行フェーズクラスターCは、m個の歩行フェーズ(構成要素)を含む。すなわち、歩行フェーズクラスターCを構成する歩行フェーズ(構成要素)の数(構成要素数とも呼ぶ)は、mである。図9には、歩行フェーズが整数値の例を挙げるが、歩行フェーズは小数点以下まで細分化されてもよい。歩行フェーズが小数点以下まで細分化される場合、歩行フェーズクラスターCの構成要素数は、歩行フェーズクラスターの区間のデータ点数に応じた数になる。抽出部123は、歩行フェーズi~i+mの各々から特徴量を抽出する。歩行フェーズクラスターCが単一の歩行フェーズjによって構成される場合、抽出部123は、その単一の歩行フェーズjから特徴量を抽出する(jは自然数)。
 生成部125は、歩行フェーズクラスターを構成する歩行フェーズの各々から抽出された特徴量(第1特徴量)に特徴量構成式を適用して、歩行フェーズクラスターの特徴量(第2特徴量)を生成する。特徴量構成式は、歩行フェーズクラスターの特徴量を生成するために、予め設定された計算式である。例えば、特徴量構成式は、四則演算に関する計算式である。例えば、特徴量構成式を用いて算出される第2特徴量は、歩行フェーズクラスターに含まれる各歩行フェーズにおける第1特徴量の積分平均値や算術平均値、傾斜、ばらつきなどである。例えば、生成部125は、歩行フェーズクラスターを構成する歩行フェーズの各々から抽出された第1特徴量の傾斜やばらつきを算出する計算式を、特徴量構成式として適用する。例えば、歩行フェーズクラスターが単独の歩行フェーズで構成される場合は、傾斜やばらつきを算出できないため、積分平均値や算術平均値などを計算する特徴量構成式を用いればよい。
 特徴量データ出力部127は、生成部125によって生成された歩行フェーズクラスターごとの特徴量データを出力する。特徴量データ出力部127は、生成された歩行フェーズクラスターの特徴量データを、その特徴量データを使用する移動能力推定装置13に出力する。
 〔移動能力推定装置〕
 図10は、移動能力推定装置13の構成の一例を示すブロック図である。移動能力推定装置13は、データ取得部131、記憶部132、推定部133、および出力部135を有する。
 データ取得部131は、歩容計測装置10から特徴量データを取得する。データ取得部131は、受信された特徴量データを推定部133に出力する。データ取得部131は、ケーブルなどの有線を介して特徴量データを歩容計測装置10から受信してもよいし、無線通信を介して特徴量データを歩容計測装置10から受信してもよい。例えば、データ取得部131は、Bluetooth(登録商標)やWiFi(登録商標)などの規格に則した無線通信機能(図示しない)を介して、特徴量データを歩容計測装置10から受信するように構成される。なお、データ取得部131の通信機能は、Bluetooth(登録商標)やWiFi(登録商標)以外の規格に則していてもよい。
 記憶部132は、歩行波形データから抽出された特徴量データを用いて、移動能力指標としてTUG所要時間を推定する推定モデルを記憶する。記憶部132は、複数の被験者のTUG所要時間に関する特徴量データと、TUG所要時間との関係を学習した推定モデルを記憶する。例えば、記憶部132は、複数の被験者に関して学習された、TUG所要時間を推定する推定モデルを記憶する。TUG所要時間には、年齢の影響が出る。そのため、記憶部132は、年齢に関する属性データに応じた推定モデルを記憶してもよい。
 図11は、TUGテストについて説明するための概念図である。被験者は、椅子に座った状態から立ち上がり、目印の位置を目指して歩行する。被験者は、目印の位置まで到達すると、その目印の位置で方向転換して、先ほどまで座っていた椅子に向かって歩行する。被験者は、椅子まで戻ると、その椅子に座る。椅子から立ち上がる時点から計測を開始して、目印で折り返し、再び椅子に座った時点で計測終了である。この一連の動作に掛かる時間がTUG所要時間である。
 移動能力は、TUG所要時間に応じて評価できる。非特許文献1によると、TUG所要時間が、男性で7.4秒以上,女性で7.5秒以上であると、特定高齢者に該当するとされる(非特許文献1:黒澤千尋、“健常高齢者におけるTimed Up and Go testの運動学的分析”、国際医療福祉大学審査学位論文(博士)、平成28年度.)。ここで挙げたTUG所要時間に応じた移動能力の評価基準は、目安であって、状況に応じて設定されればよい。
 推定モデルは、製品の工場出荷時や、移動能力推定システム1をユーザが使用する前のキャリブレーション時等のタイミングで、記憶部132に記憶させておけばよい。例えば、外部のサーバ等の記憶装置に保存された推定モデルを用いるように構成してもよい。その場合、その記憶装置と接続されたインターフェース(図示しない)を介して、推定モデルを用いるように構成すればよい。
 推定部133は、データ取得部131から特徴量データを取得する。推定部133は、取得された特徴量データを用いて、移動能力としてTUG所要時間の推定を実行する。推定部133は、記憶部132に記憶された推定モデルに特徴量データを入力する。推定部133は、推定モデルから出力される移動能力(TUG所要時間)に応じた推定結果を出力する。クラウドやサーバ等に構築された外部の記憶装置に保存された推定モデルを用いる場合、推定部133は、その記憶装置と接続されたインターフェース(図示しない)を介して、推定モデルを用いるように構成される。
 出力部135は、推定部133による移動能力の推定結果を出力する。例えば、出力部135は、被験者(ユーザ)の携帯端末の画面に、移動能力の推定結果を表示させる。例えば、出力部135は、推定結果を使用する外部システム等に対して、その推定結果を出力する。移動能力推定装置13から出力された移動能力の使用に関しては、特に限定を加えない。
 例えば、移動能力推定装置13は、被験者(ユーザ)が携帯する携帯端末(図示しない)を介して、クラウドやサーバに構築された外部システム等に接続される。携帯端末(図示しない)は、携帯可能な通信機器である。例えば、携帯端末は、スマートフォンや、スマートウォッチ、携帯電話等の通信機能を有する携帯型の通信機器である。例えば、移動能力推定装置13は、ケーブルなどの有線を介して、携帯端末に接続される。例えば、移動能力推定装置13は、無線通信を介して、携帯端末に接続される。例えば、移動能力推定装置13は、Bluetooth(登録商標)やWiFi(登録商標)などの規格に則した無線通信機能(図示しない)を介して、携帯端末に接続される。なお、移動能力推定装置13の通信機能は、Bluetooth(登録商標)やWiFi(登録商標)以外の規格に則していてもよい。移動能力の推定結果は、携帯端末にインストールされたアプリケーションによって使用されてもよい。その場合、携帯端末は、その携帯端末にインストールされたアプリケーションソフトウェア等によって、推定結果を用いた処理を実行する。
 〔TUG所要時間推定〕
 次に、TUG所要時間と特徴量データとの相関関係について、検証例を交えて説明する。図12は、TUG所要時間の推定に用いられる特徴量をまとめた対応表である。図12の対応表は、特徴量の番号、特徴量が抽出される歩行波形データ、歩行フェーズクラスターが抽出される歩行フェーズ(%)、および関連筋肉を対応付ける。TUG所要時間は、大腿四頭筋や、中殿筋、前脛骨筋との間に相関がある。そのため、TUG所要時間の推定には、これらの特徴が表れる歩行フェーズから抽出される特徴量F1~F5が用いられる。
 TUGテストは、立ち座り、歩行、および方向転換の三部で構成される。立ち座りには、主に、前脛骨筋、腓腹筋、大腿四頭筋、および大腿二頭筋が関連する。歩行の成績に関連するのは、主に、歩幅、歩行速度、およびケイデンスである。ケイデンスは、一分間の歩数である。方向転換には、クロスステップやサイドステップで用いられる筋肉が関連する。クロスステップやサイドステップに関連する筋肉は、非特許文献2に開示されている(非特許文献2:伊藤正憲ら、“歩行時の方向転換動作”、関西理学療法、Vol.15、pp.23-27、2015)。クロスステップには、中殿筋、大腿筋膜張筋、長腓骨筋、および腓腹筋外側頭が関連する。サイドステップには、底屈・内がえし筋群(主に前脛骨筋)と腓腹筋内側頭が関連する。方向転換に関連する筋肉の特徴は、特定の歩行フェーズに表れる。中殿筋の特徴は、歩行フェーズ0~25%に表れる。大腿筋膜張筋の特徴は、歩行フェーズ0~45%、85~100%に表れる。長腓骨筋の特徴は、歩行フェーズ10~50%に表れる。前脛骨筋の特徴は、歩行フェーズ0~10%、57~100%に表れる。腓腹筋の特徴は、歩行フェーズ10~50%に表れる。
 図13~図18は、TUG所要時間と特徴量データとの相関関係の検証結果である。図13~図18には、年齢が60~85歳の男性27人および女性35人の合計62人の被験者に対して、検証を行った結果を示す。図13~図18には、歩容計測装置10が搭載された履物を履いた歩行に応じて抽出された特徴量を用いて推定された推定値と、TUG所要時間の計測値(真値)との相関関係を検証した結果を示す。
 特徴量F1は、横方向加速度(X方向加速度)の時系列データに関する歩行波形データAxの歩行フェーズ64~65%の区間から抽出される。歩行フェーズ64~65%は、遊脚初期T5に含まれる。特徴量F1には、主に、立ち座り動作における大腿四頭筋の動きに関する特徴が含まれる。図13は、特徴量F1とTUG所要時間との相関関係の検証結果である。図13のグラフの横軸は、正規化角速度である。特徴量F1とTUG所要時間との相関係数Rは、-0.333であった。
 特徴量F2は、矢状面内(X軸周り)における角速度の時系列データに関する歩行波形データGxの歩行フェーズ57~58%の区間から抽出される。歩行フェーズ57~58%は、遊脚前期T4に含まれる。特徴量F2には、主に、足の蹴り出し速度に関連する大腿四頭筋の動きに関する特徴が含まれる。図14は、特徴量F2とTUG所要時間との相関関係の検証結果である。図1のグラフの横軸は、正規化角速度である。特徴量F2とTUG所要時間との相関係数Rは、0.338であった。
 特徴量F3は、冠状面内(Y軸周り)における角速度の時系列データに関する歩行波形データGyの歩行フェーズ19~20%の区間から抽出される。歩行フェーズ19~20%は、立脚中期T2に含まれる。特徴量F3には、主に、方向転換における中殿筋の動きに関する特徴が含まれる。図15は、特徴量F3とTUG所要時間との相関関係の検証結果である。図15のグラフの横軸は、正規化角速度である。特徴量F3とTUG所要時間との相関係数Rは、-0.377であった。
 特徴量F4は、水平面内(Z軸周り)における角速度の時系列データに関する歩行波形データEzの歩行フェーズ12~13%の区間から抽出される。歩行フェーズ12~13%は、立脚中期T2の序盤である。特徴量F4には、主に、方向転換における中殿筋の動きに関する特徴が含まれる。図16は、特徴量F4とTUG所要時間との相関関係の検証結果である。図16のグラフの横軸は、正規化角速度である。特徴量F4とTUG所要時間との相関係数Rは、-0.360であった。
 特徴量F5は、水平面内(Z軸周り)における角速度の時系列データに関する歩行波形データEzの歩行フェーズ74~75%の区間から抽出される。歩行フェーズ74~75%は、遊脚中期T6の序盤である。特徴量F5には、主に、立ち座りおよび方向転換における前脛骨筋の動きに関する特徴が含まれる。図17は、特徴量F5とTUG所要時間との相関関係の検証結果である。図17のグラフの横軸は、正規化角速度である。特徴量F5とTUG所要時間との相関係数Rは、0.324であった。
 特徴量F6は、冠状面内(Y軸周り)における角度(姿勢角)の時系列データに関する歩行波形データEyの歩行フェーズ76~80%の区間から抽出される。歩行フェーズ76~80%は、遊脚中期T6に含まれる。特徴量F6には、主に、立ち座りおよび方向転換における前脛骨筋の動きに関する特徴が含まれる。図18は、特徴量F6とTUG所要時間との相関関係の検証結果である。図18のグラフの横軸は、冠状面内(Y軸周り)における角度である。特徴量F6とTUG所要時間との相関係数Rは、0.302であった。
 図19は、移動能力としてTUG所要時間を推定するために予め構築された推定モデル151に、ユーザの歩行に伴って計測されたセンサデータから抽出される特徴量F1~F6を入力する一例を示す概念図である。推定モデル151は、特徴量F1~F6の入力に応じて、移動能力指標であるTUG所要時間を出力する。例えば、推定モデル151は、TUG所要時間の推定に用いられる特徴量F1~F6を説明変数とし、TUG所要時間を目的変数とする教師データを用いた学習で生成される。TUG所要時間を推定するための特徴量データの入力に応じて、移動能力の指標であるTUG所要時間に関する推定結果が出力されれば、推定モデル151の推定結果には限定を加えない。例えば、推定モデル151は、TUG所要時間の推定に用いられる特徴量F1~F6に加えて、属性データ(年齢)を説明変数として、TUG所要時間を推定するモデルであってもよい。
 例えば、記憶部132には、重回帰予測法を用いて、TUG所要時間を推定する推定モデルが記憶される。例えば、記憶部132には、以下の式1を用いて、TUG所要時間Tを推定するためのパラメータが記憶される。
T=a1×F1+a2×F2+a3×F3+a4×F4+a5×F5+a6×F6+a0・・・(1)
上記の式1において、F1、F2、F3、F4、F5、F6は、図12の対応表に示したTUG所要時間の推定に用いられる歩行フェーズクラスターごとの特徴量である。a1、a2、a3、a4、a5、a6は、F1、F2、F3、F4、F5、F6に掛け合わされる係数である。a0は、定数項である。例えば、記憶部132には、a0、a1、a2、a3、a4、a5、a6を記憶させておく。
 次に、上述した62名の被験者の計測データを用いて生成された推定モデル151を評価した結果を示す。ここでは、被験者の属性(歩行速度を含む)を用いて移動能力(TUG所要時間)を推定した検証例(図20)と、被験者の歩容の特徴量を用いて移動能力(TUG所要時間)を推定した検証例(図21)とを比較する。図20および図21には、61人の計測データを用いて生成された推定モデルを、LOSO(Leave-One-Subject-Out)の方法によって、残りの1人の計測データを用いてテストした結果を示す。図20および図21には、全員(62人)の被験者に対してLOSOを行い、テストによる予測値と計測値(真値)とを対応させた結果を示す。LOSOのテスト結果は、級内相関係数ICC(Intraclass Correlation Coefficients)、平均絶対誤差MAE(Mean Absolute Error)、決定係数R2の値で評価した。級内相関係数ICCには、検者間信頼性を評価するために、級内相関係数ICC(2、1)を用いた。
 図20は、性別、年齢、身長、体重、および歩行速度を説明変数とし、TUG所要時間を目的変数とした教師データを学習させた比較例の推定モデルの検証結果である。比較例の推定モデルでは、級内相関係数ICC(2、1)が0.44、平均絶対誤差MAEが0.69、決定係数R2が0.24であった。図20の検証結果では、TUGテストにおける動作の70%を占める歩行に大きな影響を及ぼす歩行速度が説明変数に入っていることもあり、級内相関係数ICC(2、1)がそれなりに高い。
 図21は、特徴量F1~F6および年齢を説明変数とし、TUG所要時間を目的変数とした教師データを学習させた本実施形態の推定モデル151の検証結果である。本実施形態の推定モデル151は、級内相関係数ICC(2、1)が0.686、平均絶対誤差MAEが0.62、決定係数R2が0.48であった。すなわち、本実施形態の推定モデル151は、比較例の推定モデルと比較して、信頼性が高く、誤差が小さく、説明変数によって目的変数が十分に説明されている。すなわち、本実施形態の手法によれば、属性および歩行速度のみを用いた推定モデルと比較して、信頼性が高く、誤差が小さく、説明変数によって目的変数が十分に説明された推定モデル151を生成できる。
 図22の検証結果では、TUGテストにおける動作の70%を占める歩行に大きな影響を及ぼす歩行速度が説明変数に入っていない。しかしながら、説明変数として歩行速度が用いられた図20の検証結果よりも、説明変数として歩行速度を用いなかった図22の検証結果の方が、級内相関係数ICC(2、1)が高い。特徴量F1~F6に歩行速度の影響が含まれることもあるが、TUGテストにおける動作の30%は、立ち座りや方向転換である。すなわち、TUGテストの成績には、歩行のみならず、立ち座りや方向転換などの動作の影響が大きく反映される。言い換えると、TUGテストの成績において、歩行速度は重要な因子であるが、立ち座りと方向転換を表現する特徴量がなければ、TUGテストの成績を高精度に推定することはできない。
 (動作)
 次に、移動能力推定システム1の動作について図面を参照しながら説明する。ここでは、移動能力推定システム1に含まれる歩容計測装置10および移動能力推定装置13について、個別に説明する。歩容計測装置10に関しては、歩容計測装置10に含まれる特徴量データ生成部12の動作について説明する。
 〔歩容計測装置〕
 図22は、歩容計測装置10に含まれる特徴量データ生成部12の動作について説明するためのフローチャートである。図22のフローチャートに沿った説明においては、特徴量データ生成部12を動作主体として説明する。
 図22において、まず、特徴量データ生成部12は、足の動きに関するセンサデータの時系列データを取得する(ステップS101)。
 次に、特徴量データ生成部12は、センサデータの時系列データから一歩行周期分の歩行波形データを抽出する(ステップS102)。特徴量データ生成部12は、センサデータの時系列データから踵接地および爪先離地を検出する。特徴量データ生成部12は、連続する踵接地間の区間の時系列データを、一歩行周期分の歩行波形データとして抽出する。
 次に、特徴量データ生成部12は、抽出された一歩行周期分の歩行波形データを正規化する(ステップS103)。特徴量データ生成部12は、一歩行周期分の歩行波形データを0~100%の歩行周期に正規化する(第1正規化)。さらに、特徴量データ生成部12は、第1正規化された一歩行周期分の歩行波形データの立脚相と遊脚相の比を60:40に正規化する(第2正規化)。
 次に、特徴量データ生成部12は、正規化された歩行波形に関して、移動能力の推定に用いられる歩行フェーズから特徴量を抽出する(ステップS104)。例えば、特徴量データ生成部12は、予め構築された推定モデルに入力される特徴量を抽出する。
 次に、特徴量データ生成部12は、抽出された特徴量を用いて、歩行フェーズクラスターごとの特徴量を生成する(ステップS105)。
 次に、特徴量データ生成部12は、歩行フェーズクラスターごとの特徴量を統合して、一歩行周期分の特徴量データを生成する(ステップS106)。
 次に、特徴量データ生成部12は、生成された特徴量データを移動能力推定装置13に出力する(ステップS107)。
 〔移動能力推定装置〕
 図23は、移動能力推定装置13の動作について説明するためのフローチャートである。図23のフローチャートに沿った説明においては、移動能力推定装置13を動作主体として説明する。
 図23において、まず、移動能力推定装置13は、足の動きに関するセンサデータを用いて生成された特徴量データを取得する(ステップS131)。
 次に、移動能力推定装置13は、取得した特徴量データを、移動能力(TUG所要時間)を推定する推定モデルに入力する(ステップS132)。
 次に、移動能力推定装置13は、推定モデルからの出力(推定値)に応じて、ユーザの移動能力を推定する(ステップS133)。例えば、移動能力推定装置13は、ユーザのTUG所要時間を移動能力として推定する。
 次に、移動能力推定装置13は、推定された移動能力に関する情報を出力する(ステップS134)。例えば、移動能力は、ユーザの携帯する端末装置(図示しない)に出力される。例えば、移動能力は、移動能力を用いた処理を実行するシステムに出力される。
 (適用例)
 次に、本実施形態に係る適用例について図面を参照しながら説明する。以下の適用例において、靴に配置された歩容計測装置10によって計測された特徴量データを用いて、ユーザが携帯する携帯端末にインストールされた移動能力推定装置13の機能が、移動能力を推定する例を示す。
 図24は、歩容計測装置10が配置された靴100を履いて歩行するユーザの携帯する携帯端末160の画面に、移動能力推定装置13による推定結果を表示させる一例を示す概念図である。図24は、ユーザの歩行中に計測されたセンサデータに応じた特徴量データを用いた移動能力の推定結果に応じた情報を、携帯端末160の画面に表示させる例である。
 図24は、移動能力であるTUG所要時間の推定値に応じた情報が、携帯端末160の画面に表示される例である。図24の例では、移動能力の推定結果として、TUG所要時間の推定値が、携帯端末160の表示部に表示される。また、図24の例では、移動能力であるTUG所要時間の推定値に応じて、「移動能力が低下しています。」という移動能力の推定結果に関する情報が、携帯端末160の表示部に表示される。また、図24の例では、移動能力であるTUG所要時間の推定値に応じて、「トレーニングAを推奨します。下記の動画をご覧ください。」という移動能力の推定結果に応じた推薦情報が、携帯端末160の表示部に表示される。携帯端末160の表示部に表示された情報を確認したユーザは、推薦情報に応じて、トレーニングAの動画を参照して運動することによって、移動能力の増大につながるトレーニングを実践できる。
 以上のように、本実施形態の移動能力推定システムは、歩容計測装置および移動能力推定装置を備える。歩容計測装置は、センサと特徴量データ生成部を備える。センサは、加速度センサと角速度センサを有する。センサは、加速度センサを用いて、空間加速度を計測する。センサは、角速度センサを用いて、空間角速度を計測する。センサは、計測した空間加速度および空間角速度を用いて、足の動きに関するセンサデータを生成する。センサは、生成したセンサデータを特徴量データ生成部に出力する。特徴量データ生成部は、足の動きに関するセンサデータの時系列データを取得する。特徴量データ生成部は、センサデータの時系列データから一歩行周期分の歩行波形データを抽出する。特徴量データ生成部は、抽出された歩行波形データを正規化する。特徴量データ生成部は、正規化された歩行波形データから、移動能力の推定に用いられる特徴量を、時間的に連続する少なくとも一つの歩行フェーズによって構成される歩行フェーズクラスターから抽出する。特徴量データ生成部は、抽出された特徴量を含む特徴量データを生成する。特徴量データ生成部は、生成された特徴量データを出力する。
 移動能力推定装置は、データ取得部、記憶部、推定部、および出力部を備える。データ取得部は、ユーザの足の動きに関するセンサデータから抽出された、ユーザの移動能力の推定に用いられる特徴量を含む特徴量データを取得する。記憶部は、特徴量データの入力に応じた移動能力指標を出力する推定モデルを記憶する。推定部は、取得された特徴量データを推定モデルに入力して、ユーザの移動能力を推定する。出力部は、推定された移動能力に関する情報を出力する。
 本実施形態の移動能力推定システムは、ユーザの足の動きに関するセンサデータから抽出された特徴量を用いて、ユーザの移動能力を推定する。そのため、本実施形態の移動能力推定システムによれば、移動能力を計測するための器具を用いずに、日常生活において移動能力を適宜推定できる。
 本実施形態の一態様において、データ取得部は、足の動きに関するセンサデータの時系列データを用いて生成された歩行波形データから抽出された特徴量を含む特徴量データを取得する。データ取得部は、移動能力指標として立ち座りテストの成績値を推定するために用いられる特徴量を含む特徴量データを取得する。本態様によれば、足の動きに関するセンサデータを用いることで、移動能力を計測するための器具を用いずに、日常生活において移動能力を適宜推定できる。
 本実施形態の一態様において、記憶部は、複数の被験者に関する教師データを用いた学習によって生成された推定モデルを記憶する。推定モデルは、移動能力指標の推定に用いられる特徴量を説明変数とし、複数の被験者の移動能力指標を目的変数とする教師データを用いた学習によって生成される。推定部は、ユーザに関して取得された特徴量データを推定モデルに入力する。推定部は、推定モデルから出力されたユーザの移動能力指標に応じて、ユーザの移動能力を推定する。本態様によれば、移動能力を計測するための器具を用いずに、日常生活において移動能力を適宜推定できる。
 本実施形態の一態様において、記憶部は、被験者の属性データ(年齢)を含めた説明変数を用いて学習された推定モデルを記憶する。推定部は、ユーザに関する特徴量データおよび属性データ(年齢)を推定モデルに入力する。推定部は、推定モデルから出力されたユーザの移動能力指標に応じて、ユーザの移動能力を推定する。本態様では、移動能力に影響を与える属性データ(年齢)を含めて、移動能力を推定する。そのため、本態様によれば、移動能力をより高精度に計測できる。
 本実施形態の一態様において、記憶部は、複数の被験者に関する教師データを用いた学習によって生成された推定モデルを記憶する。推定モデルは、複数の被験者の歩行波形データから抽出された特徴量を説明変数とし、複数の被験者の移動能力指標を目的変数とする教師データを用いた学習によって生成されたモデルである。例えば、立脚中期から抽出された中殿筋の活動に関する特徴量が、説明変数に含まれる。例えば、遊脚前期から遊脚初期にかけた区間から抽出された大腿四頭筋に関する特徴量が、説明変数に含まれる。例えば、遊脚中期から抽出された前脛骨筋の活動に関する特徴量が、説明変数に含まれる。推定部は、ユーザの歩行に応じて取得された特徴量データを推定モデルに入力する。推定部は、推定モデルから出力されたユーザの移動能力指標に応じて、ユーザの移動能力を推定する。本態様によれば、移動能力に影響を与える筋肉の活動に応じた特徴量を学習させた推定モデルを用いることによって、身体活動により適合した移動能力を推定できる。
 本実施形態の一態様において、記憶部は、複数の被験者に関して、歩行波形データから抽出された複数の特徴量を説明変数とし、被験者の移動能力指標に関する移動能力を目的変数とする教師データを用いた学習によって生成された推定モデルを記憶する。例えば、横方向加速度の歩行波形データの遊脚初期から抽出された特徴量が、説明変数に含まれる。例えば、矢状面内における角速度の歩行波形データの遊脚前期から抽出された特徴量が、説明変数に含まれる。例えば、水平面内における角速度の歩行波形データの立脚中期の序盤および遊脚中期の序盤から抽出された特徴量が、説明変数に含まれる。例えば、冠状面内における角度の歩行波形データの遊脚中期から抽出された特徴量が、説明変数に含まれる。
データ取得部は、ユーザの歩行に応じて抽出された特徴量を含む特徴量データを取得する。例えば、データ取得部は、横方向加速度の歩行波形データの遊脚初期の特徴量を取得する。例えば、データ取得部は、矢状面内における角速度の歩行波形データの遊脚前期の特徴量を取得する。例えば、データ取得部は、水平面内における角速度の歩行波形データの立脚中期の序盤および遊脚中期の序盤の特徴量を取得する。例えば、データ取得部は、水平面内における角速度の歩行波形データの立脚中期の序盤および遊脚中期の序盤の特徴量を取得する。推定部は、取得された特徴量データを推定モデルに入力する。推定部は、推定モデルから出力されたユーザの移動能力指標に応じて、ユーザの移動能力を推定する。本態様によれば、移動能力に影響を与える筋肉の活動に応じた特徴が含まれる歩行波形データから抽出された特徴量を学習させた推定モデルを用いることによって、足の動きに関するセンサデータを用いて、身体活動により適合した移動能力を推定できる。
 本実施形態の一態様において、移動能力推定装置は、ユーザによって視認可能な画面を有する端末装置に実装される。例えば、移動能力推定装置は、ユーザの足の動きに応じて推定された移動能力に関する情報を、端末装置の画面に表示させる。例えば、移動能力推定装置は、ユーザの足の動きに応じて推定された移動能力に応じた推薦情報を、端末装置の画面に表示させる。例えば、移動能力推定装置は、ユーザの足の動きに応じて推定された移動能力に応じた推薦情報として、移動能力に関する身体部位を鍛えるためのトレーニングに関する動画を端末装置の画面に表示させる。本態様によれば、ユーザの足の動きに関するセンサデータから抽出される特徴量に応じて推定された移動能力を、ユーザによって視認可能な画面に表示させることによって、ユーザが自身の移動能力に応じた情報を確認できる。
 (第2の実施形態)
 次に、第2の実施形態に係る学習システムについて図面を参照しながら説明する。本実施形態の学習システムは、歩容計測装置によって計測されたセンサデータから抽出された特徴量データを用いた学習によって、特徴量の入力に応じて移動能力を推定するための推定モデルを生成する。
 (構成)
 図25は、本実施形態に係る学習システム2の構成の一例を示すブロック図である。学習システム2は、歩容計測装置20および学習装置25を備える。歩容計測装置20と学習装置25は、有線で接続されてもよいし、無線で接続されてもよい。歩容計測装置20と学習装置25は、単一の装置で構成されてもよい。また、学習システム2の構成から歩容計測装置20を除き、学習装置25だけで学習システム2が構成されてもよい。図25には歩容計測装置20を一つしか図示していないが、左右両足に歩容計測装置20が一つずつ(計二つ)配置されてもよい。また、学習装置25は、歩容計測装置20に接続されず、予め歩容計測装置20によって生成されてデータベースに格納されていた特徴量データを用いて、学習を実行するように構成されてもよい。
 歩容計測装置20は、左右の足のうち少なくとも一方に設置される。歩容計測装置20は、第1の実施形態の歩容計測装置10と同様の構成である。歩容計測装置20は、加速度センサおよび角速度センサを含む。歩容計測装置20は、計測された物理量をデジタルデータ(センサデータとも呼ぶ)に変換する。歩容計測装置20は、センサデータの時系列データから、正規化された一歩行周期分の歩行波形データを生成する。歩容計測装置20は、推定対象である移動能力の推定に用いられる特徴量データを生成する。歩容計測装置20は、生成された特徴量データを学習装置25に送信する。なお、歩容計測装置20は、学習装置25によってアクセスされるデータベース(図示しない)に、特徴量データを送信するように構成されてもよい。データベースに蓄積された特徴量データは、学習装置25の学習に用いられる。
 学習装置25は、歩容計測装置20から特徴量データを受信する。データベース(図示しない)に蓄積された特徴量データを用いる場合、学習装置25は、データベースから特徴量データを受信する。学習装置25は、受信された特徴量データを用いた学習を実行する。例えば、学習装置25は、複数の被験者歩行波形データから抽出された特徴量データを説明変数とし、その特徴量データに応じた移動能力に関する値を目的変数とする教師データを学習する。学習装置25が実行する学習のアルゴリズムには、特に限定を加えない。学習装置25は、複数の被験者に関する教師データを用いて学習された推定モデルを生成する。学習装置25は、生成された推定モデルを記憶する。学習装置25によって学習された推定モデルは、学習装置25の外部の記憶装置に格納されてもよい。
 〔学習装置〕
 次に、学習装置25の詳細について図面を参照しながら説明する。図26は、学習装置25の詳細構成の一例を示すブロック図である。学習装置25は、受信部251、学習部253、および記憶部255を有する。
 受信部251は、歩容計測装置20から特徴量データを受信する。受信部251は、受信された特徴量データを学習部253に出力する。受信部251は、ケーブルなどの有線を介して特徴量データを歩容計測装置20から受信してもよいし、無線通信を介して特徴量データを歩容計測装置20から受信してもよい。例えば、受信部251は、Bluetooth(登録商標)やWiFi(登録商標)などの規格に則した無線通信機能(図示しない)を介して、特徴量データを歩容計測装置20から受信するように構成される。なお、受信部251の通信機能は、Bluetooth(登録商標)やWiFi(登録商標)以外の規格に則していてもよい。
 学習部253は、受信部251から特徴量データを取得する。学習部253は、取得された特徴量データを用いて学習を実行する。例えば、学習部253は、被験者の足の動きに応じて計測されたセンサデータから抽出された特徴量データを説明変数とし、その被験者のTUG所要時間を目的変数とするデータセットを教師データとして学習する。例えば、学習部253は、複数の被験者に関して学習された、特徴量データの入力に応じてTUG所要時間を推定する推定モデルを生成する。例えば、学習部253は、属性データ(年齢)に応じた推定モデルを生成する。例えば、学習部253は、被験者の足の動きに応じて計測されたセンサデータから抽出された特徴量データと、被験者の属性データ(年齢)とを説明変数として、移動能力としてTUG所要時間を推定する推定モデルを生成する。学習部253は、複数の被験者に関して学習された推定モデルを記憶部255に記憶させる。
 例えば、学習部253は、線形回帰のアルゴリズムを用いた学習を実行する。例えば、学習部253は、サポートベクターマシン(SVM:Support Vector Machine)のアルゴリズムを用いた学習を実行する。例えば、学習部253は、ガウス過程回帰(GPR:Gaussian Process Regression)のアルゴリズムを用いた学習を実行する。例えば、学習部253は、ランダムフォレスト(RF:Random Forest)のアルゴリズムを用いた学習を実行する。例えば、学習部253は、特徴量データに応じて、その特徴量データの生成元の被験者を分類する教師なし学習を実行してもよい。学習部253が実行する学習のアルゴリズムには、特に限定を加えない。
 学習部253は、一歩行周期分の歩行波形データを説明変数として、学習を実行してもよい。例えば、学習部253は、3軸方向の加速度、3軸周りの角速度、3軸周りの角度(姿勢角)の歩行波形データを説明変数とし、推定対象である移動能力の正解値を目的変数とした教師あり学習を実行する。例えば、0~100%の歩行周期において歩行フェーズが1%刻みで設定されている場合、学習部253は、909個の説明変数を用いて学習する。
 図27は、推定モデルを生成するための学習について説明するための概念図である。図27は、説明変数である特徴量F1~F6と、目的変数であるTUG所要時間(移動能力指標)とのデータセットを教師データとして、学習部253に学習させる一例を示す概念図である。例えば、学習部253は、複数の被験者に関するデータを学習し、センサデータから抽出された特徴量の入力に応じて、TUG所要時間(移動能力指標)に関する出力(推定値)を出力する推定モデルを生成する。
 記憶部255は、複数の被験者に関して学習された推定モデルを記憶する。例えば、記憶部255は、複数の被験者に関して学習された、移動能力を推定する推定モデルを記憶する。例えば、記憶部255に記憶された推定モデルは、第1の実施形態の移動能力推定装置13による移動能力の推定に用いられる。
 以上のように、本実施形態の学習システムは、歩容計測装置および学習装置を備える。歩容計測装置は、足の動きに関するセンサデータの時系列データを取得する。歩容計測装置は、センサデータの時系列データから一歩行周期分の歩行波形データを抽出し、抽出された歩行波形データを正規化する。歩容計測装置は、正規化された歩行波形データから、ユーザの移動能力の推定に用いられる特徴量を、時間的に連続する少なくとも一つの歩行フェーズによって構成される歩行フェーズクラスターから抽出する。歩容計測装置は、抽出された特徴量を含む特徴量データを生成する。歩容計測装置は、生成された特徴量データを学習装置に出力する。
 学習装置は、受信部、学習部、および記憶部を有する。受信部は、歩容計測装置によって生成された特徴量データを取得する。学習部は、特徴量データを用いて学習を実行する。学習部は、ユーザの歩行に伴って計測されるセンサデータの時系列データから抽出される歩行フェーズクラスターの特徴量(第2特徴量)の入力に応じて、移動能力を出力する推定モデルを生成する。学習部によって生成された推定モデルは、記憶部に保存される。
 本実施形態の学習システムは、歩容計測装置によって計測された特徴量データを用いて、推定モデルを生成する。そのため、本態様によれば、移動能力を計測するための器具を用いずに、日常生活において移動能力を適宜推定することを可能とする推定モデルを生成できる。
 (第3の実施形態)
 次に、第3の実施形態に係る移動能力推定装置について図面を参照しながら説明する。本実施形態の移動能力推定装置は、第1の実施形態の移動能力推定システムに含まれる移動能力推定装置を簡略化した構成である。
 図28は、本実施形態に係る移動能力推定装置33の構成の一例を示すブロック図である。移動能力推定装置33は、データ取得部331、記憶部332、推定部333、および出力部335を備える。
 データ取得部331は、ユーザの足の動きに関するセンサデータから抽出された、ユーザの移動能力指標の推定に用いられる特徴量を含む特徴量データを取得する。記憶部332は、特徴量データの入力に応じた移動能力指標を出力する推定モデルを記憶する。推定部333は、取得された特徴量データを推定モデルに入力し、推定モデルから出力された移動能力指標に応じて、ユーザの移動能力を推定する。出力部335は、推定された移動能力に関する情報を出力する。
 以上のように、本実施形態では、ユーザの足の動きに関するセンサデータから抽出された特徴量を用いて、ユーザの移動能力を推定する。そのため、本実施形態によれば、移動能力を計測するための器具を用いずに、日常生活において移動能力を適宜推定できる。
 (ハードウェア)
 ここで、本開示の各実施形態に係る制御や処理を実行するハードウェア構成について、図29の情報処理装置90を一例として挙げて説明する。なお、図29の情報処理装置90は、各実施形態の制御や処理を実行するための構成例であって、本開示の範囲を限定するものではない。
 図29のように、情報処理装置90は、プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95、および通信インターフェース96を備える。図29においては、インターフェースをI/F(Interface)と略記する。プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95、および通信インターフェース96は、バス98を介して、互いにデータ通信可能に接続される。また、プロセッサ91、主記憶装置92、補助記憶装置93、および入出力インターフェース95は、通信インターフェース96を介して、インターネットやイントラネットなどのネットワークに接続される。
 プロセッサ91は、補助記憶装置93等に格納されたプログラムを、主記憶装置92に展開する。プロセッサ91は、主記憶装置92に展開されたプログラムを実行する。本実施形態においては、情報処理装置90にインストールされたソフトウェアプログラムを用いる構成とすればよい。プロセッサ91は、各実施形態に係る制御や処理を実行する。
 主記憶装置92は、プログラムが展開される領域を有する。主記憶装置92には、プロセッサ91によって、補助記憶装置93等に格納されたプログラムが展開される。主記憶装置92は、例えばDRAM(Dynamic Random Access Memory)などの揮発性メモリによって実現される。また、主記憶装置92として、MRAM(Magnetoresistive Random Access Memory)などの不揮発性メモリが構成/追加されてもよい。
 補助記憶装置93は、プログラムなどの種々のデータを記憶する。補助記憶装置93は、ハードディスクやフラッシュメモリなどのローカルディスクによって実現される。なお、種々のデータを主記憶装置92に記憶させる構成とし、補助記憶装置93を省略することも可能である。
 入出力インターフェース95は、規格や仕様に基づいて、情報処理装置90と周辺機器とを接続するためのインターフェースである。通信インターフェース96は、規格や仕様に基づいて、インターネットやイントラネットなどのネットワークを通じて、外部のシステムや装置に接続するためのインターフェースである。入出力インターフェース95および通信インターフェース96は、外部機器と接続するインターフェースとして共通化してもよい。
 情報処理装置90には、必要に応じて、キーボードやマウス、タッチパネルなどの入力機器が接続されてもよい。それらの入力機器は、情報や設定の入力に使用される。なお、タッチパネルを入力機器として用いる場合は、表示機器の表示画面が入力機器のインターフェースを兼ねる構成としてもよい。プロセッサ91と入力機器との間のデータ通信は、入出力インターフェース95に仲介させればよい。
 また、情報処理装置90には、情報を表示するための表示機器を備え付けてもよい。表示機器を備え付ける場合、情報処理装置90には、表示機器の表示を制御するための表示制御装置(図示しない)が備えられていることが好ましい。表示機器は、入出力インターフェース95を介して情報処理装置90に接続すればよい。
 また、情報処理装置90には、ドライブ装置が備え付けられてもよい。ドライブ装置は、プロセッサ91と記録媒体(プログラム記録媒体)との間で、記録媒体からのデータやプログラムの読み込み、情報処理装置90の処理結果の記録媒体への書き込みなどを仲介する。ドライブ装置は、入出力インターフェース95を介して情報処理装置90に接続すればよい。
 以上が、本発明の各実施形態に係る制御や処理を可能とするためのハードウェア構成の一例である。なお、図29のハードウェア構成は、各実施形態に係る制御や処理を実行するためのハードウェア構成の一例であって、本発明の範囲を限定するものではない。また、各実施形態に係る制御や処理をコンピュータに実行させるプログラムも本発明の範囲に含まれる。さらに、各実施形態に係るプログラムを記録したプログラム記録媒体も本発明の範囲に含まれる。記録媒体は、例えば、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光学記録媒体で実現できる。記録媒体は、USB(Universal Serial Bus)メモリやSD(Secure Digital)カードなどの半導体記録媒体によって実現されてもよい。また、記録媒体は、フレキシブルディスクなどの磁気記録媒体、その他の記録媒体によって実現されてもよい。プロセッサが実行するプログラムが記録媒体に記録されている場合、その記録媒体はプログラム記録媒体に相当する。
 各実施形態の構成要素は、任意に組み合わせてもよい。また、各実施形態の構成要素は、ソフトウェアによって実現されてもよいし、回路によって実現されてもよい。
 以上、実施形態を参照して本発明を説明してきたが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
 ユーザの足の動きに関するセンサデータから抽出された、前記ユーザの移動能力の推定に用いられる特徴量を含む特徴量データを取得するデータ取得部と、
 前記特徴量データの入力に応じた移動能力指標を出力する推定モデルを記憶する記憶部と、
 取得された前記特徴量データを前記推定モデルに入力し、前記推定モデルから出力された前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する推定部と、
 推定された前記ユーザの前記移動能力に関する情報を出力する出力部と、を備える移動能力推定装置。
(付記2)
 前記データ取得部は、
 足の動きに関する前記センサデータの時系列データを用いて生成された歩行波形データから抽出された、前記移動能力指標としてTUG(Time Up and Go)テストの成績値を推定するために用いられる特徴量を含む前記特徴量データを取得する付記1に記載の移動能力推定装置。
(付記3)
 前記記憶部は、
 複数の被験者に関して、前記移動能力指標の推定に用いられる特徴量を説明変数とし、複数の前記被験者の前記移動能力指標を目的変数とする教師データを用いた学習によって生成された前記推定モデルを記憶し、
 前記推定部は、
 前記ユーザに関して取得された前記特徴量データを前記推定モデルに入力し、前記推定モデルから出力された前記ユーザの前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する付記2に記載の移動能力推定装置。
(付記4)
 前記記憶部は、
 複数の前記被験者の年齢を含めた説明変数を用いて学習された前記推定モデルを記憶し、
 前記推定部は、
 前記ユーザに関する前記特徴量データおよび年齢を前記推定モデルに入力し、前記推定モデルから出力された前記ユーザの前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する付記3に記載の移動能力推定装置。
(付記5)
 前記記憶部は、
 複数の前記被験者の前記歩行波形データに関して、立脚中期から抽出された中殿筋の活動に関する特徴量、遊脚前期から遊脚初期にかけた区間から抽出された大腿四頭筋に関する特徴量、および遊脚中期から抽出された前脛骨筋の活動に関する特徴量、を説明変数とし、複数の前記被験者の前記移動能力指標を目的変数とする教師データを用いた学習によって生成された前記推定モデルを記憶し、
 前記推定部は、
 前記ユーザの歩行に応じて取得された前記特徴量データを前記推定モデルに入力し、前記推定モデルから出力された前記ユーザの前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する付記3または4に記載の移動能力推定装置。
(付記6)
 前記記憶部は、
 複数の前記被験者に関して、横方向加速度の前記歩行波形データの遊脚初期から抽出された特徴量と、矢状面内における角速度の前記歩行波形データの遊脚前期から抽出された特徴量と、冠状面内における角速度の前記歩行波形データの立脚中期から抽出された特徴量と、水平面内における角速度の前記歩行波形データの立脚中期の序盤および遊脚中期の序盤から抽出された特徴量と、冠状面内における角度の前記歩行波形データの遊脚中期から抽出された特徴量とを説明変数とし、複数の前記被験者の前記移動能力指標を目的変数とする教師データを用いた学習によって生成された前記推定モデルを記憶し、
 前記データ取得部は、
 前記ユーザの歩行に応じて抽出された、横方向加速度の前記歩行波形データの遊脚初期の特徴量と、矢状面内における角速度の前記歩行波形データの遊脚前期の特徴量と、冠状面内における角速度の前記歩行波形データの立脚中期の特徴量と、水平面内における角速度の前記歩行波形データの立脚中期の序盤および遊脚中期の序盤の特徴量と、冠状面内における角度の前記歩行波形データの遊脚中期の特徴量とを含む前記特徴量データを取得し、
 前記推定部は、
 取得された前記特徴量データを前記推定モデルに入力し、前記推定モデルから出力された前記ユーザの前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する付記5に記載の移動能力推定装置。
(付記7)
 前記推定部は、
 前記ユーザに関して推定された前記移動能力指標に応じて、前記ユーザの前記移動能力に関する情報を推定し、
 前記出力部は、
 推定された前記移動能力に関する情報を出力する付記3乃至6のいずれか一つに記載の移動能力推定装置。
(付記8)
 付記1乃至7のいずれか一つに記載の移動能力推定装置と、
 移動能力の推定対象であるユーザの履物に設置され、空間加速度および空間角速度を計測し、計測した前記空間加速度および前記空間角速度を用いて足の動きに関するセンサデータを生成し、生成した前記センサデータを出力するセンサと、歩容の特徴を含む前記センサデータの時系列データを取得し、前記センサデータの時系列データから一歩行周期分の歩行波形データを抽出し、抽出された前記歩行波形データを正規化し、正規化された前記歩行波形データから、前記移動能力の推定に用いられる特徴量を、時間的に連続する少なくとも一つの歩行フェーズによって構成される歩行フェーズクラスターから抽出し、抽出された特徴量を含む特徴量データを生成し、生成された前記特徴量データを前記移動能力推定装置に出力する特徴量データ生成部と有する歩容計測装置と、を備える移動能力推定システム。
(付記9)
 前記移動能力推定装置は、
 前記ユーザによって視認可能な画面を有する端末装置に実装され、
 前記ユーザの足の動きに応じて推定された前記移動能力に関する情報を、前記端末装置の画面に表示させる付記8に記載の移動能力推定システム。
(付記10)
 前記移動能力推定装置は、
 前記ユーザの足の動きに応じて推定された前記移動能力に応じた推薦情報を、前記端末装置の画面に表示させる付記9に記載の移動能力推定システム。
(付記11)
 前記移動能力推定装置は、
 前記ユーザの足の動きに応じて推定された前記移動能力に応じた前記推薦情報として、前記移動能力に関する身体部位を鍛えるためのトレーニングに関する動画を前記端末装置の画面に表示させる付記10に記載の移動能力推定システム。
(付記12)
 コンピュータが、
 ユーザの足の動きに関するセンサデータから抽出された、前記ユーザの移動能力の推定に用いられる特徴量を含む特徴量データを取得し、
 取得された前記特徴量データを、前記特徴量データの入力に応じた移動能力指標を出力する推定モデルに入力し、
 前記推定モデルから出力された前記移動能力指標に応じて、前記ユーザの前記移動能力を推定し、
 推定された前記ユーザの前記移動能力に関する情報を出力する移動能力推定方法。
(付記13)
 ユーザの足の動きに関するセンサデータから抽出された、前記ユーザの移動能力の推定に用いられる特徴量を含む特徴量データを取得する処理と、
 取得された前記特徴量データを、前記特徴量データの入力に応じた移動能力指標を出力する推定モデルに入力する処理と、
 前記推定モデルから出力された前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する処理と、
 推定された前記ユーザの前記移動能力に関する情報を出力する処理と、をコンピュータに実行させるプログラム。
 1  移動能力推定システム
 2  学習システム
 10、20  歩容計測装置
 11  センサ
 12  特徴量データ生成部
 13  移動能力推定装置
 25  学習装置
 111  加速度センサ
 112  角速度センサ
 121  取得部
 122  正規化部
 123  抽出部
 125  生成部
 127  特徴量データ出力部
 131、331  データ取得部
 132、332  記憶部
 133、333  推定部
 135、335  出力部
 251  受信部
 253  学習部
 255  記憶部

Claims (13)

  1.  ユーザの足の動きに関するセンサデータから抽出された、前記ユーザの移動能力の推定に用いられる特徴量を含む特徴量データを取得するデータ取得手段と、
     前記特徴量データの入力に応じた移動能力指標を出力する推定モデルを記憶する記憶手段と、
     取得された前記特徴量データを前記推定モデルに入力し、前記推定モデルから出力された前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する推定手段と、
     推定された前記ユーザの前記移動能力に関する情報を出力する出力手段と、を備える移動能力推定装置。
  2.  前記データ取得手段は、
     足の動きに関する前記センサデータの時系列データを用いて生成された歩行波形データから抽出された、前記移動能力指標としてTUG(Time Up and Go)テストの成績値を推定するために用いられる特徴量を含む前記特徴量データを取得する請求項1に記載の移動能力推定装置。
  3.  前記記憶手段は、
     複数の被験者に関して、前記移動能力指標の推定に用いられる特徴量を説明変数とし、複数の前記被験者の前記移動能力指標を目的変数とする教師データを用いた学習によって生成された前記推定モデルを記憶し、
     前記推定手段は、
     前記ユーザに関して取得された前記特徴量データを前記推定モデルに入力し、前記推定モデルから出力された前記ユーザの前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する請求項2に記載の移動能力推定装置。
  4.  前記記憶手段は、
     複数の前記被験者の年齢を含めた説明変数を用いて学習された前記推定モデルを記憶し、
     前記推定手段は、
     前記ユーザに関する前記特徴量データおよび年齢を前記推定モデルに入力し、前記推定モデルから出力された前記ユーザの前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する請求項3に記載の移動能力推定装置。
  5.  前記記憶手段は、
     複数の前記被験者の前記歩行波形データに関して、立脚中期から抽出された中殿筋の活動に関する特徴量、遊脚前期から遊脚初期にかけた区間から抽出された大腿四頭筋に関する特徴量、および遊脚中期から抽出された前脛骨筋の活動に関する特徴量、を説明変数とし、複数の前記被験者の前記移動能力指標を目的変数とする教師データを用いた学習によって生成された前記推定モデルを記憶し、
     前記推定手段は、
     前記ユーザの歩行に応じて取得された前記特徴量データを前記推定モデルに入力し、前記推定モデルから出力された前記ユーザの前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する請求項3または4に記載の移動能力推定装置。
  6.  前記記憶手段は、
     複数の前記被験者に関して、横方向加速度の前記歩行波形データの遊脚初期から抽出された特徴量と、矢状面内における角速度の前記歩行波形データの遊脚前期から抽出された特徴量と、冠状面内における角速度の前記歩行波形データの立脚中期から抽出された特徴量と、水平面内における角速度の前記歩行波形データの立脚中期の序盤および遊脚中期の序盤から抽出された特徴量と、冠状面内における角度の前記歩行波形データの遊脚中期から抽出された特徴量とを説明変数とし、複数の前記被験者の前記移動能力指標を目的変数とする教師データを用いた学習によって生成された前記推定モデルを記憶し、
     前記データ取得手段は、
     前記ユーザの歩行に応じて抽出された、横方向加速度の前記歩行波形データの遊脚初期の特徴量と、矢状面内における角速度の前記歩行波形データの遊脚前期の特徴量と、冠状面内における角速度の前記歩行波形データの立脚中期の特徴量と、水平面内における角速度の前記歩行波形データの立脚中期の序盤および遊脚中期の序盤の特徴量と、冠状面内における角度の前記歩行波形データの遊脚中期の特徴量とを含む前記特徴量データを取得し、
     前記推定手段は、
     取得された前記特徴量データを前記推定モデルに入力し、前記推定モデルから出力された前記ユーザの前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する請求項5に記載の移動能力推定装置。
  7.  前記推定手段は、
     前記ユーザに関して推定された前記移動能力指標に応じて、前記ユーザの前記移動能力に関する情報を推定し、
     前記出力手段は、
     推定された前記移動能力に関する情報を出力する請求項3乃至6のいずれか一項に記載の移動能力推定装置。
  8.  請求項1乃至7のいずれか一項に記載の移動能力推定装置と、
     移動能力の推定対象であるユーザの履物に設置され、空間加速度および空間角速度を計測し、計測した前記空間加速度および前記空間角速度を用いて足の動きに関するセンサデータを生成し、生成した前記センサデータを出力するセンサと、歩容の特徴を含む前記センサデータの時系列データを取得し、前記センサデータの時系列データから一歩行周期分の歩行波形データを抽出し、抽出された前記歩行波形データを正規化し、正規化された前記歩行波形データから、前記移動能力の推定に用いられる特徴量を、時間的に連続する少なくとも一つの歩行フェーズによって構成される歩行フェーズクラスターから抽出し、抽出された特徴量を含む特徴量データを生成し、生成された前記特徴量データを前記移動能力推定装置に出力する特徴量データ生成手段と有する歩容計測装置と、を備える移動能力推定システム。
  9.  前記移動能力推定装置は、
     前記ユーザによって視認可能な画面を有する端末装置に実装され、
     前記ユーザの足の動きに応じて推定された前記移動能力に関する情報を、前記端末装置の画面に表示させる請求項8に記載の移動能力推定システム。
  10.  前記移動能力推定装置は、
     前記ユーザの足の動きに応じて推定された前記移動能力に応じた推薦情報を、前記端末装置の画面に表示させる請求項9に記載の移動能力推定システム。
  11.  前記移動能力推定装置は、
     前記ユーザの足の動きに応じて推定された前記移動能力に応じた前記推薦情報として、前記移動能力に関する身体部位を鍛えるためのトレーニングに関する動画を前記端末装置の画面に表示させる請求項10に記載の移動能力推定システム。
  12.  コンピュータが、
     ユーザの足の動きに関するセンサデータから抽出された、前記ユーザの移動能力の推定に用いられる特徴量を含む特徴量データを取得し、
     取得された前記特徴量データを、前記特徴量データの入力に応じた移動能力指標を出力する推定モデルに入力し、
     前記推定モデルから出力された前記移動能力指標に応じて、前記ユーザの前記移動能力を推定し、
     推定された前記ユーザの前記移動能力に関する情報を出力する移動能力推定方法。
  13.  ユーザの足の動きに関するセンサデータから抽出された、前記ユーザの移動能力の推定に用いられる特徴量を含む特徴量データを取得する処理と、
     取得された前記特徴量データを、前記特徴量データの入力に応じた移動能力指標を出力する推定モデルに入力する処理と、
     前記推定モデルから出力された前記移動能力指標に応じて、前記ユーザの前記移動能力を推定する処理と、
     推定された前記ユーザの前記移動能力に関する情報を出力する処理と、をコンピュータに実行させるプログラムを記録させた非一過性の記録媒体。
PCT/JP2021/048552 2021-12-27 2021-12-27 移動能力推定装置、移動能力推定システム、移動能力推定方法、および記録媒体 WO2023127010A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/048552 WO2023127010A1 (ja) 2021-12-27 2021-12-27 移動能力推定装置、移動能力推定システム、移動能力推定方法、および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/048552 WO2023127010A1 (ja) 2021-12-27 2021-12-27 移動能力推定装置、移動能力推定システム、移動能力推定方法、および記録媒体

Publications (1)

Publication Number Publication Date
WO2023127010A1 true WO2023127010A1 (ja) 2023-07-06

Family

ID=86998526

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048552 WO2023127010A1 (ja) 2021-12-27 2021-12-27 移動能力推定装置、移動能力推定システム、移動能力推定方法、および記録媒体

Country Status (1)

Country Link
WO (1) WO2023127010A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001000420A (ja) * 1999-06-16 2001-01-09 Hitachi Plant Eng & Constr Co Ltd 目標達成度評価装置及び目標達成度評価方法
US20130110475A1 (en) * 2011-10-27 2013-05-02 Intel-Ge Care Innovations Llc System and method for quantative assessment of fraility
JP2016144598A (ja) * 2015-02-09 2016-08-12 国立大学法人鳥取大学 運動機能診断装置及び方法、並びにプログラム
JP2019204451A (ja) * 2018-05-25 2019-11-28 パナソニックIpマネジメント株式会社 体力測定方法、活動支援方法、プログラム及び体力測定システム
KR20200081117A (ko) * 2018-12-27 2020-07-07 한국전자통신연구원 보행 분석 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001000420A (ja) * 1999-06-16 2001-01-09 Hitachi Plant Eng & Constr Co Ltd 目標達成度評価装置及び目標達成度評価方法
US20130110475A1 (en) * 2011-10-27 2013-05-02 Intel-Ge Care Innovations Llc System and method for quantative assessment of fraility
JP2016144598A (ja) * 2015-02-09 2016-08-12 国立大学法人鳥取大学 運動機能診断装置及び方法、並びにプログラム
JP2019204451A (ja) * 2018-05-25 2019-11-28 パナソニックIpマネジメント株式会社 体力測定方法、活動支援方法、プログラム及び体力測定システム
KR20200081117A (ko) * 2018-12-27 2020-07-07 한국전자통신연구원 보행 분석 장치 및 방법

Similar Documents

Publication Publication Date Title
JP7327516B2 (ja) 異常検出装置、判定システム、異常検出方法、およびプログラム
WO2023127010A1 (ja) 移動能力推定装置、移動能力推定システム、移動能力推定方法、および記録媒体
WO2023127009A1 (ja) 下肢筋力推定装置、下肢筋力推定システム、下肢筋力推定方法、および記録媒体
WO2023127007A1 (ja) 筋力指標推定装置、筋力指標推定システム、筋力指標推定方法、および記録媒体
WO2023127013A1 (ja) 静的バランス推定装置、静的バランス推定システム、静的バランス推定方法、および記録媒体
WO2023127008A1 (ja) 動的バランス推定装置、動的バランス推定システム、動的バランス推定方法、および記録媒体
WO2023127015A1 (ja) 筋力評価装置、筋力評価システム、筋力評価方法、および記録媒体
WO2023127014A1 (ja) 易転倒性推定装置、易転倒性推定システム、易転倒性推定方法、および記録媒体
US20240138757A1 (en) Pelvic inclination estimation device, estimation system, pelvic inclination estimation method, and recording medium
US20240148317A1 (en) Pelvic inclination estimation device, estimation system, pelvic inclination estimation method, and recording medium
WO2022219905A1 (ja) 計測装置、計測システム、計測方法、および記録媒体
US20230397879A1 (en) Pelvic inclination estimation device, estimation system, pelvic inclination estimation method, and recording medium
US20240130691A1 (en) Measurement device, measurement system, measurement method, and recording medium
US20240138777A1 (en) Learning system, learning method, and recording medium
US20240138710A1 (en) Waist swinging estimation device, estimation system, waist swinging estimation method, and recording medium
US20230397839A1 (en) Waist swinging estimation device, estimation system, waist swinging estimation method, and recording medium
US20240138713A1 (en) Harmonic index estimation device, estimation system, harmonic index estimation method, and recording medium
US20230397841A1 (en) Harmonic index estimation device, estimation system, harmonic index estimation method, and recording medium
US20240122531A1 (en) Index value estimation device, estimation system, index value estimation method, and recording medium
US20240115163A1 (en) Calculation device, calculation method, and program recording medium
WO2022201338A1 (ja) 特徴量生成装置、歩容計測システム、特徴量生成方法、および記録媒体
US20240099608A1 (en) Detection device, detection method, and program recording medium
WO2022208838A1 (ja) 生体情報処理装置、情報処理システム、生体情報処理方法、および記録媒体
JP7218820B2 (ja) 推定装置、推定システム、推定方法、およびプログラム
WO2023157161A1 (ja) 検出装置、検出システム、歩容計測システム、検出方法、および記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21969894

Country of ref document: EP

Kind code of ref document: A1