WO2018003910A1 - 歩行状態判定装置、歩行状態判定システム、歩行状態判定方法及び記憶媒体 - Google Patents

歩行状態判定装置、歩行状態判定システム、歩行状態判定方法及び記憶媒体 Download PDF

Info

Publication number
WO2018003910A1
WO2018003910A1 PCT/JP2017/023890 JP2017023890W WO2018003910A1 WO 2018003910 A1 WO2018003910 A1 WO 2018003910A1 JP 2017023890 W JP2017023890 W JP 2017023890W WO 2018003910 A1 WO2018003910 A1 WO 2018003910A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
walking state
walking
cane
measurement data
Prior art date
Application number
PCT/JP2017/023890
Other languages
English (en)
French (fr)
Inventor
謙一郎 福司
石田 尚志
岳夫 野崎
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US16/313,226 priority Critical patent/US11207003B2/en
Priority to JP2018525254A priority patent/JP6881451B2/ja
Publication of WO2018003910A1 publication Critical patent/WO2018003910A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1036Measuring load distribution, e.g. podologic studies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4005Detecting, measuring or recording for evaluating the nervous system for evaluating the sensory system
    • A61B5/4023Evaluating sense of balance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0247Pressure sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0261Strain gauges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1071Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring angles, e.g. using goniometers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device

Definitions

  • the present invention relates to a walking state determination device, a walking state determination system, a walking state determination method, and a storage medium for determining a walking state of a subject.
  • Patent Literature 1 discloses a technique for calculating load data that acts on a subject based on a floor reaction force acquired by a force plate.
  • Patent Document 2 discloses a technique for analyzing the position of the landing point of the subject's foot based on the subject's image information.
  • JP 2011-220908 A Japanese Patent Laying-Open No. 2015-042241
  • Patent Document 1 Since such a subject often uses a cane, it is necessary to appropriately determine the walking state when the subject uses the cane.
  • the technique disclosed in Patent Document 1 only obtains all floor reaction forces and reaction forces acting on the cane, and obtains reaction forces acting on the subject's feet. It is not possible to judge the walking state at the time of being.
  • the technique disclosed in Patent Document 2 only analyzes the position where the cane has landed as the position where the foot has landed. Therefore, as a result, the walking state is only determined based on the landing position of the foot, and the walking state when the subject uses the walking stick is not appropriately determined.
  • An object of the present invention is to solve the above-described problems and provide a walking state determination device and the like that can determine a walking state when a subject uses a cane.
  • the walking state determination apparatus is based on first measurement data obtained from a first sensor installed on a cane and second measurement data obtained from a second sensor installed on a subject.
  • An acquisition unit that acquires feature information indicating characteristics of the motion of the subject when the cane is used, and a determination unit that determines the walking state of the subject based on the acquired feature information.
  • the walking state determination system in one aspect of the present invention includes a first sensor installed on a cane, a second sensor installed on a subject, first measurement data obtained from the first sensor, and the Based on the second measurement data obtained from the second sensor, an acquisition unit for acquiring feature information indicating characteristics of the motion of the subject when using the cane, and the target based on the acquired feature information And a determination unit for determining the walking state of the person.
  • the walking state determination method in one aspect of the present invention is based on first measurement data obtained from a first sensor installed on a cane and second measurement data obtained from a second sensor installed on a subject. Then, the feature information indicating the feature of the motion of the subject when the cane is used is acquired, and the walking state of the subject is determined based on the obtained feature information.
  • the program in one mode of the present invention is based on the first measurement data obtained from the first sensor installed on the cane and the second measurement data obtained from the second sensor installed on the subject. Then, a process of acquiring feature information indicating the characteristics of the motion of the subject when using the cane and a process of determining the walking state of the subject based on the acquired feature information are executed.
  • the program may be stored in a storage medium.
  • the walking state when the subject uses a cane can be determined.
  • a feature amount is generated using measurement data obtained from the subject and a sensor installed on the cane used by the subject, and the walking is performed to determine the walking state of the subject using the generated feature amount.
  • a state determination system information processing system
  • FIG. 1 is a diagram illustrating an example of an operation mode of the walking state determination system 1 according to the first embodiment of the present invention.
  • the walking state determination system 1 in the present embodiment includes a first sensor 10, a second sensor 20, a walking state determination device 30, a storage device 40, and a display device 50 that are connected to the Internet or a LAN (Local).
  • the network is connected via a network such as Area Network.
  • the first sensor 10 (cane state measuring device) is a measuring device that is installed at an arbitrary position of the cane and detects first measurement data indicating the state of the cane.
  • the first measurement data includes, for example, motion characteristics such as the position, height, moving speed, acceleration, and angle with respect to the vertical axis of the cane, the load applied to the cane, the contact state with the ground, and the strength of gripping the handle.
  • the first sensor 10 is, for example, an IMU (Internal Measurement Unit), a smartphone, or a load sensor.
  • the IMU includes an accelerometer and an angular velocity meter.
  • the first sensor 10 in the case of an IMU detects the acceleration and angular velocity of the cane at a predetermined time interval (period) as the first measurement data.
  • the first sensor 10 in the case of the IMU may detect the maximum acceleration and the maximum angular velocity of the cane as the first measurement data.
  • the first sensor 10 in the present embodiment is a load sensor (pressure sensor)
  • the first sensor 10 is installed at, for example, a cane tip (a tip portion on the side close to the ground contact surface of the cane).
  • the first sensor 10 transmits the detected first measurement data to the walking state determination device 30 via the network.
  • the first sensor 10 may be a pressure gauge such as a strain gauge type pressure gauge or a capacitance type pressure gauge.
  • the first sensor 10 in the case of a pressure gauge includes the maximum load in the axial direction in the measurement range.
  • the first sensor 10 detects the first measurement data at a predetermined time interval (period). For example, the first sensor 10 detects the first measurement data at intervals of 5 milliseconds.
  • the first sensor 10 for measuring the inclination of the cane axis with respect to the vertical axis is installed at an arbitrary position on the cane axis because a change in position in the cane axis direction does not affect the inclination.
  • the first sensor 10 may measure a plurality of first measurement data.
  • the first sensors 10 are respectively installed on canes used by a plurality of subjects, and the plurality of first sensors 10 detect the first measurement data.
  • the relative evaluation of the subject (subject) in a group formed by a plurality of subjects can be performed.
  • the user since the user knows that the walking difficulty of the subject is “second among 10”, the user can easily understand the determination result of the walking state when the subject uses the walking stick. become.
  • a first sensor 10 is installed at each of a plurality of canes of a cane such as a multipoint cane that branches into a plurality of canes, and each of the plurality of first sensors 10 has a first measurement. Detect data. Thereby, since the load concerning a cane is known in detail, the precision of feature-value generation can be raised.
  • the second sensor 20 (walking state measuring device) is a measuring device that is installed at an arbitrary position of the subject and detects second measurement data indicating the state of the subject.
  • the second measurement data is, for example, the walking speed, the stride, the step, the joint angle, the toe height, the size of the trunk shake, the sole pressure, and the center of gravity position of the subject.
  • the second sensor 20 is, for example, an IMU, a smartphone, or a load sensor.
  • the second sensor 20 in the case of the IMU detects the acceleration and angular velocity of the affected leg of the subject at a predetermined time interval (period) as the second measurement data.
  • the second sensor 20 in the case of the IMU may detect the maximum acceleration and the maximum angular velocity of the affected leg of the subject as the second measurement data.
  • the second sensor 20 in the present embodiment is a load sensor (a pressure sensor such as a shoe-type load measuring device)
  • the 2nd sensor 20 is installed in the tip part (plantar) of a subject's affected leg, for example.
  • the second sensor 20 transmits the detected second measurement data to the walking state determination device 30 via the network.
  • the 2nd sensor 20 in this embodiment is installed in an affected leg, it is not limited to this.
  • the second sensor 20 may be a pressure gauge such as a strain gauge type pressure gauge or a capacitance type pressure gauge.
  • the second sensor 20 in the case of a pressure gauge includes the maximum plantar pressure (maximum load) in the axial direction in the measurement range.
  • the second sensor 20 detects the second measurement data at a predetermined time interval (period). For example, the second sensor 20 detects the second measurement data at intervals of 5 milliseconds.
  • the second sensor 20 for measuring the toe height of the subject person is installed, for example, on the toe part of the subject person. Further, for example, the second sensor 20 in the case of measuring the inclination of the thigh with respect to the vertical axis is installed at an arbitrary position on the thigh because a change in position in the longitudinal direction of the thigh does not affect the inclination.
  • the second sensor 20 may measure a plurality of second measurement data.
  • the second sensors 20 are respectively installed at the tip portions of the affected feet of a plurality of subjects, and each second measurement data is detected. Thereby, the relative evaluation of the subject (subject) in a group formed by a plurality of subjects can be performed. Specifically, for example, since the user knows that the walking difficulty of the subject is “second among 10”, the user can easily understand the determination result of the walking state when the subject uses the walking stick. become. Further, for example, the second sensors 20 are installed at the tip portions of both feet, and the plurality of second sensors 20 detect second measurement data, respectively. Thereby, since the load of the subject can be understood in more detail, the accuracy of feature quantity generation can be increased.
  • the walking state determination device 30 is a configuration related to the gist of the present invention, and acquires and acquires feature information indicating the characteristics of the target person when using a cane based on the first measurement data and the second measurement data.
  • Information processing apparatus such as a PC (Personal Computer) for determining the walking state of the subject based on the feature information.
  • output information information output by the walking state determination device 30 is referred to as “output information”. Details of the walking state determination device 30 will be described later.
  • the storage device 40 is a storage medium that stores determination index information used when the walking state determination device 30 determines the walking state of the subject. Details of the determination index information stored in the storage device 40 will be described later.
  • the display device 50 is a user interface that uses the walking state determination system 1 in the present embodiment, and a software program for realizing a GUI (Graphical User Interface) or the like is installed on a PC having a general information processing function. Is realized.
  • the display device 50 may be an information processing device such as a tablet terminal or a wearable terminal for displaying output information output from the walking state determination device 30.
  • the display device 50 displays the determination result of the walking state of the subject obtained by the walking state determination device 30.
  • the display device 50 may display related information in addition to the above determination result.
  • the related information is, for example, first measurement data, second measurement data, and feature information.
  • FIG. 2 is a block diagram showing a hardware configuration of a computer device 60 that implements each device such as the walking state determination device 30 and the display device 50 in the present embodiment.
  • the computer device 60 includes a CPU (Central Processing Unit) 601, a ROM (Read Only Memory) 602, a RAM (Random Access Memory) 603, a storage device 604, a drive device 605, and a communication device.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • a storage device 604 a drive device 605, and a communication device.
  • An interface 606 and an input / output interface 607 are provided.
  • the CPU 601 uses the RAM 603 to execute the program 608.
  • the program 608 may be stored in the ROM 602.
  • the program 608 may be recorded on the recording medium 609 and read by the drive device 605, or may be transmitted from the external device via the network 610.
  • the communication interface 606 exchanges data with an external device via the network 610.
  • the input / output interface 607 exchanges data with peripheral devices (keyboard, mouse, display device, etc.).
  • the communication interface 606 and the input / output interface 607 can function as means for acquiring or outputting data. Data such as output information may be stored in the storage device 604 or may be included in the program 608.
  • a program that operates the configuration of the embodiment so as to realize the functions of the following embodiment (more specifically, a program that causes a computer to execute the processes shown in FIGS. 5, 9, 10, and the like) is recorded.
  • a processing method of recording on a medium, reading out a program recorded on the recording medium as a code, and executing the program on a computer is also included in the category of each embodiment. That is, a computer-readable recording medium is also included in the scope of each embodiment.
  • the program itself is included in each embodiment.
  • the recording medium for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, and a ROM can be used.
  • the embodiment is not limited to the processing executed by a single program recorded in the recording medium, and the embodiments that execute processing by operating on the OS in cooperation with other software and the function of the expansion board are also described in each embodiment. Included in the category.
  • FIG. 3 is a block diagram illustrating a functional configuration of the walking state determination device 30 according to the first embodiment of the present invention.
  • the blocks shown in FIG. 3 may be implemented in a single device or may be implemented separately in multiple devices. Data exchange between the blocks may be performed via any means such as a data bus, a network, a portable storage medium, or the like.
  • the walking state determination device 30 in this embodiment includes a measurement data acquisition unit 101, a feature amount generation unit 102, a walking state determination unit 103, and an information output unit 104.
  • the measurement data acquisition unit 101 acquires first measurement data and second measurement data detected by the first sensor 10 and the second sensor 20.
  • FIG. 4 is a diagram illustrating an example of a graph indicating the first measurement data and the second measurement data acquired by the measurement data acquisition unit 101 according to the first embodiment of the present invention.
  • the first measurement data is indicated by a one-dot chain line
  • the second measurement data is indicated by a solid line.
  • the horizontal axis of the graph shown in FIG. 4 represents time (seconds)
  • the vertical axis on the right side of the graph represents the cane load sensor value corresponding to the first measurement data
  • the vertical axis on the left side of the graph represents the second It represents the affected foot load (kg) corresponding to the measurement data.
  • the cane load sensor value is a load applied to the cane, and the affected foot load is a load applied to the affected foot of the subject.
  • the cane load sensor value in the present embodiment is digital data in the range of 0 to 4095.
  • the feature amount generation unit 102 Based on the measurement data acquired by the measurement data acquisition unit 101, the feature amount generation unit 102 generates a cane walking feature amount (hereinafter also referred to as “feature amount”) that is a feature of the subject when using the cane. To do.
  • the feature amount is, for example, a walking stick style indicator.
  • the walking style indicator indicates the walking style of the subject when using the walking stick.
  • the cane walking style index is a value indicating whether the walking style is a 3-motion walking or a 2-motion walking.
  • the walking stick style indicator takes a value between 0 and 1. The closer the value of the walking cane walking style index is, the higher the possibility of a 3-motion walking is, and the closer the value is to 0, the higher the possibility of a 2-motion walking.
  • 3 3-motion walking is a walking style in which the cane is first moved forward, and then the affected foot is followed by the healthy foot.
  • the two-motion walking is a walking mode in which the walking stick and the affected leg are put forward simultaneously, and then the healthy leg is put forward.
  • the three-motion walking has a tendency that the step length and the pace are lowered as compared with the two-motion walking, and as a result, the walking speed becomes slow, and thus the walking difficulty is high.
  • the difficulty in walking is an index indicating the walking state of the subject. For example, the degree of care required / the degree of support required, the possibility of falling, the degree of independence in outdoor walking, the Brunnstrom stage, the SIAS (stroke dysfunction evaluation method), and the pain scale.
  • the degree of fatigue the degree of compensation.
  • FIG. 5 is a flowchart illustrating an operation example of the feature quantity generation unit 102 according to the first embodiment of the present invention.
  • the feature quantity generation unit 102 acquires the affected foot load when the cane leaves the floor, which is the timing at which the cane leaves the floor, from the second measurement data acquired by the measurement data acquisition unit 101 (step S101). For example, when walking away from the cane, it is a timing when the value of the first measurement data falls below a predetermined value (for example, 285).
  • a predetermined value for example, 285.
  • FIG. 6 is a diagram illustrating an example of the time at which the cane leaves the bed and the peak value of the affected foot load in the graph showing the first measurement data and the second measurement data according to the first embodiment of the present invention.
  • the time 3.0 seconds when the wand load value falls below 285 indicates that the wand is being removed, and the affected foot load when the wand is removed is 1 kg.
  • timing when the cane load value fell below the predetermined value was explained at the time of getting out of the cane, it is not limited thereto.
  • any timing in a period in which the cane load value falls below a predetermined value may be used.
  • the arbitrary timing is, for example, a central value or an average value during a period in which the first measurement data falls below a predetermined value.
  • the feature value generation unit 102 acquires the peak value of the second measurement data immediately before leaving the cane (step S102). For example, in the second measurement data shown in FIG. 6, the feature value generation unit 102 peaks the second measurement data immediately before the time at which the staff leaves the floor (hereinafter also referred to as “cane floor time”) 3.0 seconds.
  • the feature amount generation unit 102 generates a feature amount based on the affected foot load and the affected foot load peak value at the time of leaving the walking stick acquired in S101 and S102 (step S103). For example, the feature quantity generation unit 102 uses the following expression when generating a walking stick style indicator.
  • Cane walking style index affected foot load when walking away from cane / affected foot load peak value (Equation 1)
  • the feature amount when the affected foot load when leaving the cane is 1 kg and the affected foot load peak value is 68 kg is 1/68, which is 0.015.
  • the feature value generation unit 102 calculates a feature value by such processing. That is, the feature quantity generation unit 102 as an acquisition unit performs first measurement data obtained from the first sensor 10 installed on the cane and second measurement obtained from the second sensor 20 installed on the subject. Based on the data, the feature information indicating the feature of the motion of the subject when using the cane is acquired.
  • the feature value generation unit 102 for example, the difference between the time when the cane touches the floor and the affected foot touches, the affected foot load when the cane touches or leaves the cane, the cane when the affected foot touches or leaves the foot
  • the cane walking style index is obtained by normalizing the load or a combination thereof so as to be in the range of 0 to 1.
  • the walking state determination unit 103 determines the walking state of the subject based on the feature amount generated by the feature amount generation unit 102.
  • the walking state determination unit 103 determines the walking state (walking difficulty) of the target person using the feature amount generated by the feature amount generation unit 102 and predetermined determination index information.
  • the predetermined determination index information is information indicating a correlation between the feature amount and the difficulty in walking, and is stored in the storage device 40, for example.
  • the determination index information is, for example, a table showing a correspondence relationship between the walking difficulty level and the walking stick feature amount.
  • FIG. 7 is a diagram showing an example of the determination index information in the first embodiment of the present invention.
  • the determination index information is a walking state determination table in which a feature amount index indicating a predetermined feature amount range and a difficulty level of walking are associated with each other.
  • the greater the value of the feature value index (cane walking style index in this embodiment) is, the higher the difficulty of walking is (closer to 1), and the smaller the value of the feature value index is (closer to 0). This indicates that the difficulty in walking is low.
  • the difficulty level of walking when the feature amount is 0.015 indicates “low”. That is, the walking state determination unit 103 that is a determination unit determines the walking state of the subject based on the acquired feature information.
  • the determination index information has been described as a walking state determination table of feature amount indexes and difficulty of walking, it is not limited thereto.
  • the determination index information may be a walking state determination table in which a feature amount index and an outdoor walking independence degree are associated with each other.
  • the outdoor walking independence degree represents the degree of independence of walking outdoors by the subject. That is, the walking difficulty levels “low”, “middle”, and “high” in the present embodiment correspond to outdoor walking independence levels “high”, “middle”, and “low”, respectively.
  • the information output unit 104 outputs the determination result (walking difficulty level in the present embodiment) by the walking state determination unit 103 to the display device 50.
  • the information output unit 104 may output a walking state determination table corresponding to the generated feature amount.
  • FIG. 8 is a flowchart illustrating an operation example of the walking state determination device 30 according to the first embodiment of the present invention.
  • the measurement data acquisition unit 101 acquires first measurement data and second measurement data obtained from the first sensor 10 and the second sensor 20 (step S201).
  • the feature amount generation unit 102 generates a feature amount based on each measurement data acquired by the measurement data acquisition unit 101 (step S202).
  • the walking state determination unit 103 determines the walking state based on the feature amount generated by the feature amount generation unit 102 (step S203).
  • the information output unit 104 outputs the determination result (step S204).
  • the first measurement data and the second measurement data obtained from the first sensor 10 and the second sensor 20 are acquired, and each acquired A feature amount is generated based on the measurement data, a walking state is determined based on the generated feature amount, and a determination result is output.
  • the target person's walking state is determined using the first measurement data obtained from the sensor installed on the cane and the sensor installed on the subject and the second measurement data, The walking state when the subject uses the walking stick can be determined.
  • the walking state determination system 1 can quantify the difficulty of walking in walking with a cane, it can support the judgment of the discharge time by the user and the recognition of care required (support required).
  • the walking state determination system 1 in this embodiment determines a subject's walking state anywhere. can do. Moreover, since the walking state determination system 1 in this embodiment outputs a determination result to the display device 50 such as a tablet terminal, and the display device 50 displays the determination result, the user refers to the determination result at an arbitrary place. Can do.
  • the walking state determination unit 103 of the present embodiment has been described as determining the walking state based on the walking state determination table illustrated in FIG. 7, the present invention is not limited thereto.
  • the determination index information includes, for example, regression models (linear regression, k-neighbor method, neural network, support vector regression, etc.) and their coefficients, classification models (bayes classification, k-nearest method, decision tree, random forest, neural network). , Support vector machines, etc.) and their coefficients.
  • the walking state determination unit 103 determines the walking state (walking difficulty) based on the following calculation formula using the generated feature amount and partial regression coefficient.
  • FIG. 9 is a diagram illustrating an example of a partial regression coefficient in the first embodiment of the present invention.
  • the walking state determination unit 103 determines the walking state by calculating the degree of difficulty in walking using the regression equation shown in (Expression 2) above and the partial regression coefficient shown in FIG.
  • the information output unit 104 in the present embodiment may output the determination result by the walking state determination unit 103 and the feature amount by the feature amount generation unit 102.
  • the user can know that the subject is a 2-motion walk or a 3-motion walk from the feature amount in addition to the determination result, and can more accurately present the walking state when the subject uses the walking stick.
  • the information output unit 104 may output a walking style corresponding to the feature amount.
  • the walking state determination system 1 of the present embodiment may output a plurality of determination results of the same subject to the display device 50, for example.
  • the information output unit 104 outputs a plurality of past determination results of the same subject in addition to the determination result by the walking state determination unit 103.
  • the information output unit 104 may output a difference between a plurality of past determination results of the same target person as the improvement degree.
  • the walking state determination system 1 in the present modification differs from the walking state determination system 1 in the first embodiment in the functions of the walking state determination device 30 and the storage device 40.
  • the walking state determination device 30 in the present modification is different from the walking state determination device 30 in the first embodiment in the functions of the feature amount generation unit 102 and the walking state determination unit 103.
  • the feature value generation unit 102 in the present modification generates a cane dependence degree that is a feature value based on the first measurement data and the second measurement data.
  • the walking stick dependence indicates the degree of dependence on the walking stick when the subject uses the walking stick.
  • the cane dependency is, for example, the ratio of the cane load to the affected foot load in the affected stance phase, the joint angle between the affected foot and the healthy foot, the left-right balance during walking, or a combination thereof.
  • FIG. 10 is a flowchart illustrating an operation example of the feature amount generation unit 102 in the present modification.
  • the feature value generation unit 102 of the present modification acquires a peak value (maximum cane load sensor value) from the first measurement data acquired by the measurement data acquisition unit 101 (step S301).
  • FIG. 11 is a diagram illustrating an example of a cane load peak value and a time of the peak value in a graph showing the first measurement data and the second measurement data in the modification of the first embodiment of the present invention.
  • the graph shown in FIG. 11 indicates that the peak value time of the acquired first measurement data is 4.3 seconds, and that the peak value is 3264.
  • the feature value generation unit 102 of the present modification obtains the affected foot load at the time of the peak value of the first measurement data (step S302). As shown in FIG. 11, the feature value generation unit 102 of the present modification obtains the affected foot load (0 kg) at 4.3 seconds, which is the time of the cane load peak value.
  • the feature value generation unit 102 of the present modification generates a feature value based on the cane load peak value and the affected foot load acquired in S101 and S102 (step S303).
  • the feature quantity generation unit 102 of the present modification uses the following expression when generating the staff dependency.
  • l stick represents the cane load peak value
  • l foot represents the affected foot load at the time of the cane load peak value.
  • the cane dependency is obtained by subtracting the affected foot load at the time of the cane load peak value from the value obtained by multiplying the cane load peak value by 0.011.
  • the cane load peak value is 3328, and the feature amount when the affected foot load is 0 kg at the time of the cane load peak value is 0.011 ⁇ 3264-0 and 35.9.
  • the feature quantity generation unit 102 calculates a staff dependency that is a feature quantity through such processing.
  • the walking state determination unit 103 of this modification determines the walking state of the subject based on the feature amount generated by the feature amount generation unit 102 and the determination index information.
  • FIG. 12 is a diagram illustrating an example of determination index information according to the modification of the first embodiment of this invention. As shown in FIG. 12, in the walking state determination table of the present modification, which is the determination index information, the feature amount index (cane dependency in the present modification) and the difficulty in walking are associated with each other.
  • the greater the value of the feature amount index (in the present embodiment, the degree of cane dependence) is, for example, 15 or more, the higher the difficulty of walking, and the smaller the value of the feature amount index (for example, ⁇ Less than -15) Indicates that the difficulty of walking is reduced.
  • the difficulty level of walking when the feature amount is 35.9 indicates “high”.
  • the “high” walking difficulty indicates that the walking state of the subject is difficult.
  • the determination index information has been described as a walking state determination table of feature amount indexes and difficulty of walking, it is not limited thereto.
  • the determination index information may be a walking state determination table in which a feature amount index and an outdoor walking independence degree are associated with each other.
  • the first measurement data and the second measurement data obtained from the first sensor 10 and the second sensor 20 are acquired, and each acquired A cane dependence degree that is a feature amount is generated based on the measurement data, a walking state is determined based on the generated cane dependency degree, and a determination result is output.
  • the walking state of the subject is determined using the cane dependence generated by the first measurement data and the second measurement data obtained from the sensor installed on the cane and the sensor installed on the subject.
  • the walking state when the subject uses the cane can be determined.
  • FIG. 13 is a schematic configuration diagram of the walking state determination device 30 in the embodiment and the modification described above.
  • the walking state determination device 30 uses the cane based on the first measurement data obtained from the sensor installed on the cane and the second measurement data obtained from the second sensor installed on the subject.
  • a configuration example for functioning as a device for acquiring feature information indicating the characteristics of the motion of the subject when the user is present and determining the walking state of the subject based on the feature information is shown.
  • the walking state determination device 30 includes a feature amount generation unit 102 and a walking state determination unit 103.
  • the feature amount generation unit 102 uses the first measurement data obtained from the sensor installed on the cane and the second measurement data obtained from the second sensor installed on the subject, and uses the target when the cane is used. It is an acquisition part which acquires the characteristic information which shows the characteristic of a person's operation
  • the walking state determination unit 103 determines the walking state of the subject based on the acquired feature information.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

対象者が杖を用いた際の歩行状態を判定できる。本発明の一実施形態における歩行状態判定装置は、杖に設置される第1のセンサから得られる第1の計測データ及び対象者に設置される第2のセンサから得られる第2の計測データに基づき、前記杖を用いた際の対象者の動作の特徴を示す特徴情報を取得する取得部と、取得された前記特徴情報に基づき、前記対象者の歩行状態を判定する判定部と、を備える。

Description

歩行状態判定装置、歩行状態判定システム、歩行状態判定方法及び記憶媒体
 本発明は、対象者の歩行状態の判定を行うための歩行状態判定装置、歩行状態判定システム、歩行状態判定方法及び記憶媒体に関する。
 高齢者やリハビリテーションを受ける患者等の対象者を適切に支援するために、対象者の歩行状態を適切に判断する必要がある。対象者の歩行データを取得する方法として、特許文献1は、フォースプレートで取得される床反力に基づき被験者に作用する荷重データを算出する技術を開示する。また、特許文献2は、対象者の画像情報に基づき対象者の足の着地点の位置を解析する技術を開示する。
特開2011-220908号公報 特開2015-042241号公報
 このような対象者は、杖を用いることも多いため、対象者が杖を用いた際の歩行状態も適切に判断する必要がある。特許文献1に開示された技術は、全ての床反力と杖に作用する反力を取得して被験者の足に作用する反力を取得するのみであり、各反力だけでは、杖を用いた際の歩行状態を判断することはできない。また、特許文献2に開示された技術は、杖が着地した位置を足が着地した位置として解析するのみである。そのため、結果的には、足の着地位置に基づき歩行状態を判断しているのみであり、対象者が杖を用いた際の歩行状態を適切に判断しているわけではない。
 本発明の目的は、上記課題を解決し、対象者が杖を用いた際の歩行状態を判定できる歩行状態判定装置等を提供することである。
 本発明の一態様における歩行状態判定装置は、杖に設置される第1のセンサから得られる第1の計測データ及び対象者に設置される第2のセンサから得られる第2の計測データに基づき、前記杖を用いた際の対象者の動作の特徴を示す特徴情報を取得する取得部と、取得された前記特徴情報に基づき、前記対象者の歩行状態を判定する判定部と、を備える。
 本発明の一態様における歩行状態判定システムは、杖に設置される第1のセンサと、対象者に設置される第2のセンサと、前記第1のセンサから得られる第1の計測データ及び前記第2のセンサから得られる第2の計測データに基づき、前記杖を用いた際の対象者の動作の特徴を示す特徴情報を取得する取得部と、取得された前記特徴情報に基づき、前記対象者の歩行状態を判定する判定部と、を含む。
 本発明の一態様における歩行状態判定方法は、杖に設置される第1のセンサから得られる第1の計測データ及び対象者に設置される第2のセンサから得られる第2の計測データに基づき、前記杖を用いた際の対象者の動作の特徴を示す特徴情報を取得し、取得された前記特徴情報に基づき、前記対象者の歩行状態を判定する。
 本発明の一態様におけるプログラムは、コンピュータに、杖に設置される第1のセンサから得られる第1の計測データ及び対象者に設置される第2のセンサから得られる第2の計測データに基づき、前記杖を用いた際の対象者の動作の特徴を示す特徴情報を取得する処理と、取得された前記特徴情報に基づき、前記対象者の歩行状態を判定する処理と、を実行させる。プログラムは記憶媒体に格納されていてもよい。
 本発明によれば、対象者が杖を用いた際の歩行状態を判定できる。
本発明の第1の実施形態における歩行状態判定システムの運用形態を示す図である。 本実施形態における歩行状態判定装置等を実現するコンピュータ装置のハードウェア構成を示すブロック図である。 本発明の第1の実施形態における歩行状態判定装置の機能構成を示すブロック図である。 本発明の第1の実施形態における計測データ取得部により取得された第1の計測データ及び第2の計測データを示すグラフの一例を示す図である。 本発明の第1の実施形態における特徴量生成部の動作例を示すフローチャートである。 本発明の第1の実施形態における第1の計測データ及び第2の計測データを示すグラフにおける杖離床時の時刻及び患足荷重のピーク値の一例を示す図である。 本発明の第1の実施形態における判定指標情報の一例を示す図である。 本発明の第1の実施形態における歩行状態判定装置の動作例を示すフローチャートである。 本発明の第1の実施形態における偏回帰係数の一例を示す図である。 本発明の第1の実施形態の変形例における特徴量生成部の動作例を示すフローチャートである。 本発明の第1の実施形態の変形例における第1の計測データ及び第2の計測データを示すグラフにおける杖荷重ピーク値及び該ピーク値の時刻の一例を示す図である。 本発明の第1の実施形態の変形例における判定指標情報の一例を示す図である。 本発明の実施形態及び変形例における歩行状態判定装置のブロック図である。
 以下、図面を参照して、本発明の実施形態を説明するが、本発明は本実施形態に限定されるものではない。なお、以下で説明する図面で、同機能を有するものは同一符号を付け、その繰り返しの説明は省略することもある。
 本実施形態においては、対象者及び対象者が使用する杖に設置されるセンサから得られる計測データを用いて特徴量を生成し、生成した特徴量を用いて対象者の歩行状態を判定する歩行状態判定システム(情報処理システム)を例として説明する。
 図1は、本発明の第1の実施形態における歩行状態判定システム1の運用形態の例を示す図である。図1に示すように、本実施形態における歩行状態判定システム1は、第1のセンサ10、第2のセンサ20、歩行状態判定装置30、記憶装置40及び表示装置50が、インターネットやLAN(Local Area Network)等のネットワークを介して接続されて構成されている。
 第1のセンサ10(杖状態計測装置)は、杖の任意の位置に設置され、杖の状態を示す第1の計測データを検出する計測装置である。第1の計測データは、例えば、杖の位置、高さ、移動速度、加速度、鉛直軸に対する角度などの運動特性や、杖にかかる荷重、地面との接触状態、取っ手を握る強さである。第1のセンサ10は、例えば、IMU(Inertial Measurement Unit:慣性計測ユニット)、スマートフォン、荷重センサである。IMUは、加速度計及び角速度計を含む。例えば、IMUの場合の第1のセンサ10は、所定の時間間隔(期間)の杖の加速度及び角速度を第1の計測データとして検出する。なお、IMUの場合の第1のセンサ10は、杖の最大加速度及び最大角速度を第1の計測データとして検出してもよい。
 以降、本実施形態における第1のセンサ10は、荷重センサ(圧力センサ)である場合を例として説明する。第1のセンサ10は、例えば、杖先(杖の接地面に近い側の先端部分)に設置される。第1のセンサ10は、例えば、検出した第1の計測データを、ネットワークを介して歩行状態判定装置30に送信する。
 なお、第1のセンサ10は、歪みゲージ式圧力計や静電容量型圧力計などの圧力計であってもよい。例えば、圧力計の場合の第1のセンサ10は、軸心方向の最大荷重を計測範囲に含める。また、第1のセンサ10は、所定の時間間隔(期間)で第1の計測データを検出する。例えば、第1のセンサ10は、5ミリ秒間隔で第1の計測データを検出する。
 また、例えば、杖軸心の鉛直軸に対する傾きを計測する場合の第1のセンサ10は、杖軸心方向の位置変化が傾きに影響しないため、杖軸上の任意の位置に設置される。
 また、第1のセンサ10は、複数の第1の計測データを計測してもよい。例えば、複数の対象者が用いる杖にそれぞれ第1のセンサ10が設置され、該複数の第1のセンサ10はそれぞれの第1の計測データを検出する。これにより、複数の対象者で形成されるグループの中での被験者(対象者)の相対的評価が実施可能となる。具体的には、例えば、ユーザは対象者の歩行困難度が「10人中で2番目」とわかるため、対象者が杖を用いた際の歩行状態の判定結果をユーザが容易に理解できるようになる。また、例えば、多点杖などの杖先が複数本に分岐している杖の複数の杖先にそれぞれ第1のセンサ10が設置され、該複数の第1のセンサ10はそれぞれ第1の計測データを検出する。これにより、杖にかかる荷重がより詳細にわかるため、特徴量生成の精度を上げることができる。
 第2のセンサ20(歩行状態計測装置)は、対象者の任意の位置に設置され、対象者の状態を示す第2の計測データを検出する計測装置である。第2の計測データは、例えば、対象者の歩行速度、歩幅、歩隔、関節角度、つま先高さ、体幹動揺の大きさ、足底圧及び重心位置である。第2のセンサ20は、例えば、IMU、スマートフォン、荷重センサである。例えば、IMUの場合の第2のセンサ20は、所定の時間間隔(期間)の対象者の患足の加速度及び角速度を第2の計測データとして検出する。なお、IMUの場合の第2のセンサ20は、対象者の患足の最大加速度及び最大角速度を第2の計測データとして検出してもよい。
 以降、本実施形態における第2のセンサ20は、荷重センサ(靴型荷重測定装置などの圧力センサ)である場合を例として説明する。第2のセンサ20は、例えば、対象者の患足の先端部分(足底)に設置される。第2のセンサ20は、例えば、検出した第2の計測データを、ネットワークを介して歩行状態判定装置30に送信する。なお、本実施形態での第2のセンサ20は患足に設置されるが、これに限定されない。
 なお、第2のセンサ20は、歪みゲージ式圧力計や静電容量型圧力計などの圧力計であってもよい。例えば、圧力計の場合の第2のセンサ20は、軸心方向の最大足底圧(最大荷重)を計測範囲に含める。また、第2のセンサ20は、所定の時間間隔(期間)で第2の計測データを検出する。例えば、第2のセンサ20は、5ミリ秒間隔で第2の計測データを検出する。
 また、対象者のつま先高さを計測する場合の第2のセンサ20は、例えば、対象者のつま先部分に設置される。また、例えば、大腿の鉛直軸に対する傾きを計測する場合の第2のセンサ20は、大腿の長手方向の位置変化が傾きに影響しないため、大腿上の任意の位置に設置される。
 また、第2のセンサ20は、複数の第2の計測データを計測してもよい。例えば、複数の対象者の患足の先端部分にそれぞれ第2のセンサ20が設置され、それぞれの第2の計測データを検出する。これにより、複数の対象者で形成されるグループの中での被験者(対象者)の相対的評価が実施可能となる。具体的には、例えば、ユーザは対象者の歩行困難度が「10人中で2番目」とわかるため、対象者が杖を用いた際の歩行状態の判定結果をユーザが容易に理解できるようになる。また、例えば、両方の足の先端部分にそれぞれ第2のセンサ20が設置され、該複数の第2のセンサ20はそれぞれ第2の計測データを検出する。これにより、対象者の荷重がより詳細にわかるため、特徴量生成の精度を上げることができる。
 歩行状態判定装置30は、本発明の要旨に関わる構成であり、第1の計測データ及び第2の計測データに基づき、杖を用いた際の対象者の特徴を示す特徴情報を取得し、取得した特徴情報に基づき対象者の歩行状態を判定するためのPC(Personal Computer)等の情報処理装置である。以降、歩行状態判定装置30が出力する情報を「出力情報」とする。歩行状態判定装置30の詳細は後述する。
 記憶装置40は、歩行状態判定装置30が対象者の歩行状態を判定する際に用いる判定指標情報を格納する記憶媒体である。記憶装置40に格納される判定指標情報の詳細は後述する。
 表示装置50は、本実施形態における歩行状態判定システム1を利用するユーザのインタフェースであり、一般的な情報処理機能を有するPCに、GUI(Graphical User Interface)等を実現するためのソフトウェアプログラムがインストールされていることによって実現される。なお、表示装置50は、歩行状態判定装置30から出力される出力情報の表示等を行うためのタブレット端末やウェアラブル端末などの情報処理装置であってもよい。例えば、表示装置50は、歩行状態判定装置30により得られた対象者の歩行状態の判定結果を表示する。なお、表示装置50は、上記の判定結果に加え、関連情報を表示してもよい。関連情報は、例えば、第1の計測データ、第2の計測データ、特徴情報である。
 次に、本実施形態における歩行状態判定システム1に含まれる歩行状態判定装置30、表示装置50などの各装置を構成するハードウェアについて説明する。図2は、本実施形態における歩行状態判定装置30、表示装置50などの各装置を実現するコンピュータ装置60のハードウェア構成を示すブロック図である。
 図2に示すように、コンピュータ装置60は、CPU(Central Processing Unit)601と、ROM(Read Only Memory)602と、RAM(Random Access Memory)603と、記憶装置604と、ドライブ装置605と、通信インタフェース606と、入出力インタフェース607とを備える。
 CPU601は、RAM603を用いてプログラム608を実行する。プログラム608は、ROM602に記憶されていてもよい。また、プログラム608は、記録媒体609に記録され、ドライブ装置605によって読み出されてもよいし、外部装置からネットワーク610を介して送信されてもよい。通信インタフェース606は、ネットワーク610を介して外部装置とデータをやり取りする。入出力インタフェース607は、周辺機器(キーボード、マウス、表示装置など)とデータをやり取りする。通信インタフェース606及び入出力インタフェース607は、データを取得又は出力する手段として機能することができる。出力情報などのデータは、記憶装置604に記憶されていてもよいし、プログラム608に含まれていてもよい。
 なお、以下の実施形態の機能を実現するように該実施形態の構成を動作させるプログラム(より具体的には、図5、図9、図10等に示す処理をコンピュータに実行させるプログラム)を記録媒体に記録させ、該記録媒体に記録されたプログラムをコードとして読み出し、コンピュータにおいて実行する処理方法も各実施形態の範疇に含まれる。すなわち、コンピュータ読取可能な記録媒体も各実施形態の範囲に含まれる。また、上述のプログラムが記録された記録媒体はもちろん、そのプログラム自体も各実施形態に含まれる。
 該記録媒体としては例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性メモリカード、ROMを用いることができる。また該記録媒体に記録されたプログラム単体で処理を実行しているものに限らず、他のソフトウェア、拡張ボードの機能と共同して、OS上で動作して処理を実行するものも各実施形態の範疇に含まれる。
 <第1の実施形態>
 次に、本実施形態における歩行状態判定装置30の機能について説明する。図3は、本発明の第1の実施形態における歩行状態判定装置30の機能構成を示すブロック図である。図3に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に別れて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
 図3に示すように、本実施形態における歩行状態判定装置30は、計測データ取得部101、特徴量生成部102、歩行状態判定部103、情報出力部104を含む。
 計測データ取得部101は、第1のセンサ10及び第2のセンサ20により検出される第1の計測データ及び第2の計測データを取得する。図4は、本発明の第1の実施形態における計測データ取得部101により取得された第1の計測データ及び第2の計測データを示すグラフの一例を示す図である。図4に示したグラフにおいては、第1の計測データが一点鎖線で示され、第2の計測データが実線で示されている。また、図4に示すグラフの横軸は時刻(秒)を表し、グラフの右側の縦軸は第1の計測データに対応する杖荷重センサ値を表し、グラフの左側の縦軸は第2の計測データに対応する患足荷重(kg)を表す。杖荷重センサ値は、杖にかかる荷重であり、患足荷重は対象者の患足にかかる荷重である。なお、図4に示すように、例えば、本実施形態における杖荷重センサ値は、0~4095の範囲でのデジタルデータである。
 特徴量生成部102は、計測データ取得部101により取得された各計測データに基づき、杖を用いた際の対象者の特徴である杖歩行特徴量(以降、「特徴量」とも記載)を生成する。特徴量は、例えば、杖歩行様式指標である。杖歩行様式指標は、杖を用いた際の対象者の歩行様式を示す。例えば、杖歩行様式指標は、3動作歩行または2動作歩行のどちらの歩行様式かを示す値である。具体的には、例えば、杖歩行様式指標は0から1の間の値をとる。杖歩行様式指標の値が1に近いほど3動作歩行である可能性が高いことを示し、0に近いほど2動作歩行である可能性が高いことを示す。
 3動作歩行は、まず杖を前方に出し、次いで患足、健足の順に足を運ぶ歩行様式のことである。2動作歩行は、杖と患足を同時に前に出し、次いで健足を前に出す歩行様式のことである。3動作歩行は2動作歩行に比べて、歩幅と歩調が低下する傾向があり、結果として歩行速度が遅くなるため、歩行困難度が高い。歩行困難度とは、対象者の歩行状態を示す指標であり、例えば、要介護度/要支援度、転倒可能性、屋外歩行自立度、Brunnstrom stageやSIAS(脳卒中機能障害評価法)、ペインスケール、疲労度合い、代償動作の程度である。
 以下、特徴量生成部102による特徴量生成処理の詳細を説明する。図5は、本発明の第1の実施形態における特徴量生成部102の動作例を示すフローチャートである。特徴量生成部102は、計測データ取得部101により取得される第2の計測データから、杖が床から離れたタイミングである杖離床時の患足荷重を取得する(ステップS101)。
例えば、杖離床時は、第1の計測データの値が所定値(例えば285)を下回ったタイミングである。図6は、本発明の第1の実施形態における第1の計測データ及び第2の計測データを示すグラフにおける杖離床時の時刻及び患足荷重のピーク値の一例を示す図である。図6に示したグラフにおいては、杖荷重値が285を下回った時刻3.0秒が杖離床時であることを示し、杖離床時の患足荷重が1kgであることを示す。
 なお、杖離床時は杖荷重値が所定値を下回ったタイミングと説明したが、それに限定されない。例えば、杖離床時は杖荷重値が所定値を下回る期間のうちの任意のタイミングであってもよい。任意のタイミングとは、例えば、第1の計測データが所定値を下回る期間の中央の値や平均値である。
 特徴量生成部102は、杖離床時の直前の第2の計測データのピーク値を取得する(ステップS102)。例えば、図6に示す第2の計測データにおいては、特徴量生成部102は、杖離床時の時刻(以降「杖離床時刻」とも記載)3.0秒の直前の第2の計測データのピーク値(以降「患足荷重ピーク値」とも記載)である時刻2.7秒の患足荷重(68kg)を取得する。
 特徴量生成部102は、S101及びS102において取得した杖離床時の患足荷重と患足荷重ピーク値とに基づき特徴量を生成する(ステップS103)。特徴量生成部102は、例えば、杖歩行様式指標を生成する場合、以下の式を用いる。
 杖歩行様式指標=杖離床時の患足荷重/患足荷重ピーク値・・・(式1)
 例えば、図6に示すように、杖離床時の患足荷重が1kgであり、患足荷重ピーク値が68kgである場合の特徴量は、1/68で0.015である。
 特徴量生成部102は、このような処理により、特徴量を算出する。すなわち、取得部である特徴量生成部102は、杖に設置される第1のセンサ10から得られる第1の計測データ及び対象者に設置される第2のセンサ20から得られる第2の計測データに基づき、杖を用いた際の対象者の動作の特徴を示す特徴情報を取得する。
 なお、特徴量生成部102は、例えば、杖の接床と患足の接床する時刻の差、杖接床時ないし杖離床時の患足荷重、患足接床時ないし患離床時の杖荷重、又は、それらの組み合わせ、を0~1の範囲になるように正規化するなどにより、杖歩行様式指標を求める。
 歩行状態判定部103は、特徴量生成部102により生成された特徴量に基づき、対象者の歩行状態を判定する。歩行状態判定部103は、特徴量生成部102により生成された特徴量と予め定められた判定指標情報とを用いて対象者の歩行状態(歩行困難度)を判定する。予め定められた判定指標情報は、特徴量と歩行困難度との相関関係を示す情報であり、例えば、記憶装置40に格納される。判定指標情報は、例えば、歩行困難度と杖歩行特徴量の対応関係を示したテーブルである。
 図7は、本発明の第1の実施形態における判定指標情報の一例を示す図である。図7に示すように、判定指標情報は、所定の特徴量の範囲を示す特徴量指標と歩行困難度とが対応付けられた歩行状態判定表である。歩行状態判定表は、特徴量指標(本実施形態においては杖歩行様式指標)の値が大きいほど(1に近いほど)歩行困難度が高くなり、特徴量指標の値が小さいほど(0に近いほど)歩行困難度が低くなることを表す。図7に示すように、例えば、特徴量が0.015の場合の歩行困難度は「低」を示す。すなわち、判定部である歩行状態判定部103は、取得された特徴情報に基づき対象者の歩行状態を判定する。
 なお、判定指標情報は、特徴量指標と歩行困難度との歩行状態判定表として説明したが、それに限定されない。例えば、判定指標情報は、特徴量指標と屋外歩行自立度とが対応付けられた歩行状態判定表であってもよい。屋外歩行自立度は、対象者による屋外での歩行の自立の程度を表す。すなわち、本実施形態における歩行困難度「低」、「中」、「高」は、それぞれ屋外歩行自立度「高」、「中」、「低」に対応する。
 情報出力部104は、歩行状態判定部103による判定結果(本実施形態においては歩行困難度)を表示装置50に出力する。なお、情報出力部104は、判定結果に加え、生成した特徴量に対応する歩行状態判定表を出力してもよい。
 次に、本実施形態における歩行状態判定装置30の動作について説明する。図8は、本発明の第1の実施形態における歩行状態判定装置30の動作例を示すフローチャートである。
 計測データ取得部101は、第1のセンサ10及び第2のセンサ20から得られる第1の計測データ及び第2の計測データを取得する(ステップS201)。特徴量生成部102は、計測データ取得部101により取得された各計測データに基づき特徴量を生成する(ステップS202)。歩行状態判定部103は、特徴量生成部102により生成された特徴量に基づき歩行状態を判定する(ステップS203)。情報出力部104は、判定結果を出力する(ステップS204)。
 以上説明したように、本実施形態における歩行状態判定システム1においては、第1のセンサ10及び第2のセンサ20から得られる第1の計測データ及び第2の計測データを取得し、取得した各計測データに基づき特徴量を生成し、生成した特徴量に基づき歩行状態を判定し、判定結果を出力する。
 これにより、杖に設置されたセンサ及び対象者に設置されたセンサから得られる第1の計測データ及び第2の計測データにより生成された特徴量を用いて対象者の歩行状態を判定するので、対象者が杖を用いた際の歩行状態を判定できる。
 また、本実施形態における歩行状態判定システム1は、杖歩行における歩行困難度を定量化することができるため、ユーザによる退院時期の判断や要介護(要支援)の認定などを支援できる。
 また、本実施形態における歩行状態判定システム1は、第1のセンサ10及び第2のセンサ20が杖及び対象者に設置可能な組み込み型のセンサであるため、対象者の歩行状態をどこででも判定することができる。また、本実施形態における歩行状態判定システム1は、判定結果をタブレット端末などの表示装置50に出力し、表示装置50が判定結果を表示するため、ユーザは任意の場所で判定結果を参照することができる。
 なお、本実施形態の歩行状態判定部103では、図7に示す歩行状態判定表に基づき歩行状態を判定するとして説明したが、それに限定されない。判定指標情報は、例えば、回帰モデル(線形回帰、k近傍法、ニューラルネットワーク、サポートベクタ回帰など)とその係数、分類モデルの分類モデル(ベイズ分類、k近傍法、決定木、ランダムフォレスト、ニューラルネットワーク、サポートベクタマシンなど)とその係数、である。例えば、歩行状態判定部103は、生成された特徴量と偏回帰係数とを用いて、以下の算出式に基づき歩行状態(歩行困難度)を判定する。
 歩行困難度=α1×特徴量1+α2×特徴量2+…+αn×特徴量n+β・・・(式2)
 上記(式2)は、特徴量を説明変数、歩行困難度を目的変数とする回帰式である。図9は、本発明の第1の実施形態における偏回帰係数の一例を示す図である。例えば、歩行状態判定部103は、上記(式2)で示される回帰式と図9に示す偏回帰係数とを用いて、歩行困難度を算出することにより、歩行状態を判定する。
 また、本実施形態における情報出力部104は、歩行状態判定部103による判定結果と特徴量生成部102による特徴量とを出力してもよい。これにより、ユーザは判定結果に加え特徴量から対象者が2動作歩行又は3動作歩行であることがわかり、対象者が杖を用いた際の歩行状態をより正確に提示できる。なお、情報出力部104は、判定結果に加え、特徴量に対応する歩行様式を出力してもよい。
 また、本実施形態の歩行状態判定システム1は、例えば、同一対象者の複数の判定結果を表示装置50に出力してもよい。具体的には、例えば、情報出力部104は、歩行状態判定部103による判定結果に加え、同一対象者の過去の複数の判定結果を出力する。また、例えば、情報出力部104は、同一対象者の過去の複数の判定結果の差分を改善度として出力してもよい。これにより、対象者の歩行状態の変化や一定期間における歩行機能の改善度が定量化され、ユーザによる対象者の歩行状態に対応するリハビリメニューの設定を支援できる。また、対象者のモチベーションを向上できる。
 <第1の実施形態の変形例>
 次に、第1の実施形態における歩行状態判定システム1の変形例の機能について説明する。本変形例における歩行状態判定システム1は、第1の実施形態における歩行状態判定システム1とは歩行状態判定装置30及び記憶装置40の機能が異なる。本変形例における歩行状態判定装置30は、第1の実施形態における歩行状態判定装置30とは特徴量生成部102及び歩行状態判定部103の機能が異なる。
 本変形例における特徴量生成部102は、第1の計測データ及び第2の計測データに基づき、特徴量である杖依存度を生成する。杖依存度は、対象者が杖を用いた際の歩行における、杖への依存の度合いを示す。杖依存度は、例えば、患足立脚期における杖荷重と患足荷重の比率、患足と健足の関節角度、歩行時の左右バランス、又は、それらの組み合わせなどである。
 以下、本変形例の特徴量生成部102による特徴量生成処理の詳細を説明する。図10は、本変形例における特徴量生成部102の動作例を示すフローチャートである。本変形例の特徴量生成部102は、計測データ取得部101により取得される第1の計測データから、ピーク値(最大杖荷重センサ値)を取得する(ステップS301)。図11は、本発明の第1の実施形態の変形例における第1の計測データ及び第2の計測データを示すグラフにおける杖荷重ピーク値及び該ピーク値の時刻の一例を示す図である。図11に示したグラフにおいては、取得した第1の計測データのピーク値の時刻が4.3秒であることを示し、該ピーク値が3264であることを示す。
 本変形例の特徴量生成部102は、第1の計測データのピーク値の時刻での患足荷重を取得する(ステップS302)。図11に示すように、本変形例の特徴量生成部102は、杖荷重ピーク値の時刻である4.3秒での患足荷重(0kg)を取得する。
 本変形例の特徴量生成部102は、S101及びS102において取得した杖荷重ピーク値と患足荷重とに基づき、特徴量を生成する(ステップS303)。本変形例の特徴量生成部102は、例えば、杖依存度を生成する場合、以下の式を用いる。ここで、lstickは杖荷重ピーク値を示し、lfootは杖荷重ピーク値の時刻における患足荷重を示す。
 杖依存度=0.011×lstick-lfoot・・・(式3)
 上記(式3)に示すように、杖依存度は、杖荷重ピーク値に0.011を掛けた値から杖荷重ピーク値の時刻における患足荷重を引くことで求まる。図11に示すように、杖荷重ピーク値は3328であり、杖荷重ピーク値の時刻における患足荷重は0kgである場合の特徴量は、0.011×3264-0で35.9である。
 特徴量生成部102は、このような処理により、特徴量である杖依存度を算出する。
 本変形例の歩行状態判定部103は、特徴量生成部102により生成された特徴量と判定指標情報とに基づき、対象者の歩行状態を判定する。図12は、本発明の第1の実施形態の変形例における判定指標情報の一例を示す図である。図12に示すように、該判定指標情報である本変形例の歩行状態判定表は、特徴量指標(本変形例においては杖依存度)と歩行困難度とが対応付けられる。本変形例の歩行状態判定表は、特徴量指標(本実施形態においては杖依存度)の値が大きいほど(例えば15以上)歩行困難度が高くなり、特徴量指標の値が小さいほど(例えば-15未満)歩行困難度が低くなることを表す。図12に示すように、例えば、特徴量が35.9の場合の歩行困難度は「高」を示す。歩行困難度が「高」は、対象者の歩行状態が困難であることを表す。
 なお、判定指標情報は、特徴量指標と歩行困難度との歩行状態判定表として説明したが、それに限定されない。例えば、判定指標情報は、特徴量指標と屋外歩行自立度とが対応付けられた歩行状態判定表であってもよい。
 以上説明したように、本変形例における歩行状態判定システム1においては、第1のセンサ10及び第2のセンサ20から得られる第1の計測データ及び第2の計測データを取得し、取得した各計測データに基づき特徴量である杖依存度を生成し、生成した杖依存度に基づき歩行状態を判定し、判定結果を出力する。
 これにより、杖に設置されたセンサ及び対象者に設置されたセンサから得られる第1の計測データ及び第2の計測データにより生成された杖依存度を用いて対象者の歩行状態を判定するので、対象者が杖を用いた際の歩行状態を判定できる。
 <その他の実施形態>
 図13は、上述の実施形態及び変形例における歩行状態判定装置30の概略構成図である。図13には、歩行状態判定装置30が杖に設置されるセンサから得られる第1の計測データ及び対象者に設置される第2のセンサから得られる第2の計測データに基づき、杖を用いた際の対象者の動作の特徴を示す特徴情報を取得し、特徴情報に基づき対象者の歩行状態を判定する装置として機能するための構成例が示されている。
 歩行状態判定装置30は、特徴量生成部102と歩行状態判定部103とを備える。特徴量生成部102は、杖に設置されるセンサから得られる第1の計測データ及び対象者に設置される第2のセンサから得られる第2の計測データに基づき、杖を用いた際の対象者の動作の特徴を示す特徴情報を取得する取得部である。歩行状態判定部103は、取得された特徴情報に基づき対象者の歩行状態を判定する。
 以上、各実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2016年7月1日に出願された日本出願特願2016-131187を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 1  歩行状態判定システム
 10  第1のセンサ
 20  第2のセンサ
 30  歩行状態判定装置
 40  記憶装置
 50  表示装置
 60  コンピュータ装置
 101  計測データ取得部
 102  特徴量生成部
 103  歩行状態判定部
 104  情報出力部
 601  CPU
 602  ROM
 603  RAM
 604  記憶装置
 605  ドライブ装置
 606  通信インタフェース
 607  入出力インタフェース
 608  プログラム
 609  記録媒体
 610  ネットワーク

Claims (10)

  1.  杖に設置される第1のセンサから得られる第1の計測データ及び対象者に設置される第2のセンサから得られる第2の計測データに基づき、前記杖を用いた際の対象者の動作の特徴を示す特徴情報を取得する取得手段と、
     取得された前記特徴情報に基づき、前記対象者の歩行状態を判定する判定手段と、
    を備える歩行状態判定装置。
  2.  前記判定手段は、前記対象者の杖を用いた歩行様式を示す前記特徴情報に基づき、前記対象者の歩行状態を判定する請求項1に記載の歩行状態判定装置。
  3.  前記判定手段は、前記歩行様式が3動作歩行に近いほど、前記対象者の歩行が困難であると判定する請求項2に記載の歩行状態判定装置。
  4.  前記判定手段は、前記対象者の前記杖への依存の度合いを示す前記特徴情報に基づき、前記対象者の歩行状態を判定する請求項1に記載の歩行状態判定装置。
  5.  前記判定手段は、前記杖への依存の度合いが高いほど、前記対象者の歩行が困難であると判定する請求項4に記載の歩行状態判定装置。
  6.  前記判定手段による判定結果を出力する出力手段をさらに備える請求項1乃至5のうちいずれか1項に記載の歩行状態判定装置。
  7.  前記出力手段は、前記対象者の過去の複数の判定結果を出力する請求項6に記載の歩行状態判定装置。
  8.  杖に設置される第1のセンサと、
     対象者に設置される第2のセンサと、
     前記第1のセンサから得られる第1の計測データ及び前記第2のセンサから得られる第2の計測データに基づき、前記杖を用いた際の対象者の動作の特徴を示す特徴情報を取得する取得手段と、
     取得された前記特徴情報に基づき、前記対象者の歩行状態を判定する判定手段と、
    を含む歩行状態判定システム。
  9.  杖に設置される第1のセンサから得られる第1の計測データ及び対象者に設置される第2のセンサから得られる第2の計測データに基づき、前記杖を用いた際の対象者の動作の特徴を示す特徴情報を取得し、
     取得された前記特徴情報に基づき、前記対象者の歩行状態を判定する歩行状態判定方法。
  10.  コンピュータに、
     杖に設置される第1のセンサから得られる第1の計測データ及び対象者に設置される第2のセンサから得られる第2の計測データに基づき、前記杖を用いた際の対象者の動作の特徴を示す特徴情報を取得する処理と、
     取得された前記特徴情報に基づき、前記対象者の歩行状態を判定する処理と、
    を実行させるプログラムを格納する記憶媒体。
PCT/JP2017/023890 2016-07-01 2017-06-29 歩行状態判定装置、歩行状態判定システム、歩行状態判定方法及び記憶媒体 WO2018003910A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/313,226 US11207003B2 (en) 2016-07-01 2017-06-29 Walking state determination device, walking state determination system, walking state determination method, and storage medium
JP2018525254A JP6881451B2 (ja) 2016-07-01 2017-06-29 歩行状態判定装置、歩行状態判定システム、歩行状態判定方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-131187 2016-07-01
JP2016131187 2016-07-01

Publications (1)

Publication Number Publication Date
WO2018003910A1 true WO2018003910A1 (ja) 2018-01-04

Family

ID=60786026

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/023890 WO2018003910A1 (ja) 2016-07-01 2017-06-29 歩行状態判定装置、歩行状態判定システム、歩行状態判定方法及び記憶媒体

Country Status (3)

Country Link
US (1) US11207003B2 (ja)
JP (1) JP6881451B2 (ja)
WO (1) WO2018003910A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019187035A1 (ja) * 2018-03-30 2019-10-03 ペンギンシステム株式会社 角度計測モジュール、ポール、角度計測方法及びプログラム
WO2020003954A1 (ja) * 2018-06-26 2020-01-02 コニカミノルタ株式会社 コンピューターで実行されるプログラム、情報処理装置、および、コンピューターで実行される方法
EP3627515A1 (en) * 2018-09-19 2020-03-25 Koninklijke Philips N.V. Monitoring a user
CN113873939A (zh) * 2019-05-29 2021-12-31 日本电气株式会社 信息处理设备、个人识别设备、个人识别系统、信息处理方法以及存储介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10973440B1 (en) * 2014-10-26 2021-04-13 David Martin Mobile control using gait velocity
US11298079B2 (en) * 2017-07-31 2022-04-12 The Industry & Academic Cooperation In Chungnam National University (Iac) Smart shoe system for calculating energy expenditure
EP3586744A1 (de) * 2018-06-29 2020-01-01 Senmotion GmbH Verfahren und system zur ganganalyse
US11871820B2 (en) 2021-11-09 2024-01-16 Illia Popov Device, system, and method for promoting patient compliance with a prescribed lower extremity partial weight-bearing rehabilitation program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60152317U (ja) * 1984-03-14 1985-10-09 酒井医療株式会社 荷重センサ付き杖
JPH04133832U (ja) * 1991-05-31 1992-12-14 川崎重工業株式会社 歩行補助装置のモニタ装置
JP2003216743A (ja) * 2002-01-25 2003-07-31 Nippon Telegr & Teleph Corp <Ntt> 遠隔転倒予防指導支援システム
US20130346021A1 (en) * 2012-06-25 2013-12-26 International Business Machines Corporation Monitoring use of a single arm walking aid
US20140276242A1 (en) * 2013-03-14 2014-09-18 Healthward International, LLC Wearable body 3d sensor network system and method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5511571A (en) * 1993-11-05 1996-04-30 Adrezin; Ronald S. Method and apparatus for gait measurement
US6011481A (en) * 1998-10-21 2000-01-04 Luther; Arch Walking cane with sensors
WO2006014533A2 (en) * 2004-07-07 2006-02-09 Home Guardian Llc Instrumented mobility assistance device
CA2605239A1 (en) * 2005-05-02 2006-11-09 University Of Virginia Patent Foundation Systems, devices, and methods for interpreting movement
US20090137933A1 (en) * 2007-11-28 2009-05-28 Ishoe Methods and systems for sensing equilibrium
WO2009111427A2 (en) * 2008-03-04 2009-09-11 The Regents Of The University Of California Apparatus and method for implementing a mobility aid device
US8638236B2 (en) * 2010-02-25 2014-01-28 Qualcomm Incorporated Methods and apparatus for applying tactile pressure sensors
JP6334925B2 (ja) 2013-01-18 2018-05-30 キヤノンメディカルシステムズ株式会社 動作情報処理装置及び方法
WO2015063765A1 (en) * 2013-10-29 2015-05-07 Milbat - Giving Quality To Life Walker-assist device
US10335091B2 (en) * 2014-03-19 2019-07-02 Tactonic Technologies, Llc Method and apparatus to infer object and agent properties, activity capacities, behaviors, and intents from contact and pressure images
US9826806B2 (en) * 2014-11-10 2017-11-28 Pranav Challa Assistive support systems and devices for automatic feedback
US10799154B2 (en) * 2015-03-11 2020-10-13 Vanderbilt University Walking aid and system and method of gait monitoring
WO2017184787A1 (en) * 2016-04-19 2017-10-26 Can Mobilities, Inc. Mobility devices having smart features and charging mounts for same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60152317U (ja) * 1984-03-14 1985-10-09 酒井医療株式会社 荷重センサ付き杖
JPH04133832U (ja) * 1991-05-31 1992-12-14 川崎重工業株式会社 歩行補助装置のモニタ装置
JP2003216743A (ja) * 2002-01-25 2003-07-31 Nippon Telegr & Teleph Corp <Ntt> 遠隔転倒予防指導支援システム
US20130346021A1 (en) * 2012-06-25 2013-12-26 International Business Machines Corporation Monitoring use of a single arm walking aid
US20140276242A1 (en) * 2013-03-14 2014-09-18 Healthward International, LLC Wearable body 3d sensor network system and method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019187035A1 (ja) * 2018-03-30 2019-10-03 ペンギンシステム株式会社 角度計測モジュール、ポール、角度計測方法及びプログラム
WO2020003954A1 (ja) * 2018-06-26 2020-01-02 コニカミノルタ株式会社 コンピューターで実行されるプログラム、情報処理装置、および、コンピューターで実行される方法
JPWO2020003954A1 (ja) * 2018-06-26 2021-07-08 コニカミノルタ株式会社 コンピューターで実行されるプログラム、情報処理装置、および、コンピューターで実行される方法
JP7342863B2 (ja) 2018-06-26 2023-09-12 コニカミノルタ株式会社 コンピュータで実行されるプログラム、情報処理システム、および、コンピュータで実行される方法
EP3627515A1 (en) * 2018-09-19 2020-03-25 Koninklijke Philips N.V. Monitoring a user
WO2020058067A1 (en) * 2018-09-19 2020-03-26 Koninklijke Philips N.V. Monitoring a user
CN113873939A (zh) * 2019-05-29 2021-12-31 日本电气株式会社 信息处理设备、个人识别设备、个人识别系统、信息处理方法以及存储介质

Also Published As

Publication number Publication date
US20190150796A1 (en) 2019-05-23
JP6881451B2 (ja) 2021-06-02
US11207003B2 (en) 2021-12-28
JPWO2018003910A1 (ja) 2019-05-16

Similar Documents

Publication Publication Date Title
WO2018003910A1 (ja) 歩行状態判定装置、歩行状態判定システム、歩行状態判定方法及び記憶媒体
JP6981557B2 (ja) 体重推定装置、体重推定方法、およびプログラム
KR102235926B1 (ko) 스마트 인솔을 통한 보행 데이터 분석 시스템
JP2020120807A (ja) 転倒リスク評価装置、転倒リスク評価方法及び転倒リスク評価プログラム
JP6079585B2 (ja) 歩容のバランス評価装置
Kerr et al. Using an optical proximity sensor to measure foot clearance during gait: Agreement with motion analysis
WO2023127008A1 (ja) 動的バランス推定装置、動的バランス推定システム、動的バランス推定方法、および記録媒体
WO2020105115A1 (ja) 歩容計測システム、歩容計測方法、およびプログラム記録媒体
KR20200102162A (ko) 착용형 보행 분석 장치
WO2023127007A1 (ja) 筋力指標推定装置、筋力指標推定システム、筋力指標推定方法、および記録媒体
US20240172966A1 (en) Harmonic index estimation device, estimation system, harmonic index estimation method, and recording medium
WO2023127010A1 (ja) 移動能力推定装置、移動能力推定システム、移動能力推定方法、および記録媒体
US20240138757A1 (en) Pelvic inclination estimation device, estimation system, pelvic inclination estimation method, and recording medium
WO2023127013A1 (ja) 静的バランス推定装置、静的バランス推定システム、静的バランス推定方法、および記録媒体
WO2023157161A1 (ja) 検出装置、検出システム、歩容計測システム、検出方法、および記録媒体
US20230389859A1 (en) Index value estimation device, estimation system, index value estimation method, and recording medium
US20240138710A1 (en) Waist swinging estimation device, estimation system, waist swinging estimation method, and recording medium
WO2022208838A1 (ja) 生体情報処理装置、情報処理システム、生体情報処理方法、および記録媒体
WO2023127009A1 (ja) 下肢筋力推定装置、下肢筋力推定システム、下肢筋力推定方法、および記録媒体
US20240108249A1 (en) Detection device, detection method, and program recording medium
WO2022244222A1 (ja) 推定装置、推定システム、推定方法、および記録媒体
WO2022201338A1 (ja) 特徴量生成装置、歩容計測システム、特徴量生成方法、および記録媒体
WO2023139718A1 (ja) 特徴量選定装置、特徴量選定方法、身体状態推定システム、および記録媒体
WO2023286106A1 (ja) 歩容評価装置、歩容評価方法、歩容計測システム、および記録媒体
US20240138777A1 (en) Learning system, learning method, and recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17820264

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018525254

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17820264

Country of ref document: EP

Kind code of ref document: A1