WO2018100797A1 - 情報処理方法、情報処理装置、および情報処理端末 - Google Patents

情報処理方法、情報処理装置、および情報処理端末 Download PDF

Info

Publication number
WO2018100797A1
WO2018100797A1 PCT/JP2017/026962 JP2017026962W WO2018100797A1 WO 2018100797 A1 WO2018100797 A1 WO 2018100797A1 JP 2017026962 W JP2017026962 W JP 2017026962W WO 2018100797 A1 WO2018100797 A1 WO 2018100797A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information processing
measurement
information
unit
Prior art date
Application number
PCT/JP2017/026962
Other languages
English (en)
French (fr)
Inventor
圭祐 廣部
Original Assignee
ソニーモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーモバイルコミュニケーションズ株式会社 filed Critical ソニーモバイルコミュニケーションズ株式会社
Priority to US16/462,936 priority Critical patent/US20200054266A1/en
Priority to JP2018553654A priority patent/JP7051704B2/ja
Priority to EP17875789.4A priority patent/EP3550503A1/en
Publication of WO2018100797A1 publication Critical patent/WO2018100797A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/224Measuring muscular strength
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/22Ergometry; Measuring muscular strength or the force of a muscular blow
    • A61B5/221Ergometry, e.g. by using bicycle type apparatus
    • A61B5/222Ergometry, e.g. by using bicycle type apparatus combined with detection or measurement of physiological parameters, e.g. heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6895Sport equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • A63B71/0619Displays, user interfaces and indicating devices, specially adapted for sport equipment, e.g. display mounted on treadmills
    • A63B71/0669Score-keepers or score display devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/60ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to nutrition control, e.g. diets
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • A63B2024/0065Evaluating the fitness, e.g. fitness level or fitness index

Definitions

  • the present disclosure relates to an information processing method, an information processing apparatus, and an information processing terminal.
  • the current physical strength measurement is performed about once a year, and at the time of measurement, it is recorded manually using a stopwatch or a measure, or the muscle strength of a specific part is measured using a dedicated instrument.
  • an output unit that outputs an instruction of exercise to be performed by the user, an exercise detection unit that detects an exercise of the user, and a detection result of the exercise detection unit for the exercise instruction
  • a physical strength determination device includes a physical strength measurement unit that calculates a physical fitness level that is a matching level and measures behavioral physical strength based on the motion matching level.
  • such physical strength measurement is not limited to children and young people, it is also important to measure physical strength and cognitive function of the elderly.
  • the physical strength measurement of elderly people for example, in Patent Document 2 below, the stair ascending / descending time, repetitive side jump, and vertical jump are measured, and the correlation between the stair ascending / descending time and the repeated side jump and vertical jump is obtained.
  • a physical strength measurement method that is safe and appropriate for elderly people is disclosed, in which physical strength levels corresponding to the measurement of “repetitive side jump” and “vertical jump” can be assumed only by performing measurement.
  • an evaluation device that processes numerical data obtained by a device that measures the physical function of the subject and a device that measures the physical function to evaluate the cognitive function of the subject.
  • a cognitive function evaluation system is disclosed.
  • the current physical strength measurement described above requires labor and man-hours, and requires a large space, so it can only be performed once a year and is difficult to perform frequently.
  • the physical strength and cognitive function of elderly people have a wave of tone, and accurate numerical values may not be obtained by measuring once a year. In this case, there is a risk that care prevention cannot be performed sufficiently.
  • Care prevention is defined as delaying the need for nursing care as much as possible, and improving the situation so that it does not worsen even in the care-needing state. For prevention of such care, it is important to prevent daily decline in physical fitness and cognitive function of the elderly, but it is not sufficient to measure physical fitness once a year as described above, and appropriate in daily life. No advice was given.
  • the present disclosure proposes an information processing method, an information processing apparatus, and an information processing terminal capable of enhancing care prevention.
  • the physical strength measurement and the cognitive function measurement result the acquisition unit that acquires the life information and the social participation score, the physical fitness value and the cognitive function value based on the measurement result, the life information and the social participation score
  • a learning unit that learns the correlation
  • a prediction unit that predicts the future physical fitness value and cognitive function value of the user using the learned correlation based on the user's life information and social participation score.
  • a processing device is proposed.
  • a receiving unit that receives detection data from a sensor device attached to a user's leg, a measurement unit that measures the physical strength of the user based on the received detection data,
  • An information processing terminal comprising:
  • FIG. 1 is a diagram illustrating an overview of an information processing system according to an embodiment of the present disclosure.
  • the information processing system according to the present embodiment includes a user terminal 1 (1a to 1c%) That measures the physical strength and cognitive function of each user (elderly person), and the measurement results of each user. And a server 3 that receives and accumulates from the terminal 1 and performs analysis including machine learning.
  • the user terminal 1 (information processing terminal) is an information processing terminal such as a tablet terminal or a smartphone, and displays or outputs a predetermined action instruction for measuring physical fitness and cognitive function. In response to the action instruction, the user repeatedly raises and lowers his / her leg while sitting on a chair or stands and sits down. These actions are detected by a sensor device 2 mounted on a user's leg as shown in FIG. 1, and the user terminal is connected by wireless communication or wired communication such as Bluetooth (registered trademark) or Wi-Fi (registered trademark). 1 is transmitted.
  • the user terminal 1 analyzes the sensor data received from the sensor device 2, and performs automatic measurement (numericalization) and recording of physical strength and cognitive function. Further, the user terminal 1 transmits the measurement result to the server 3 via the network 4.
  • the sensor device 2 attached to the user has an acceleration sensor, a gyro sensor, and the like, detects the movement of the user, and transmits the detected sensor data to the user terminal 1.
  • the server 3 (information processing apparatus) accumulates the measurement results of each user, and uses the life information (meal, exercise, sleep, and basic information) and social participation score of the user (elderly person) and the social participation score as parameters. Machine learning is continued using the score as a correct answer label, and correlations between physical fitness and cognitive function scores, life information, and social participation scores are acquired. As a result, the server 3 calculates temporal changes in physical fitness and cognitive function scores based on the user's life information and social participation scores, predicts future physical fitness values and cognitive function values, and the user will be required in the future. It is possible to predict whether or not to become a caregiver.
  • the life information of the user can be acquired from the nursing home DB (database) 5 via the network 4 when the user is in the nursing home.
  • the social participation score is a numerical value of the state of participation in society by a user such as visiting a specific place or participating in an event.
  • the server 3 produces
  • the care prevention cycle according to the present embodiment will be described with reference to FIG.
  • FIG. 2 is a diagram for explaining a care prevention cycle according to the present embodiment.
  • life information (“meal”, “exercise”, “sleep”, and “basic information”) obtained in daily life and social participation information are included.
  • the user's physical strength and cognitive function score are analyzed in time series, and the future physical strength value and cognitive function value of the user, and whether or not future care needs are predicted.
  • the advice for the care prevention regarding a living condition and social participation is produced
  • the time series analysis of the user's physical strength and cognitive function score was obtained by machine learning using life information and social participation scores as parameters, and the physical fitness and cognitive function measurement results collected from the user terminal 1 as correct labels. This is based on the correlation rule between “physical fitness and cognitive function” and “life information and social participation score”.
  • “basic information” includes personal data (height, weight, sex, age, etc.), vitals (body temperature, blood pressure, pulse, SpO2, etc.), personality, and the like. Personal data and personality may be registered in advance.
  • the vitals can be automatically acquired by a wearable device such as a smart band or a smart watch worn by the user on a daily basis.
  • “meal information” includes intake timing, amount (calorie), water intake, and the like.
  • the meal information can be acquired from the nursing home DB 5 when the user is in the nursing home.
  • the intake timing of the meal can be recorded on the wearable device side by the user pressing a predetermined button of the wearable device at the time of intake.
  • “sleep information” includes sleep time, sleep timing, sleep depth, and the like. These pieces of information can also be automatically acquired by the wearable device.
  • “exercise information” includes training, functional training, rehabilitation, number of steps / activity, etc. These pieces of information can be acquired from the nursing home DB 5 when the user is in the nursing home. Further, the “number of steps / activity” can be automatically acquired by a wearable device worn by the user.
  • “social participation information” includes information such as what events and recreation the user has participated in and where the user has visited, and the social participation score based on the social participation information on the system side. Can be calculated. It is possible to obtain from the nursing home DB 5 what events, recreation, etc. have participated. Further, the information on the place visited by the user is acquired by, for example, a beacon receiving device (observer) installed in a predetermined place. Specifically, for example, the wearable device worn by the user continuously transmits a beacon, and the beacon receiving device that receives the beacon extracts the user ID from the beacon and transmits it to the server 3.
  • a beacon receiving device observed
  • the server 3 can grasp a user who has visited a predetermined place (for example, a common room, a dining room, a training room, etc. in a nursing home).
  • the server 3 can also grasp the place where the user has visited based on the absolute position information measured by the wearable device.
  • the wearable device worn by (or possessed by) the user is, for example, a biosensor, a position measurement unit (indoor / outdoor positioning), various sensors such as an acceleration sensor and a gyro sensor, and a communication unit (Bluetooth, Wi-Fi, etc.). including.
  • a biosensor for example, a biosensor, a position measurement unit (indoor / outdoor positioning), various sensors such as an acceleration sensor and a gyro sensor, and a communication unit (Bluetooth, Wi-Fi, etc.). including.
  • a position measurement unit indoor / outdoor positioning
  • various sensors such as an acceleration sensor and a gyro sensor
  • a communication unit Bluetooth, Wi-Fi, etc.
  • FIG. 3 is a block diagram illustrating an example of the configuration of the user terminal 1 according to the present embodiment.
  • the user terminal 1 includes a control unit 10, a network communication unit 11, a sensor device I / F (interface) 12, an operation input unit 13, a voice input unit 14, a display unit 15, a voice output unit 16, And a storage unit 17.
  • the control unit 10 functions as an arithmetic processing unit and a control unit, and controls the overall operation in the user terminal 1 according to various programs.
  • the control unit 10 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor, for example.
  • the control unit 10 may include a ROM (Read Only Memory) that stores programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.
  • control unit 10 also functions as the measurement unit 101.
  • the measuring unit 101 controls the display unit 15 or the voice output unit 16 to output an action instruction for instructing an action for measurement, and based on the user's action, operation content, or utterance corresponding to the action instruction, Measure (quantify) physical fitness or cognitive function.
  • the user's behavior corresponds to, for example, detection data transmitted from the sensor device 2, the user's operation content can be input from the operation input unit 13, and the user's utterance can be input from the voice input unit 14. Specific measurement contents according to the present embodiment will be described later with reference to FIGS.
  • the network communication unit 11 is connected to the network 4 by wire or wireless, and transmits / receives data to / from the server 3 on the network.
  • the network communication unit 11 is, for example, a wired / wireless LAN (Local Area Network), Wi-Fi (registered trademark), or a mobile communication network (LTE (Long Term Evolution), 3G (third generation mobile communication system)).
  • LTE Long Term Evolution
  • 3G third generation mobile communication system
  • the sensor device I / F 12 is connected to the sensor device 2 by wire or wireless and receives detection data from the sensor device 2.
  • the sensor device I / F 12 is communicatively connected to the sensor device 2 via Bluetooth or Wi-Fi.
  • the operation input unit 13 receives an operation instruction from the user and outputs the operation content to the control unit 10.
  • the operation input unit 13 may be a touch sensor, a pressure sensor, or a proximity sensor provided integrally with the display unit 15.
  • the operation input unit 13 may have a physical configuration that is provided separately from the display unit 15 such as buttons, switches, and levers.
  • the audio input unit 14 is realized by a microphone, a microphone amplifier unit that amplifies the audio signal obtained by the microphone, and an A / D converter that converts the audio signal into a digital signal, and outputs the audio signal to the control unit 10. .
  • the display unit 15 is a display device that outputs an operation screen, a menu screen, and the like.
  • the display unit 15 may be a display device such as a liquid crystal display (LCD) or an organic EL (Electroluminescence) display.
  • the display unit 15 according to the present embodiment displays an action instruction screen for instructing an action for measurement under the control of the control unit 10.
  • the audio output unit 16 includes a speaker that reproduces an audio signal and an amplifier circuit for the speaker.
  • the voice output unit 16 may output a behavior instruction voice that instructs a behavior for measurement in accordance with the control of the control unit 10.
  • the storage unit 17 is realized by a ROM (Read Only Memory) that stores programs and calculation parameters used for the processing of the control unit 10, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate. Further, the storage unit 17 according to the present embodiment may store the detection data transmitted from the sensor device 2 and the measurement result by the measurement unit 101.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the configuration of the user terminal 1 according to the present embodiment has been specifically described above.
  • the configuration of the user terminal 1 illustrated in FIG. 3 is an example, and the present embodiment is not limited to this.
  • FIG. 4 is a block diagram illustrating an example of the configuration of the server 3 according to the present embodiment.
  • the server 3 (information processing apparatus) includes a control unit 30, a communication unit 31, and a storage unit 32.
  • Control unit 30 The control unit 30 functions as an arithmetic processing device and a control device, and controls the overall operation in the server 3 according to various programs.
  • the control unit 30 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor, for example.
  • the control unit 30 may include a ROM (Read Only Memory) that stores programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) that temporarily stores parameters that change as appropriate.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • control unit 30 also functions as a learning unit 301, a social participation score calculation unit 302, a prediction unit 303, and an advice generation unit 304.
  • the learning unit 301 uses the life information (meal, exercise, sleep, and basic information) of the user (elderly person) and the social participation score as parameters, performs machine learning using the physical fitness and cognitive function scores as correct labels, The correlation between the cognitive function score, the life information and the social participation score is acquired.
  • the social participation score calculation unit 302 quantifies and acquires the social participation score based on social participation information by a user such as visiting a specific place or participating in an event. Details of the calculation of the social participation score according to this embodiment will be described later with reference to FIGS. 15 and 16.
  • the prediction unit 303 uses the current life information (meal, exercise, sleep, and basic information) of the user (elderly person) and the social participation score as parameters, and analyzes the physical strength and cognitive function score over time. To predict future physical fitness and cognitive function values. Furthermore, the prediction unit 303 predicts the possibility of needing care for the user (presence of the need for future care in the current living situation and social participation situation and its timing) from the time-series analysis results of the physical strength and the cognitive function score. It is possible. Details of prediction of care required according to the present embodiment will be described later with reference to FIGS. 17 and 18.
  • the advice generation unit 304 generates advice (personal care preventive advice) to the user regarding the life situation or social participation situation for care prevention according to the prediction result of the prediction unit 303. For example, the advice generation unit 304 suggests to the user how to improve for the prevention of nursing care regarding meal contents, sleep time, exercise amount, and social participation.
  • the communication unit 31 is connected to the network 4 by wire or wireless, and transmits / receives data to / from an external device via the network 4.
  • the communication unit 31 is connected to the network 4 through, for example, a wired / wireless LAN (Local Area Network) or Wi-Fi (Wireless Fidelity, registered trademark).
  • the communication part 31 by this embodiment receives a user's physical strength and the measurement result of a cognitive function from the user terminal 1, or receives a user's life information and social participation information from nursing home DB5.
  • the communication unit 31 receives the user's life information and social participation information from the wearable device, or receives information indicating the place where the user has visited from the beacon receiving device provided in each place. Or you may. Further, the communication unit 31 transmits care prevention advice to the user terminal 1.
  • the storage unit 32 is realized by a ROM that stores programs and calculation parameters used for the processing of the control unit 30 and a RAM that temporarily stores parameters that change as appropriate. Moreover, the memory
  • the configuration of the server 3 according to the present embodiment has been specifically described above.
  • the configuration of the server 3 illustrated in FIG. 4 is an example, and the present embodiment is not limited to this.
  • “muscle strength” is quantified by measuring the chair standing and sitting exercise and the sitting-up time
  • “agility” is quantified by measuring the number of steps in the sitting position.
  • “Cooperativity” is quantified by measuring the accuracy of moving the foot in a triangle in accordance with the tempo in the sitting position
  • “Reaction speed” is the speed of moving the foot in response to the instructions displayed on the screen in the sitting position.
  • the endurance is quantified by measuring the decrease in speed in the time of utterance in the sitting position and the time of standing and sitting on the chair.
  • the user wears the sensor device 2 on the thigh.
  • a predetermined operation is performed in accordance with an action instruction from the user terminal 1, it is detected by the sensor device 2, and measurement is automatically performed by the user terminal 1 based on the detection data.
  • each measurement item for example, the above-described physical strength (muscle strength, agility, coordination, reaction speed, and endurance) and cognitive function (memory and attention) are measured by eight measurement items.
  • the contents of the eight measurement items will be described as an example with reference to FIGS. Note that the screen examples in FIGS. 5 to 13 used in the following description are merely examples, and the present embodiment is not limited to this.
  • Measurement of utterance duration In the “measurement of utterance duration”, the length (in seconds) of continuous utterance is measured. The longer the duration, the better.
  • FIG. 5 the example of a screen display at the time of measuring the utterance continuation time displayed on the display part 15 of the user terminal 1 is shown in FIG. As shown in FIG. 5, the screen 20 displays an action instruction such as “speech continuation time” and “please speak as long as possible”.
  • the measurement unit 101 of the user terminal 1 picks up the user's utterance by the voice input unit 14, measures the loudness level of the voice, and automatically sets the utterance duration time. taking measurement.
  • the utterance continuation time for example, as shown in FIG. 6, a time during which the voice volume becomes a certain level or more, that is, a maximum phonation duration (MPT) is measured.
  • MPT maximum phonation duration
  • FIG. 7 shows a screen display example displayed on the display unit 15 of the user terminal 1 during the agility test.
  • an explicit “agility test” of the measurement item an action instruction such as “Move your foot along the arrow while sitting in a chair”, and move the arrow and foot.
  • An example image (still image or moving image) 211 of the operation is displayed.
  • the measurement unit 101 of the user terminal 1 displays an arrow indicating the direction in which the foot is moved on the display unit 15, and further detects detection data of the operation of moving the foot by the user as a sensor device. 2 is received.
  • the user terminal 1 measures the user's reaction speed in conjunction with the sensor device 2.
  • an explicit “tap test” of the measurement item an action instruction such as “tap the triangle in order with the heel while sitting in a chair,” and a triangle
  • An example image (still image or moving image) 221 of the upper tap order and tap operation is displayed.
  • the measurement unit 101 of the user terminal 1 outputs a tap sound from the audio output unit 16 after the measurement start button 222 is tapped by the user, and further receives detection data of a tap operation by the user from the sensor device 2.
  • the user terminal 1 measures the accuracy of the user's tap operation in conjunction with the sensor device 2.
  • FIG. 9 shows a screen display example displayed in the display unit 15 of the user terminal 1 during the step test.
  • the screen 23 includes an explicit “step test” of the measurement item, an action instruction such as “please step on while sitting on a chair”, and an example image of a stepping action (still image or Movie) 231 is displayed.
  • the measurement start button 232 is tapped by the user, the measurement unit 101 of the user terminal 1 measures the number of steps taken for a predetermined time, for example, 5 seconds, based on the step motion detection data received from the sensor device 2 by the user. To do.
  • the user terminal 1 measures the number of times the user has stepped in conjunction with the sensor device 2.
  • FIG. 10 shows a screen display example displayed on the display unit 15 of the user terminal 1 in the foot-lifting test.
  • the measurement item is clearly indicated as “foot-raising test”, an action instruction such as “hold up as much as possible while sitting in a chair”, and a foot-raising operation.
  • An example image (still image or moving image) 241 is displayed.
  • the measurement unit 101 of the user terminal 1 measures the holding time based on the detection data of the foot-holding operation by the user received from the sensor device 2. In this way, the user terminal 1 measures the user's foot-holding time in conjunction with the sensor device 2.
  • FIG. 11 shows a screen display example in the squat test displayed on the display unit 15 of the user terminal 1.
  • a predetermined time for example, 30 seconds.
  • FIG. 11 shows a screen display example in the squat test displayed on the display unit 15 of the user terminal 1.
  • an explicit image “Squat test” of the measurement item an action instruction such as “Repeat and sit on the chair. Measure for 30 seconds”, and an example image of the standing and sitting motion. (Still image or moving image) 251 is displayed.
  • the measuring unit 101 of the user terminal 1 determines the number of times of standing and sitting in 30 seconds based on the detection data of the standing and sitting movements received by the user from the sensor device 2. Measure the speed and coefficient of variation.
  • FIG. 12 shows a screen display example in the memory test, which is displayed on the display unit 15 of the user terminal 1.
  • the user terminal 1 displays a screen 26-1 for displaying information (here, a plurality of pictures) 261 stored in the user.
  • a predetermined time has elapsed, as shown in the lower part of FIG.
  • a screen 26-2 for displaying options 262 is displayed, and the stored picture is selected by the user.
  • the measuring unit 101 of the user terminal 1 determines whether the content selected by the user is correct or not, and measures memory (unit: points). Note that a “redo” button 263 and a “next” button 264 are displayed on the screen 26-2, and the user taps the “redo” button 263 to perform the memory test again. When the selection is completed and the next test is performed, the user taps the “Next” button 264.
  • FIG. 13 shows a screen display example in the attention test displayed on the display unit 15 of the user terminal 1.
  • an image 271 in which numeric buttons are displayed at random is displayed on the screen 27.
  • the user taps the number buttons in order as quickly as possible within a predetermined time.
  • the measurement unit 101 of the user terminal 1 determines the speed and accuracy with which the user has tapped, and measures attention (unit: points).
  • a “redo” button 272 and a “next” button 273 are displayed on the screen 27, and the user taps the “redo” button 272 to perform the attention test again.
  • FIG. 14 is a sequence diagram showing learning processing according to the present embodiment. As shown in FIG. 14, first, the user terminal 1 outputs (display output or audio output) action instructions for measuring physical fitness and cognitive function (step S103). The details of the action instruction are as described above with reference to FIGS.
  • the sensor device 2 detects the movement of the user (step S106) and transmits the detection data to the user terminal 1 (step S109).
  • the user terminal 1 receives an operation input by the user from the operation input unit 13 (step S112). This is because, as shown in FIGS. 12 to 13, depending on the measurement item, there may be a case where an operation is directly input from the screen (touch panel) of the user terminal 1.
  • the measurement unit 101 of the user terminal 1 measures physical strength and cognitive function based on the received detection data or directly input operation information, that is, muscle strength, agility, coordination, reaction speed, endurance, The memory and attention are digitized (step S115).
  • the user terminal 1 transmits the measurement result to the server 3 (step S118).
  • the server 3 acquires the user's life information and social score (step S121).
  • the user's life information can be acquired from, for example, the user's wearable device or nursing home DB 5.
  • the user's social score can be calculated based on the user's location information and the like.
  • the server 3 learns the correlation between the measurement result of the user and the corresponding life information and social score (step S124), and accumulates the learning result (step S127).
  • the learning process described above is performed continuously.
  • the server 3 according to the present embodiment uses measurement results (physical fitness, cognitive function score) of a large number of users, corresponding life information, and social scores. It is possible to continue learning the correlation.
  • FIG. 15 is a flowchart showing a prediction process according to this embodiment.
  • the social participation score calculation unit 302 of the server 3 calculates the user's social participation score based on the user's location information and the like (step S203).
  • the social participation score calculation unit 302 can calculate the social participation score by adding the points associated with the place where the user has visited and the event that the user has participated in. For example, as shown in FIG. 16, when points are set according to places such as the own room “0 points”, the dining room “3 points”, the second floor “2 points”, etc., the social participation score calculation unit 302 is visited by the user.
  • the social participation score may be calculated by calculating a score based on the place and time. For example, if the user stays for 5 hours in his / her room, 1 hour in the dining room, and 2 hours on the second floor, the social participation score is calculated as “7 points” because “5 ⁇ 0 + 1 ⁇ 3 + 2 ⁇ 2”. . Further, a social participation coefficient may be set according to a place or an event, and the social participation score may be quantified by time ⁇ (position point ⁇ social participation coefficient).
  • the social participation score can be varied depending on the number of people in a specific place at the same time (for example, if you visit a place where many people gather, the social participation score will increase), or for a specific activity or event Bonus points may be added when participating.
  • the user's position information is obtained by receiving a beacon transmitted from the wearable device 7 worn by the user by the beacon receiving devices 6a to 6c installed at the respective locations. It is possible to specify whether a place has been visited. In addition, the location where the user has visited is not limited to this method, and may be determined based on the absolute position information measured by the wearable device 7.
  • the number of steps of the user may be measured by the wearable device 7, and the score ranking of each user together with the calculated social participation score may be displayed (eg, real-time display) in a nursing home or a specific community using digital signage or the like.
  • the score ranking of each user together with the calculated social participation score may be displayed (eg, real-time display) in a nursing home or a specific community using digital signage or the like.
  • the server 3 acquires user life information (step S206).
  • the life information of the user is acquired by the communication unit 31 via the network 4 from the wearable device 7 or the nursing home DB 5 of the user, for example.
  • the prediction unit 303 of the server 3 uses the learning result described above based on the acquired social participation score and life information, and performs time series analysis of the user's physical strength and cognitive function score (step S209).
  • FIG. 17 shows an example of time-series analysis results of physical fitness and cognitive function scores.
  • the physical strength and the cognitive function score predicted based on the learning result from the life situation as of May and the social participation score are shown. From the time series analysis results shown in FIG. 17, it can be seen that “cooperation” may suddenly deteriorate from August and “memory” may deteriorate rapidly from October.
  • the prediction unit 303 predicts future physical fitness values and cognitive function values, and whether or not future care needs are required (step S212). Specifically, for example, the prediction unit 303 may change the time series analysis result as shown in FIG. 17 to one dimension as shown in FIG. 18 and may require nursing care when it falls below a predetermined nursing care threshold value. Predict.
  • FIG. 18 is a diagram for explaining prediction of care required according to the present embodiment. In the example shown in FIG. 18, it can be seen that the physical strength and the cognitive function are reduced, and there is a possibility that the physical care level and the cognitive function may fall below (i.e., may be within a predetermined period of time) the nursing care threshold value (that is, the nursing care is required).
  • the advice generation unit 304 of the server 3 when it is predicted that care will be required in the future (Step S212 / Yes), the advice generation unit 304 of the server 3 generates advice (care preventive advice) for preventing the need for care (Step S212). S215). In addition, it is possible to generate advice for all healthy users regardless of whether or not care is required in the future. Advice relates to living conditions and social participation. Multiple levels of advice are assumed. For example, as shown in FIG. 18, the improvement in physical strength and cognitive function score may occur between the case of advice A that requires a small change in behavior such as a living situation and the case of advice B that has a large change in behavior. Changes in the physical strength and the cognitive function score according to the advice can also be predicted using the machine learning result by the learning unit 301. For example, the server 3 may present both the advice A and the advice B, and may indicate how much the care-requiring risk is reduced.
  • control part 30 of the server 3 shows the advice produced
  • control unit 30 of the server 3 controls the advice information to be transmitted from the communication unit 31 to the user terminal 1 and presented from the user terminal 1 to the user.
  • the risk of needing care (possibility of needing care) is predicted accurately and quickly by analyzing the user's physical strength and cognitive function using the learning results. Is possible.
  • advice to the user is generated according to whether or not care is required in the future, but the present embodiment is not limited to this.
  • the server 3 according to the present embodiment may generate and present advice (prevention of care) that prevents a decrease in physical strength and cognitive function to all users according to the prediction results of physical strength and cognitive function.
  • the extent to which the decrease in physical strength and cognitive function can be suppressed by the magnitude of behavioral change may be presented to the user.
  • the prediction of the risk of nursing care according to this embodiment can also be used for insurance products.
  • results of physical fitness and cognitive function measurement can be used by connecting to other systems such as retail product recommendations and smart homes.
  • the user terminal 1, the sensor device 2, the server 3, and the wearable device 7 may be added to hardware such as a CPU, a ROM, and a RAM built in the user terminal 1, the sensor device 2, the server 3, and the wearable device 7 described above. It is also possible to create a computer program for exercising these functions. A computer-readable storage medium storing the computer program is also provided.
  • this technique can also take the following structures. (1) Obtaining physical fitness measurement and cognitive function measurement results, life information and social participation scores by the acquisition unit, Learning a physical fitness value and a cognitive function value based on the measurement result, a life information and a social participation score by a learning unit; Predicting the future physical fitness value and cognitive function value of the user by the prediction unit using the learned correlation based on the life information and social participation score of the user; Including an information processing method. (2) The information processing method according to (1), wherein the acquisition unit calculates and acquires the social participation score based on position information of a user.
  • the information processing method according to (2) wherein the acquisition unit calculates the social participation score in consideration of a score, weight, and time set for a place based on the location information of the user.
  • the acquisition unit acquires the location of the location as the location information of the user when a signal transmitted from a transmission device worn by the user is received by a reception device installed in a predetermined location.
  • (6) The information processing method according to any one of (1) to (5), wherein in the learning, machine learning processing is performed using the physical fitness value and the cognitive function value as a correct answer label.
  • the meal information includes at least one of meal intake timing, calories, and water intake.
  • the sleep information includes at least one of sleep time, sleep timing, and sleep depth.
  • the exercise information includes at least one of training, functional training, rehabilitation, the number of steps, and the amount of activity.
  • the information processing method includes: Depending on the result of the prediction, generating advice on the living situation or social participation situation for care prevention by the generator, Presenting the generated advice to the user;
  • the information processing method according to any one of (1) to (13), further including: (15) An acquisition unit for acquiring physical fitness measurement and cognitive function measurement results, life information and social participation score, A learning unit that learns the correlation between the physical fitness value and the cognitive function value based on the measurement result, and life information and a social participation score Based on the user's life information and social participation score, using the learned correlation, the prediction unit that predicts the future physical fitness value and cognitive function value of the user,
  • An information processing apparatus comprising: (16) A receiving unit for receiving detection data from a sensor device mounted on a user's leg; Based on the received detection data, a measurement unit that measures the physical strength of the user;
  • An information processing terminal comprising: (17) The information processing terminal according to (16), wherein the measurement unit quantifies muscle strength as the measurement of the physical strength based on the detection data.
  • the information processing terminal An output unit for outputting an action instruction for instructing the user to perform an action for measurement; An input unit for receiving input from the user; Further comprising The information processing terminal according to (16), wherein the measurement unit measures a cognitive function of the user based on user input data performed in response to the action instruction. (23) The information processing terminal according to (22), wherein the measurement unit digitizes attention as measurement of the cognitive function based on the input data. (24) The information processing terminal according to (22), wherein the measurement unit quantifies memory as measurement of the cognitive function based on the input data.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Primary Health Care (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Data Mining & Analysis (AREA)
  • Child & Adolescent Psychology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Physics & Mathematics (AREA)
  • Developmental Disabilities (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Neurology (AREA)
  • Social Psychology (AREA)
  • Quality & Reliability (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)

Abstract

【課題】介護予防をより充実させることが可能な情報処理方法、情報処理装置、および情報処理端末を提供する。 【解決手段】体力測定および認知機能の測定結果と、生活情報および社会参加スコアを取得部により取得することと、前記測定結果に基づく体力値および認知機能値と、生活情報および社会参加スコアとの相関を学習部により学習することと、ユーザの生活情報および社会参加スコアに基づき、前記学習した相関を用いて、当該ユーザの将来的な体力値および認知機能値を予測部により予測することと、を含む、情報処理方法。

Description

情報処理方法、情報処理装置、および情報処理端末
 本開示は、情報処理方法、情報処理装置、および情報処理端末に関する。
 現行の体力測定は、年1回程度行われ、計測時にはストップウォッチやメジャーを用いて手作業で記録したり、専用の器具を使って特定部位の筋力等を計測したりしている。
 体力測定装置に関し、例えば下記特許文献1では、利用者が行うべき運動の指示を出力する出力部と、利用者の運動を検出する運動検出部と、運動指示に対する前記運動検出部の検出結果の一致度である運動一致度を算出し、当該運動一致度に基づいて行動体力を測定する体力測定部と、を備える体力判定装置が開示されている。
 また、このような体力測定は、子供や若者に限られず、高齢者の体力、認知機能の測定も重要となる。高齢者の体力測定に関し、例えば下記特許文献2では、階段昇降時間、反復横跳び、垂直跳びを測定し、階段昇降時間と、反復横跳びおよび垂直跳びの相関を求め、「階段昇降時間」の測定を行うだけで、「反復横跳び」および「垂直跳び」の測定に該当する体力レベルを想定することができる、高齢者にとって安全で且つ適切な体力測定方法が開示されている。
 また、下記特許文献3では、被測定者の身体機能の測定を行う装置と、身体機能の測定を行う装置で得られた数値データを処理して被測定者の認知機能を評価する評価装置を備えた認知機能評価システムが開示されている。
特開2004-73272号公報 特開2000-300710号公報 特開2011-115362号公報
 上述した現行の体力測定は、手間と工数が掛かり、また、広い場所が必要であったため、年1回程度しか行うことができず、頻繁に行うことが難しかった。しかしながら、高齢者の体力や認知機能には調子の波があり、年1回の計測では正確な数値がとれない場合があった。この場合、介護予防が十分に行えない恐れがある。
 介護予防とは、要介護状態になることをできる限り遅らせることであって、要介護状態であってもその状態がそれ以上に悪化しないよう改善を図ることと定義される。かかる介護予防には、高齢者の体力や認知機能の日々の低下を防ぐことも重要となるが、上述したような年1回程度の体力測定では不十分であり、また、日々の生活における適切なアドバイスは行われていなかった。
 そこで、本開示では、介護予防をより充実させることが可能な情報処理方法、情報処理装置、および情報処理端末を提案する。
 本開示によれば、体力測定および認知機能の測定結果と、生活情報および社会参加スコアを取得部により取得することと、前記測定結果に基づく体力値および認知機能値と、生活情報および社会参加スコアとの相関を学習部により学習することと、ユーザの生活情報および社会参加スコアに基づき、前記学習した相関を用いて、当該ユーザの将来的な体力値および認知機能値を予測部により予測することと、を含む、情報処理方法を提案する。
 本開示によれば、体力測定および認知機能の測定結果と、生活情報および社会参加スコアを取得する取得部と、前記測定結果に基づく体力値および認知機能値と、生活情報および社会参加スコアとの相関を学習する学習部と、ユーザの生活情報および社会参加スコアに基づき、前記学習した相関を用いて、当該ユーザの将来的な体力値および認知機能値を予測する予測部と、を備える、情報処理装置を提案する。
 本開示によれば、ユーザの脚部に装着されたセンサデバイスから検知データを受信する受信部と、前記受信した検知データに基づいて、前記ユーザの体力を測定する測定部と、
を備える、情報処理端末を提案する。
 以上説明したように本開示によれば、介護予防をより充実させることが可能となる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 本実施形態による介護予防サイクルを説明する図である。 本実施形態によるユーザ端末の構成の一例を示すブロック図である。 本実施形態によるサーバの構成の一例を示すブロック図である。 本実施形態による測定種目の一例である発声継続時間測定テストの際の画面表示例を示す図である。 本実施形態による発声継続時間の計測について説明する図である。 本実施形態による測定種目の一例であるアジリティテストの際の画面表示例を示す図である。 本実施形態による測定種目の一例であるタップテストの際の画面表示例を示す図である。 本実施形態による測定種目の一例であるステップテストの際の画面表示例を示す図である。 本実施形態による測定種目の一例である足上げテストの際の画面表示例を示す図である。 本実施形態による測定種目の一例であるスクワットテストの際の画面表示例を示す図である。 本実施形態による測定種目の一例である記憶力テストの際の画面表示例を示す図である。 本実施形態による測定種目の一例である注意力テストの際の画面表示例を示す図である。 本実施形態による学習処理を示すシーケンス図である。 本実施形態による予測処理を示すフローチャートである。 本実施形態による社会参加スコア算出について説明する図である。 本実施形態による体力および認知機能スコアの時系列分析結果の一例を示す図である。 本実施形態による要介護の予測について説明する図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.構成
  2-1.ユーザ端末1の構成
  2-2.サーバ3の構成
 3.体力および認知機能の測定
 4.動作処理
  4-1.学習処理
  4-2.予測処理
 5.まとめ
 <<1.本開示の一実施形態による情報処理システムの概要>>
 図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システムは、各ユーザ(高齢者)の体力および認知機能を測定するユーザ端末1(1a~1c・・・)と、各ユーザの測定結果をユーザ端末1から受信して蓄積し、機械学習を含めた解析を行うサーバ3とを含む。
 ユーザ端末1(情報処理端末)は、タブレット端末やスマートフォン等の情報処理端末であって、体力および認知機能測定のために所定の行動指示を表示または音声出力する。ユーザは、かかる行動指示に応じて、例えば椅子に座った状態で足を上げ下げしたり、立ち座りを繰り返す。これらの行動は、図1に示すようにユーザの脚部等に装着されたセンサデバイス2により検知され、Bluetooth(登録商標)やWi-Fi(登録商標)等の無線通信または有線通信によりユーザ端末1に送信される。ユーザ端末1は、センサデバイス2から受信したセンサデータを解析し、体力および認知機能の自動計測(数値化)および記録を行う。また、ユーザ端末1は、測定結果をネットワーク4を介してサーバ3へ送信する。
 ユーザに装着されるセンサデバイス2は、加速度センサおよびジャイロセンサ等を有し、ユーザの動きを検知し、検知したセンサデータをユーザ端末1へ送信する。
 サーバ3(情報処理装置)は、各ユーザの測定結果を蓄積する他、ユーザ(高齢者)の生活情報(食事、運動、睡眠、および基礎情報)および社会参加スコアをパラメータとし、体力、認知機能スコアを正解ラベルに使って機械学習を続け、体力、認知機能スコアと、生活情報および社会参加スコアとの相関を取得する。これによりサーバ3は、ユーザの生活情報および社会参加スコアに基づいて、体力、認知機能スコアの経時変化を算出して将来的な体力値および認知機能値を予測し、さらにユーザが将来的に要介護になるか否かを予測することが可能となる。
 ユーザの生活情報は、ユーザが老人ホームに入居している場合は、ネットワーク4を介して老人ホームDB(データベース)5から取得することが可能である。また、社会参加スコアは、特定の場所に訪れる、イベントに参加する等のユーザによる社会への参加状況を数値化したものである。
 そして、サーバ3は、ユーザの将来的な体力値および認知機能値の予測に応じて、生活状況の改善アドバイスや社会参加を促すアドバイスを生成してユーザに提示し、体力、認知機能の低下防止を図り、介護予防をより充実させることを可能とする。ここで、本実施形態による介護予防サイクルについて図2を参照して説明する。
 図2は、本実施形態による介護予防サイクルを説明する図である。図2に示すように、本実施形態による情報処理システムでは、日々の生活において得られる生活情報(「食事」、「運動」、「睡眠」、および「基礎情報」)と、社会参加情報とに基づいて、ユーザの体力、認知機能スコアを時系列分析し、ユーザの将来的な体力値および認知機能値、および将来的に要介護となるか否かが予測される。そして、生活状況や社会参加に関する、介護予防のためのアドバイスが生成され、ユーザに提示される。ユーザは、アドバイスに応じて介護予防のために生活状況を改善したり、社会参加を増やすようにすることができる。
 これらが繰り返されることで、ユーザの介護予防をより充実させることが可能となる。
 また、ユーザの体力および認知機能スコアの時系列分析は、生活情報および社会参加スコアをパラメータとし、ユーザ端末1から収集した体力、認知機能の測定結果を正解ラベルとした機械学習により得られた、「体力、認知機能」と「生活情報および社会参加スコア」の相関ルールに基づいて行われる。
 なお本実施形態において、「基礎情報」には、パーソナルデータ(身長、体重、性別、年齢等)、バイタル(体温、血圧、脈拍、SpO2等)、および性格等が含まれる。パーソナルデータおよび性格は、予め登録されていてもよい。バイタルは、ユーザが日常的に装着するスマートバンド、スマートウォッチ等のウェアラブルデバイスにより自動的に取得され得る。
 また、「食事情報」には、摂取タイミング、量(カロリー)、および水分摂取量等が含まれる。食事情報は、ユーザが老人ホームに入居している場合は老人ホームDB5から取得することが可能である。また、食事の摂取タイミングは、摂取時にウェアラブルデバイスの所定のボタンをユーザが押す等して、ウェアラブルデバイス側で記録することが可能である。
 また、「睡眠情報」には、睡眠時間、睡眠タイミング、および睡眠の深さ等が含まれる。これらの情報もウェアラブルデバイスにより自動的に取得され得る。
 また、「運動情報」には、トレーニング、機能訓練、リハビリ、歩数/活動量等が含まれる。これらの情報は、ユーザが老人ホームに入居している場合は老人ホームDB5から取得することが可能である。また、「歩数/活動量」は、ユーザが装着しているウェアラブルデバイスにより自動的に取得され得る。
 また、「社会参加情報」には、ユーザがどのようなイベント、レクリエーション等に参加したか、また、ユーザが訪れた場所等の情報が含まれ、システム側において社会参加情報に基づいて社会参加スコアが算出され得る。どのようなイベント、レクリエーション等に参加したかは、老人ホームDB5から取得することが可能である。また、ユーザが訪れた場所の情報は、例えば所定の場所に設置されたビーコン受信装置(オブザーバー)により取得される。具体的には、例えばユーザが装着しているウェアラブルデバイスが継続的にビーコンを発信し、これを受信したビーコン受信装置がビーコンからユーザIDを抽出してサーバ3へ送信する。これによりサーバ3は、所定の場所(例えば老人ホーム内の談話室、食堂、トレーニングルーム等)に訪れたユーザを把握することができる。また、サーバ3は、ウェアラブルデバイスにより測位された絶対位置情報に基づいてユーザが訪れた場所を把握することも可能である。
 なお、ユーザが装着する(または所持する)ウェアラブルデバイスは、例えば生体センサ、位置計測部(屋内/屋外測位)、加速度センサ、ジャイロセンサ等の各種センサや、通信部(Bluetooth、Wi-Fi等)を含む。また、かかるウェアラブルデバイスは、上述した測定時に用いられるセンサデバイス2と兼用であってもよい。
 以上、本開示の一実施形態による情報処理システムについて説明した。続いて、本実施形態による情報処理システムに含まれる各装置の具体的な構成について図面を参照して説明する。
 <<2.構成>>
  <2-1.ユーザ端末1の構成>
 図3は、本実施形態によるユーザ端末1の構成の一例を示すブロック図である。図3に示すように、ユーザ端末1は、制御部10、ネットワーク通信部11、センサデバイスI/F(インタフェース)12、操作入力部13、音声入力部14、表示部15、音声出力部16、および記憶部17を有する。
 制御部10は、演算処理装置および制御装置として機能し、各種プログラムに従ってユーザ端末1内の動作全般を制御する。制御部10は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部10は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 また、本実施形態による制御部10は、測定部101としても機能する。測定部101は、測定のための行動を指示する行動指示を表示部15または音声出力部16から出力するよう制御し、当該行動指示に対応するユーザの行動、操作内容、または発声に基づいて、体力または認知機能の測定(数値化)を行う。ユーザの行動は、例えばセンサデバイス2から送信された検知データに相当し、ユーザの操作内容は操作入力部13から入力され、また、ユーザの発声は音声入力部14により入力され得る。本実施形態による具体的な測定内容については、図5~図13を参照して後述する。
 ネットワーク通信部11は、有線または無線によりネットワーク4と接続し、ネットワーク上のサーバ3とデータの送受信を行う。ネットワーク通信部11は、例えば有線/無線LAN(Local Area Network)、Wi-Fi(登録商標)、または携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等によりネットワーク4と通信接続する。
 センサデバイスI/F12は、有線または無線によりセンサデバイス2と接続し、センサデバイス2から検知データを受信する。例えばセンサデバイスI/F12は、BluetoothまたはWi-Fi等によりセンサデバイス2と通信接続する。
 操作入力部13は、ユーザによる操作指示を受付け、その操作内容を制御部10に出力する。操作入力部13は、表示部15と一体的に設けられるタッチセンサ、圧力センサ、若しくは近接センサであってもよい。或いは、操作入力部13は、ボタン、スイッチ、およびレバーなど、表示部15と分離して設けられる物理的構成であってもよい。
 音声入力部14は、マイクロホンと、そのマイクロホンで得られた音声信号を増幅処理するマイクアンプ部と、音声信号にデジタル変換するA/D変換器により実現され、音声信号を制御部10に出力する。
 表示部15は、操作画面やメニュー画面等を出力する表示装置である。この表示部15は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electroluminescence)ディスプレイなどの表示装置であってもよい。本実施形態による表示部15は、制御部10の制御に従って、測定のための行動を指示する行動指示画面を表示する。
 音声出力部16は、音声信号を再生するスピーカと、スピーカに対するアンプ回路を有する。本実施形態による音声出力部16は、制御部10の制御に従って、測定のための行動を指示する行動指示音声を出力してもよい。
 記憶部17は、制御部10の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。また、本実施形態による記憶部17は、センサデバイス2から送信された検知データや、測定部101による測定結果を記憶してもよい。
 以上、本実施形態によるユーザ端末1の構成について具体的に説明した。なお図3に示すユーザ端末1の構成は一例であって、本実施形態はこれに限定されない。
  <2-2.サーバ3の構成>
 図4は、本実施形態によるサーバ3の構成の一例を示すブロック図である。図4に示すように、サーバ3(情報処理装置)は、制御部30、通信部31、および記憶部32を有する。
 (制御部30)
 制御部30は、演算処理装置および制御装置として機能し、各種プログラムに従ってサーバ3内の動作全般を制御する。制御部30は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部30は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
 また、本実施形態による制御部30は、学習部301、社会参加スコア算出部302、予測部303、およびアドバイス生成部304としても機能する。
 学習部301は、ユーザ(高齢者)の生活情報(食事、運動、睡眠、および基礎情報)および社会参加スコアをパラメータとし、体力、認知機能スコアを正解ラベルに使って機械学習を行い、体力、認知機能スコアと、生活情報および社会参加スコアとの相関を取得する。
 社会参加スコア算出部302は、特定の場所に訪れたり、イベントに参加したりする等のユーザによる社会参加情報に基づいて社会参加スコアを数値化し、取得する。本実施形態による社会参加スコアの算出の詳細については、図15および図16を参照して後述する。
 予測部303は、学習結果に基づいて、ユーザ(高齢者)の現在の生活情報(食事、運動、睡眠、および基礎情報)および社会参加スコアをパラメータとし、体力、認知機能スコアを時系列分析して、将来的な体力値および認知機能値の予測を行う。さらに、予測部303は、体力および認知機能スコアの時系列分析結果から、ユーザの要介護の可能性(現状の生活状況および社会参加状況における将来的な要介護の有無およびその時期)を予測することが可能である。本実施形態による要介護予測の詳細については、図17および図18を参照して後述する。
 アドバイス生成部304は、予測部303の予測結果に応じて、介護予防のための生活状況または社会参加状況に関するユーザへのアドバイス(パーソナル介護予防アドバイス)を生成する。例えば、アドバイス生成部304は、食事内容や睡眠時間、運動量、社会参加に関し、介護予防のためにどのように改善したらよいかをユーザに提案する。
 (通信部31)
 通信部31は、有線または無線によりネットワーク4と接続し、ネットワーク4を介して外部装置とデータの送受信を行う。また、通信部31は、例えば有線/無線LAN(Local Area Network)、またはWi-Fi(Wireless Fidelity、登録商標)等によりネットワーク4と通信接続する。本実施形態による通信部31は、ユーザ端末1からユーザの体力、認知機能の測定結果を受信したり、老人ホームDB5からユーザの生活情報および社会参加情報を受信したりする。また、本実施形態による通信部31は、ウェアラブルデバイスからユーザの生活情報および社会参加情報を受信したり、各場所に配設されているビーコン受信装置からユーザが訪れた場所を示す情報を受信したりしてもよい。また、通信部31は、介護予防のアドバイスをユーザ端末1に送信する。
 (記憶部32)
 記憶部32は、制御部30の処理に用いられるプログラムや演算パラメータ等を記憶するROM、および適宜変化するパラメータ等を一時記憶するRAMにより実現される。また、本実施形態による記憶部32は、学習部301による学習結果や、各ユーザの体力および認知機能の測定結果、および生活情報、社会参加スコア等を蓄積する。
 以上、本実施形態によるサーバ3の構成について具体的に説明した。なお図4に示すサーバ3の構成は一例であって、本実施形態はこれに限定されない。
 <<3.体力および認知機能の測定>>
 続いて、本実施形態による体力および認知機能の測定について具体的に説明する。本実施形態による測定は、ユーザに装着するセンサデバイス2およびユーザ端末1(スマートフォンやタブレット端末)を連動して、ユーザ(高齢者)の体力(筋力、敏捷性、協調性、反応速度、および持久力)および認知機能(記憶力および注意力)を自動で、安全に、短時間、かつ省スペースで測定することができる。
 より具体的には、例えば「筋力」は、椅子立ち座り運動および座位足上げ継続時間を測定することで数値化し、「敏捷性」は、座位で足踏みを行うステップ数を測定することで数値化し、「協調性」は、座位でテンポに合わせて三角形に足を動かす精度を測定することで数値化し、「反応速度」は、座位で画面上に表示される指示に反応して足を動かす速さを測定することで数値化し、「持久力」は、座位で発声を継続する時間、および椅子立ち座り運動の時間における速度低下を測定することで数値化する。
 また、例えば「記憶力」は、画面上に表示される項目をどれだけ記憶できるかを得点化し、「注意力」は、画面上の指示に従い素早く正確にボタンを押せるかを得点化する。
 これらの測定種目の実施方法について、以下具体的に説明する。
 まず、測定準備として、ユーザはセンサデバイス2を大腿部に装着する。次いで、ユーザ端末1からの行動指示に従って所定の動作を行うと、センサデバイス2により検知され、検知データに基づいてユーザ端末1により自動的に測定が行われる。
 続いて、各測定種目の具体例について説明する。本実施形態では、例えば8つの測定種目により、上述したユーザの体力(筋力、敏捷性、協調性、反応速度、および持久力)および認知機能(記憶力および注意力)を測定する。以下、一例として8つの測定種目の内容について図5~図13を参照して説明する。なお、以下の説明で用いる図5~図13の画面例は一例であって、本実施形態はこれに限定されない。
 (1)発声継続時間の計測
 「発声継続時間の計測」では、声を出し続ける長さ(秒単位)を計測する。継続時間が長い程良い結果となる。ここで、ユーザ端末1の表示部15に表示される、発声継続時間を測定する際の画面表示例を図5に示す。図5に示すように、画面20には、測定種目の明示「発声継続時間」と、「できるだけ長く声を出してください」といった行動指示が表示される。ユーザ端末1の測定部101は、ユーザにより計測開始ボタン201がタップされた後、音声入力部14によりユーザの発声を収音し、声の大きさのレベルを計測して自動で発声継続時間を測定する。発声継続時間としては、例えば図6に示すように、声量が一定以上となる時間、すなわち最大発声持続時間(MPT:Maximum Phonation Time)が測定される。
 (2)アジリティテスト
 「アジリティテスト」では、ユーザ端末1の表示部15にランダムに矢印を表示し、ユーザが椅子に座った状態で矢印の方向に足を動かす反応速度を測定する。反応速度が速い程良い点数となる。ここで、ユーザ端末1の表示部15に表示される、アジリティテストの際の画面表示例を図7に示す。図7に示すように、画面21には、測定種目の明示「アジリティテスト」と、「椅子に座った状態で、矢印に合わせて足を動かしてください」といった行動指示と、矢印および足を動かす動作の例示画像(静止画、または動画)211が表示される。ユーザ端末1の測定部101は、ユーザにより計測開始ボタン212がタップされた後、表示部15に、足を動かす方向を示す矢印を表示し、さらにユーザによる足を動かす動作の検知データをセンサデバイス2から受信する。このように、ユーザ端末1は、センサデバイス2と連動してユーザの反応速度を測定する。
 (3)タップテスト
 「タップテスト」では、ユーザ端末1から出力されるテンポ音に合わせて、ユーザが足で三角形の頂点を踏む(タップする)際の精度を測定する。30秒間等の所定時間内でのテンポのズレを計測し、ズレが少ない程良い結果となる(単位:点)。なおユーザがタップする三角形がユーザの足元に書かれていてもよい(若しくは三角形が書かれたマット等が敷かれていてもよい)。ここで、ユーザ端末1の表示部15に表示される、タップテストの際の画面表示例を図8に示す。図8に示すように、画面22には、測定種目の明示「タップテスト」と、「椅子に座った状態で、音に合わせて三角形をかかとで順にタップしてください」といった行動指示と、三角形上のタップの順序およびタップ動作の例示画像(静止画、または動画)221が表示される。ユーザ端末1の測定部101は、ユーザにより計測開始ボタン222がタップされた後、音声出力部16からタップ音を出力し、さらにユーザによるタップ動作の検知データをセンサデバイス2から受信する。このように、ユーザ端末1は、センサデバイス2と連動してユーザのタップ動作の精度を測定する。
 (4)ステップテスト
 「ステップテスト」では、椅子に座った状態における所定時間(例えば5秒間)内での足踏みの回数を測定する。回数が多い程良い結果となる。ここで、ユーザ端末1の表示部15に表示される、ステップテストの際の画面表示例を図9に示す。図9に示すように、画面23には、測定種目の明示「ステップテスト」と、「椅子に座った状態で素早く足踏みしてください」といった行動指示と、足踏み動作の例示画像(静止画、または動画)231が表示される。ユーザ端末1の測定部101は、ユーザにより計測開始ボタン232がタップされると、センサデバイス2から受信したユーザによるステップ動作の検知データに基づいて、所定時間、例えば5秒間での足踏み回数を計測する。このように、ユーザ端末1は、センサデバイス2と連動してユーザの足踏み回数を測定する。
 (5)足上げテスト
 「足上げテスト」では、椅子に座った状態で足を上げて保持した時間(秒)を測定する。保持時間が長い程良い結果となる。ここで、ユーザ端末1の表示部15に表示される、足上げテストの際の画面表示例を図10に示す。図10に示すように、画面24には、測定種目の明示「足上げテスト」と、「椅子に座った状態で足を上げてなるべく保持してください」といった行動指示と、足上げ保持動作の例示画像(静止画、または動画)241が表示される。ユーザ端末1の測定部101は、ユーザにより計測開始ボタン242がタップされると、センサデバイス2から受信したユーザによる足上げ保持動作の検知データに基づいて、保持時間を計測する。このように、ユーザ端末1は、センサデバイス2と連動してユーザの足上げ保持時間を測定する。
 (6)スクワットテスト
 「スクワットテスト」では、所定時間内(例えば30秒間)における椅子からの立ち座りの回数や動き方を測定する。回数が多い程良い結果となる。ここで、ユーザ端末1の表示部15に表示される、スクワットテストの際の画面表示例を図11に示す。図11に示すように、画面25には、測定種目の明示「スクワットテスト」と、「椅子の立ち座りを繰り返してください。30秒間計測します。」といった行動指示と、立ち座り動作の例示画像(静止画、または動画)251が表示される。ユーザ端末1の測定部101は、ユーザにより計測開始ボタン252がタップされると、センサデバイス2から受信したユーザによる立ち座り動作の検知データに基づいて、30秒間での立ち座り回数、および立ち座りの速さと変動係数を測定する。
 (7)記憶力テスト
 「記憶力テスト」では、例えばユーザ端末1の表示部15に文字や図表等の情報を所定時間表示してユーザに記憶させ、その後、表示した文字や図表等の情報を含む多数の選択肢を表示し、ユーザがどれだけ正しく記憶しているかを測定する。より多く記憶している程良い点数となる。ここで、ユーザ端末1の表示部15に表示される、記憶力テストの際の画面表示例を図12に示す。ユーザ端末1は、まず、図12上段に示すように、ユーザに記憶させる情報(ここでは複数の絵)261を表示する画面26-1を表示する。次いで、所定時間経過後に、図12下段に示すように、選択肢262を表示する画面26-2を表示し、記憶した絵をユーザに選択させる。ユーザ端末1の測定部101は、ユーザが選択した内容の正誤を判断し、記憶力の測定(単位:点数)を行う。なお、画面26-2には、「やり直し」ボタン263と「次へ」ボタン264が表示され、ユーザは記憶力テストを再度行いたい場合は「やり直し」ボタン263をタップする。また、選択が終了し、次のテストを行う場合、ユーザは「次へ」ボタン264をタップする。
 (8)注意力テスト
 「注意力テスト」では、例えばユーザ端末1の表示部15にボタンを表示し、所定時間内でユーザがどれだけ素早く正確に、指示に従ってボタンを押せるかを測定する。ここで、ユーザ端末1の表示部15に表示される、注意力テストの際の画面表示例を図13に示す。図13に示すように、画面27には、数字ボタンがランダムに表示された画像271が表示されている。ユーザは、所定時間内になるべく早く正確に数字ボタンを順番にタップする。ユーザ端末1の測定部101は、ユーザがタップした早さおよび正確さを判断し、注意力の測定(単位:点数)を行う。なお、画面27には、「やり直し」ボタン272と「次へ」ボタン273が表示され、ユーザは注意力テストを再度行いたい場合は「やり直し」ボタン272をタップする。また、タップ操作が終了し、次のテストを行う場合、ユーザは「次へ」ボタン273をタップする。
 <<4.動作処理>>
 続いて、本実施形態による情報処理システムの動作処理について図14~図18を参照して説明する。
 <4-1.学習処理>
 図14は、本実施形態による学習処理を示すシーケンス図である。図14に示すように、まず、ユーザ端末1は、体力および認知機能測定のための行動指示を出力(表示出力または音声出力)する(ステップS103)。具体的な行動指示の内容は、図5~図13を参照して上述した通りである。
 次に、センサデバイス2は、ユーザの動きを検知し(ステップS106)、検知データをユーザ端末1へ送信する(ステップS109)。
 次いで、ユーザ端末1は、操作入力部13からユーザによる操作入力を受け付ける(ステップS112)。図12~図13に示すように、測定種目によっては、ユーザ端末1の画面上(タッチパネル)から直接操作入力する場合もあるためである。
 次に、ユーザ端末1の測定部101は、受信した検知データ、または直接入力された操作情報に基づいて、体力および認知機能測定、すなわち、筋力、敏捷性、協調性、反応速度、持久力、記憶力、および注意力の数値化を行う(ステップS115)。
 次いで、ユーザ端末1は、測定結果をサーバ3へ送信する(ステップS118)。
 一方、サーバ3は、ユーザの生活情報および社会スコアを取得する(ステップS121)。ユーザの生活情報は、例えばユーザのウェアラブルデバイスや老人ホームDB5から取得され得る。また、ユーザの社会スコアは、ユーザの位置情報等に基づいて算出され得る。
 次に、サーバ3は、ユーザの測定結果と、対応する生活情報および社会スコアとの相関を学習し(ステップS124)、学習結果を蓄積する(ステップS127)。
 以上説明した学習処理は継続的に行われる。また、図14では、一例として1のユーザ端末しか用いていないが、本実施形態によるサーバ3は、多数のユーザの測定結果(体力、認知機能スコア)と、対応する生活情報および社会スコアを用いて、その相関を学習し続けることが可能である。
 <4-2.予測処理>
 続いて、上述した学習結果を用いて、ユーザの現在の生活情報および社会スコアからユーザの体力および認知機能スコアを時系列分析し、ユーザの将来的な体力値および認知機能値、および、ユーザの将来的な要介護の可能性を予測する予測処理について、図15を参照して説明する。
 図15は、本実施形態による予測処理を示すフローチャートである。図15に示すように、まず、サーバ3の社会参加スコア算出部302は、ユーザの位置情報等に基づいて、ユーザの社会参加スコアを算出する(ステップS203)。ここで、社会参加スコアの算出について具体的に説明する。本実施形態による社会参加スコア算出部302は、ユーザが訪れた場所や参加したイベントに対応付けられた点数を加算して、社会参加スコアを算出し得る。例えば図16に示すように、自室「0点」、食堂「3点」、2階「2点」等、場所によってポイントが設定されている場合、社会参加スコア算出部302は、ユーザが訪れた場所と時間に基づいて点数を算出して社会参加スコアを算出してもよい。例えば、ユーザが、自室に5時間、食堂に1時間、2階に2時間居た場合は、「5×0+1×3+2×2」となるため、社会参加スコアは「7点」と算出される。また、さらに場所やイベントによって社会参加係数を設定し、時間×(位置ポイント×社会参加係数)により社会参加スコアを定量化してもよい。
 また、社会参加スコアは、同時に特定の場所に存在する人数によって係数を可変させたり(例えば人が多く集まっている場所に訪れた方が、社会参加スコアが高くなる)、特定の活動やイベントに参加した際にボーナス点を加算したりしてもよい。
 また、ユーザの位置情報は、図16に示すように、各場所に設置されたビーコン受信装置6a~6cにより、ユーザが装着するウェアラブルデバイス7から発信されるビーコンを受信することで、ユーザがどの場所に訪れたかを特定することが可能である。また、ユーザが訪れた場所の特定はかかる方法に限定されず、ウェアラブルデバイス7により測位された絶対位置情報に基づいて判断してもよい。
 また、ウェアラブルデバイス7によりユーザの歩数も計測し、算出した社会参加スコアと共に、各ユーザのスコアランキングを、老人ホームや特定コミュニティにおいてデジタルサイネージ等で表示(例えばリアルタイム表示)してもよい。これにより、競争心が芽生え、歩くことや社会参加することのモチベーションを高めることが期待できる。
 次いで、サーバ3は、ユーザの生活情報を取得する(ステップS206)。ユーザの生活情報は、例えばユーザのウェアラブルデバイス7や老人ホームDB5からネットワーク4を介して通信部31により取得する。
 次に、サーバ3の予測部303は、取得した社会参加スコアおよび生活情報に基づいて、上述した学習結果を活用し、ユーザの体力および認知機能スコアを時系列分析する(ステップS209)。ここで、図17に、体力および認知機能スコアの時系列分析結果の一例を示す。図17では、例えば5月現在の生活状況および社会参加スコアから学習結果に基づいて予測される体力および認知機能スコアが示されている。図17に示す時系列分析結果から、「協調性」が8月から急激に悪化し、また、「記憶力」が10月から急激に悪化する恐れがあることが分かる。
 次いで、予測部303は、時系列分析結果に基づいて、将来的な体力値および認知機能値、および、将来的に要介護になるか否かを予測する(ステップS212)。具体的には、例えば予測部303は、図17に示すような時系列分析結果を図18に示すように一次元化し、所定の要介護閾値を下回る際に、要介護となる可能性があると予測する。図18は、本実施形態による要介護の予測について説明する図である。図18に示す例では、体力および認知機能が低下し、将来的に(例えば所定期間内に、としてもよい)要介護閾値を下回る(すなわち要介護となる)可能性があることが分かる。
 次に、将来的に要介護になると予測した場合(ステップS212/Yes)、サーバ3のアドバイス生成部304は、要介護となることを予防するためのアドバイス(介護予防アドバイス)を生成する(ステップS215)。また、将来的に要介護になるか否かに依らず、健常なユーザ全員に対してアドバイスを生成することも可能である。アドバイスは、生活状況や社会参加状況に関するものである。アドバイスのレベルは複数想定される。例えば図18に示すように、生活状況等の行動変容が小さくて済むアドバイスAの場合と、行動変容が大きいアドバイスBの場合とでは、体力および認知機能スコアの改善にも変化が生じ得る。アドバイスに応じた体力および認知機能スコアの変化も、学習部301による機械学習結果を活用して予測され得る。例えばサーバ3は、アドバイスAとアドバイスBを両方提示し、それぞれどの程度要介護リスクが減るのかを併せて示すようにしてもよい。
 そして、サーバ3の制御部30は、アドバイス生成部304により生成されたアドバイスをユーザに提示する(ステップS218)。具体的には、例えばサーバ3の制御部30は、アドバイス情報を通信部31からユーザ端末1に送信し、ユーザ端末1からユーザへ提示するよう制御する。
 以上説明したように、本実施形態では、学習結果を活用してユーザの体力および認知機能を時系列分析することで、正確かつ早期に、要介護リスク(要介護の可能性)を予測することが可能となる。また、要介護リスクが予測された際には、最適なパーソナル介護予防アドバイスを提案し、介護予防をより充実させることができる。なお、図15を参照して説明した動作処理では、将来的に要介護となるか否かに応じてユーザへのアドバイスを生成しているが、本実施形態はこれに限定されない。本実施形態によるサーバ3は、体力および認知機能の予測結果に応じて、全ユーザに対して体力および認知機能の低下を防止する(介護防止)アドバイスを生成し、提示してもよい。この際も、上述した例と同様に、行動変容の大きさによって体力および認知機能の低下がどの程度抑えられるかを、併せてユーザに提示してもよい。
 また、本実施形態による要介護リスクの予測は、保険商品にも活用することができる。
 また、体力および認知機能測定の結果を、小売商品のリコメンドやスマートホーム等、他のシステムに接続して活用することもできる。
 <<5.まとめ>>
 上述したように、本開示の実施形態による情報処理システムでは、介護予防をより充実させることが可能となる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上述したユーザ端末1、センサデバイス2、サーバ3、およびウェアラブルデバイス7に内蔵されるCPU、ROM、およびRAM等のハードウェアに、ユーザ端末1、センサデバイス2、サーバ3、およびウェアラブルデバイス7の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 体力測定および認知機能の測定結果と、生活情報および社会参加スコアを取得部により取得することと、
 前記測定結果に基づく体力値および認知機能値と、生活情報および社会参加スコアとの相関を学習部により学習することと、
 ユーザの生活情報および社会参加スコアに基づき、前記学習した相関を用いて、当該ユーザの将来的な体力値および認知機能値を予測部により予測することと、
を含む、情報処理方法。
(2)
 前記取得部は、ユーザの位置情報に基づいて前記社会参加スコアを算出して取得する、前記(1)に記載の情報処理方法。
(3)
 前記取得部は、前記ユーザの位置情報に基づいて、場所に設定された点数、重み付け、および時間を考慮して前記社会参加スコアを算出する、前記(2)に記載の情報処理方法。
(4)
 前記取得部は、所定の場所に設置された受信装置により前記ユーザが装着した発信装置から発信された信号が受信された際に、当該場所の位置を前記ユーザの位置情報として取得する、前記(2)または(3)に記載の情報処理方法。
(5)
 前記取得部は、特定のイベントへの参加情報に基づいて前記社会参加スコアを算出して取得する、前記(1)~(4)のいずれか1項に記載の情報処理方法。
(6)
 前記学習は、前記体力値および認知機能値を正解ラベルに用いて機械学習処理を行う、前記(1)~(5)のいずれか1項に記載の情報処理方法。
(7)
 前記生活情報は、食事情報、睡眠情報、または運動情報の少なくともいずれかを含む、前記(1)~(6)のいずれか1項に記載の情報処理方法。
(8)
 前記食事情報は、食事の摂取タイミング、カロリー、または水分摂取量の少なくともいずれかを含む、前記(7)に記載の情報処理方法。
(9)
 前記睡眠情報は、睡眠時間、睡眠タイミング、または睡眠の深さの少なくともいずれかを含む、前記(7)または(8)に記載の情報処理方法。
(10)
 前記運動情報は、トレーニング、機能訓練、リハビリ、歩数、または活動量の少なくともいずれかを含む、前記(7)~(9)のいずれか1項に記載の情報処理方法。
(11)
 前記取得部は、体力値として、筋力、敏捷性、協調性、反応速度、または持久力の少なくともいずれかの数値を取得する、前記(1)~(10)のいずれか1項に記載の情報処理方法。
(12)
 前記取得部は、認知機能値として、注意力、または記憶力の少なくともいずれかの数値を取得する、前記(1)~(11)のいずれか1項に記載の情報処理方法。
(13)
 前記予測部は、ユーザの現在の生活情報および社会参加スコアから、前記相関の学習結果を用いて当該ユーザの体力値および認知機能値を時系列分析し、当該ユーザの将来的な体力値および認知機能値を予測する、前記(1)~(12)のいずれか1項に記載の情報処理方法。
(14)
 前記情報処理方法は、
 前記予測の結果に応じて、介護予防のための生活状況または社会参加状況に関するアドバイスを生成部により生成することと、
 前記生成したアドバイスをユーザに提示することと、
をさらに含む、前記(1)~(13)のいずれか1項に記載の情報処理方法。
(15)
 体力測定および認知機能の測定結果と、生活情報および社会参加スコアを取得する取得部と、
 前記測定結果に基づく体力値および認知機能値と、生活情報および社会参加スコアとの相関を学習する学習部と、
 ユーザの生活情報および社会参加スコアに基づき、前記学習した相関を用いて、当該ユーザの将来的な体力値および認知機能値を予測する予測部と、
を備える、情報処理装置。
(16)
 ユーザの脚部に装着されたセンサデバイスから検知データを受信する受信部と、
 前記受信した検知データに基づいて、前記ユーザの体力を測定する測定部と、
を備える、情報処理端末。
(17)
 前記測定部は、前記検知データに基づいて、前記体力の測定として筋力を数値化する、前記(16)に記載の情報処理端末。
(18)
 前記測定部は、前記検知データに基づいて、前記体力の測定として敏捷性を数値化する、前記(16)に記載の情報処理端末。
(19)
 前記測定部は、前記検知データに基づいて、前記体力の測定として協調性を数値化する、前記(16)に記載の情報処理端末。
(20)
 前記測定部は、前記検知データに基づいて、前記体力の測定として反応速度を数値化する、前記(16)に記載の情報処理端末。
(21)
 前記測定部は、前記検知データに基づいて、前記体力の測定として持久力を数値化する、前記(16)に記載の情報処理端末。
(22)
 前記情報処理端末は、
 前記ユーザに測定のための行動を指示する行動指示を出力する出力部と、
 前記ユーザからの入力を受け付ける入力部と、
をさらに備え、
 前記測定部は、前記行動指示に応じて行われたユーザの入力データに基づいて、前記ユーザの認知機能を測定する、前記(16)に記載の情報処理端末。
(23)
 前記測定部は、前記入力データに基づいて、前記認知機能の測定として注意力を数値化する、前記(22)に記載の情報処理端末。
(24)
 前記測定部は、前記入力データに基づいて、前記認知機能の測定として記憶力を数値化する、前記(22)に記載の情報処理端末。
 1  ユーザ端末
 2  センサデバイス
 3  サーバ
 4  ネットワーク
 5  老人ホームDB
 6  ビーコン受信装置
 7  ウェアラブルデバイス
 10  制御部
  101  測定部
 11  ネットワーク通信部
 12  センサデバイスI/F
 13  操作入力部
 14  音声入力部
 15  表示部
 16  音声出力部
 17  記憶部
 30  制御部
  301  学習部
  302  社会参加スコア算出部
  303  予測部
  304  アドバイス生成部
 31  通信部
 32  記憶部

Claims (24)

  1.  体力測定および認知機能の測定結果と、生活情報および社会参加スコアを取得部により取得することと、
     前記測定結果に基づく体力値および認知機能値と、生活情報および社会参加スコアとの相関を学習部により学習することと、
     ユーザの生活情報および社会参加スコアに基づき、前記学習した相関を用いて、当該ユーザの将来的な体力値および認知機能値を予測部により予測することと、
    を含む、情報処理方法。
  2.  前記取得部は、ユーザの位置情報に基づいて前記社会参加スコアを算出して取得する、請求項1に記載の情報処理方法。
  3.  前記取得部は、前記ユーザの位置情報に基づいて、場所に設定された点数、重み付け、および時間を考慮して前記社会参加スコアを算出する、請求項2に記載の情報処理方法。
  4.  前記取得部は、所定の場所に設置された受信装置により前記ユーザが装着した発信装置から発信された信号が受信された際に、当該場所の位置を前記ユーザの位置情報として取得する、請求項2に記載の情報処理方法。
  5.  前記取得部は、特定のイベントへの参加情報に基づいて前記社会参加スコアを算出して取得する、請求項1に記載の情報処理方法。
  6.  前記学習は、前記体力値および認知機能値を正解ラベルに用いて機械学習処理を行う、請求項1に記載の情報処理方法。
  7.  前記生活情報は、食事情報、睡眠情報、または運動情報の少なくともいずれかを含む、請求項1に記載の情報処理方法。
  8.  前記食事情報は、食事の摂取タイミング、カロリー、または水分摂取量の少なくともいずれかを含む、請求項7に記載の情報処理方法。
  9.  前記睡眠情報は、睡眠時間、睡眠タイミング、または睡眠の深さの少なくともいずれかを含む、請求項7に記載の情報処理方法。
  10.  前記運動情報は、トレーニング、機能訓練、リハビリ、歩数、または活動量の少なくともいずれかを含む、請求項7に記載の情報処理方法。
  11.  前記取得部は、体力値として、筋力、敏捷性、協調性、反応速度、または持久力の少なくともいずれかの数値を取得する、請求項1に記載の情報処理方法。
  12.  前記取得部は、認知機能値として、注意力、または記憶力の少なくともいずれかの数値を取得する、請求項1に記載の情報処理方法。
  13.  前記予測部は、ユーザの現在の生活情報および社会参加スコアから、前記相関の学習結果を用いて当該ユーザの体力値および認知機能値を時系列分析し、当該ユーザの将来的な体力値および認知機能値を予測する、請求項1に記載の情報処理方法。
  14.  前記情報処理方法は、
     前記予測の結果に応じて、介護予防のための生活状況または社会参加状況に関するアドバイスを生成部により生成することと、
     前記生成したアドバイスをユーザに提示することと、
    をさらに含む、請求項1に記載の情報処理方法。
  15.  体力測定および認知機能の測定結果と、生活情報および社会参加スコアを取得する取得部と、
     前記測定結果に基づく体力値および認知機能値と、生活情報および社会参加スコアとの相関を学習する学習部と、
     ユーザの生活情報および社会参加スコアに基づき、前記学習した相関を用いて、当該ユーザの将来的な体力値および認知機能値を予測する予測部と、
    を備える、情報処理装置。
  16.  ユーザの脚部に装着されたセンサデバイスから検知データを受信する受信部と、
     前記受信した検知データに基づいて、前記ユーザの体力を測定する測定部と、
    を備える、情報処理端末。
  17.  前記測定部は、前記検知データに基づいて、前記体力の測定として筋力を数値化する、請求項16に記載の情報処理端末。
  18.  前記測定部は、前記検知データに基づいて、前記体力の測定として敏捷性を数値化する、請求項16に記載の情報処理端末。
  19.  前記測定部は、前記検知データに基づいて、前記体力の測定として協調性を数値化する、請求項16に記載の情報処理端末。
  20.  前記測定部は、前記検知データに基づいて、前記体力の測定として反応速度を数値化する、請求項16に記載の情報処理端末。
  21.  前記測定部は、前記検知データに基づいて、前記体力の測定として持久力を数値化する、請求項16に記載の情報処理端末。
  22.  前記情報処理端末は、
     前記ユーザに測定のための行動を指示する行動指示を出力する出力部と、
     前記ユーザからの入力を受け付ける入力部と、
    をさらに備え、
     前記測定部は、前記行動指示に応じて行われたユーザの入力データに基づいて、前記ユーザの認知機能を測定する、請求項16に記載の情報処理端末。
  23.  前記測定部は、前記入力データに基づいて、前記認知機能の測定として注意力を数値化する、請求項22に記載の情報処理端末。
  24.  前記測定部は、前記入力データに基づいて、前記認知機能の測定として記憶力を数値化する、請求項22に記載の情報処理端末。
PCT/JP2017/026962 2016-11-29 2017-07-26 情報処理方法、情報処理装置、および情報処理端末 WO2018100797A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/462,936 US20200054266A1 (en) 2016-11-29 2017-07-26 Information processing method, information processing apparatus, and information processing terminal
JP2018553654A JP7051704B2 (ja) 2016-11-29 2017-07-26 情報処理方法および情報処理装置
EP17875789.4A EP3550503A1 (en) 2016-11-29 2017-07-26 Information processing method, information processing device, and information processing terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016231791 2016-11-29
JP2016-231791 2016-11-29

Publications (1)

Publication Number Publication Date
WO2018100797A1 true WO2018100797A1 (ja) 2018-06-07

Family

ID=62242622

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/026962 WO2018100797A1 (ja) 2016-11-29 2017-07-26 情報処理方法、情報処理装置、および情報処理端末

Country Status (4)

Country Link
US (1) US20200054266A1 (ja)
EP (1) EP3550503A1 (ja)
JP (1) JP7051704B2 (ja)
WO (1) WO2018100797A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111259701A (zh) * 2018-12-03 2020-06-09 杭州海康威视数字技术股份有限公司 行人再识别方法、装置及电子设备
WO2020158717A1 (ja) * 2019-01-31 2020-08-06 富士フイルム株式会社 学習済みモデル、学習方法、及びプログラム、並びに医用情報取得装置、方法、及びプログラム
JP2020140481A (ja) * 2019-02-28 2020-09-03 日本電気株式会社 処理装置、処理方法及びプログラム
JP2020140480A (ja) * 2019-02-28 2020-09-03 日本電気株式会社 処理装置、処理方法及びプログラム
JP2020160897A (ja) * 2019-03-27 2020-10-01 Necソリューションイノベータ株式会社 ケアプラン作成支援装置、ケアプラン作成支援方法、プログラム、および記録媒体
CN112221003A (zh) * 2020-10-14 2021-01-15 电子科技大学 一种基于视听刺激快速诱发疲劳状态的模拟方法及系统
KR20210023631A (ko) * 2019-08-22 2021-03-04 (주)프로젝트레인보우 딥러닝 모듈을 이용한 발달장애 개선 시스템 및 방법
JP2021067996A (ja) * 2019-10-18 2021-04-30 株式会社オプテック 治療支援システム
JP2021190129A (ja) * 2020-06-01 2021-12-13 株式会社Arblet 情報処理システム、サーバ、情報処理方法及びプログラム
JP2021192754A (ja) * 2020-06-08 2021-12-23 Tdk株式会社 推定システム及びシミュレーションシステム
WO2022034705A1 (ja) * 2020-08-13 2022-02-17 株式会社日立製作所 計算機システム及び社会参加支援方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102570426B1 (ko) * 2018-11-14 2023-08-25 삼성전자주식회사 추천 서비스를 제공하기 위한 방법, 이를 위한 전자 장치 및 저장 매체
US20220344063A1 (en) * 2019-10-31 2022-10-27 Hitachi, Ltd. Nursing support system and report generating device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6476884A (en) * 1987-09-18 1989-03-22 Nec Corp Automatic measuring apparatus for physical strength
JP2000300710A (ja) 1999-04-19 2000-10-31 Mizuno Corp 体力測定方法
JP2004073272A (ja) 2002-08-09 2004-03-11 Konami Sports Life Corp 体力判定装置、体力判定方法、及びプログラム
JP2005506601A (ja) * 2001-03-07 2005-03-03 ウォルター リード アーミー インスティテュート オブ リサーチ アクティグラフからのデータを使って人の認知能力を予測するシステムおよび方法
JP2007122325A (ja) * 2005-10-27 2007-05-17 Sanyo Electric Co Ltd 保険契約システム
JP2008173250A (ja) * 2007-01-17 2008-07-31 Matsushita Electric Works Ltd 歩行動作分析装置
JP2011115362A (ja) 2009-12-03 2011-06-16 Univ Of Tsukuba 認知機能評価システム
JP2014008329A (ja) * 2012-07-02 2014-01-20 National Center For Geriatrics & Gerontology 軽度認知機能障害の有無の診断システム、認知機能検査用端末及び認知機能検査用プログラム
WO2015145810A1 (ja) * 2014-03-25 2015-10-01 株式会社安川電機 認知度推定装置、認知度推定システム、認知度推定方法
JP2016189085A (ja) * 2015-03-30 2016-11-04 シャープ株式会社 情報処理装置、情報処理システム、端末装置及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10748645B2 (en) * 2012-08-16 2020-08-18 Ginger.io, Inc. Method for providing patient indications to an entity
CN103793593B (zh) * 2013-11-15 2018-02-13 吴一兵 一种获取大脑状态客观定量指标的方法
WO2016075635A1 (en) * 2014-11-14 2016-05-19 Koninklijke Philips N.V. Cardio-respiratory fitness assessment
CN106548124B (zh) * 2015-09-17 2021-09-07 松下知识产权经营株式会社 主题推定系统、主题推定方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6476884A (en) * 1987-09-18 1989-03-22 Nec Corp Automatic measuring apparatus for physical strength
JP2000300710A (ja) 1999-04-19 2000-10-31 Mizuno Corp 体力測定方法
JP2005506601A (ja) * 2001-03-07 2005-03-03 ウォルター リード アーミー インスティテュート オブ リサーチ アクティグラフからのデータを使って人の認知能力を予測するシステムおよび方法
JP2004073272A (ja) 2002-08-09 2004-03-11 Konami Sports Life Corp 体力判定装置、体力判定方法、及びプログラム
JP2007122325A (ja) * 2005-10-27 2007-05-17 Sanyo Electric Co Ltd 保険契約システム
JP2008173250A (ja) * 2007-01-17 2008-07-31 Matsushita Electric Works Ltd 歩行動作分析装置
JP2011115362A (ja) 2009-12-03 2011-06-16 Univ Of Tsukuba 認知機能評価システム
JP2014008329A (ja) * 2012-07-02 2014-01-20 National Center For Geriatrics & Gerontology 軽度認知機能障害の有無の診断システム、認知機能検査用端末及び認知機能検査用プログラム
WO2015145810A1 (ja) * 2014-03-25 2015-10-01 株式会社安川電機 認知度推定装置、認知度推定システム、認知度推定方法
JP2016189085A (ja) * 2015-03-30 2016-11-04 シャープ株式会社 情報処理装置、情報処理システム、端末装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3550503A4

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111259701A (zh) * 2018-12-03 2020-06-09 杭州海康威视数字技术股份有限公司 行人再识别方法、装置及电子设备
CN111259701B (zh) * 2018-12-03 2023-04-25 杭州海康威视数字技术股份有限公司 行人再识别方法、装置及电子设备
WO2020158717A1 (ja) * 2019-01-31 2020-08-06 富士フイルム株式会社 学習済みモデル、学習方法、及びプログラム、並びに医用情報取得装置、方法、及びプログラム
JP7220727B2 (ja) 2019-01-31 2023-02-10 富士フイルム株式会社 学習済みモデル、学習方法、及びプログラム、並びに医用情報取得装置、方法、及びプログラム
US11978208B2 (en) 2019-01-31 2024-05-07 Fujifilm Corporation Trained model, learning method, learning program, medical information acquisition device, medical information acquisition method, and medical information acquisition program
JPWO2020158717A1 (ja) * 2019-01-31 2021-12-09 富士フイルム株式会社 学習済みモデル、学習方法、及びプログラム、並びに医用情報取得装置、方法、及びプログラム
JP2020140481A (ja) * 2019-02-28 2020-09-03 日本電気株式会社 処理装置、処理方法及びプログラム
JP2020140480A (ja) * 2019-02-28 2020-09-03 日本電気株式会社 処理装置、処理方法及びプログラム
JP7211161B2 (ja) 2019-02-28 2023-01-24 日本電気株式会社 処理装置、処理方法及びプログラム
JP7211160B2 (ja) 2019-02-28 2023-01-24 日本電気株式会社 処理装置、処理方法及びプログラム
JP2020160897A (ja) * 2019-03-27 2020-10-01 Necソリューションイノベータ株式会社 ケアプラン作成支援装置、ケアプラン作成支援方法、プログラム、および記録媒体
JP7272635B2 (ja) 2019-03-27 2023-05-12 Necソリューションイノベータ株式会社 ケアプラン作成支援装置、ケアプラン作成支援方法、プログラム、および記録媒体
KR102424629B1 (ko) 2019-08-22 2022-07-26 (주)프로젝트레인보우 딥러닝 모듈을 이용한 발달장애 개선 시스템 및 방법
KR20210023631A (ko) * 2019-08-22 2021-03-04 (주)프로젝트레인보우 딥러닝 모듈을 이용한 발달장애 개선 시스템 및 방법
JP7355302B2 (ja) 2019-10-18 2023-10-03 株式会社オプテック 治療支援システム
JP2021067996A (ja) * 2019-10-18 2021-04-30 株式会社オプテック 治療支援システム
JP2021190129A (ja) * 2020-06-01 2021-12-13 株式会社Arblet 情報処理システム、サーバ、情報処理方法及びプログラム
JP2021192754A (ja) * 2020-06-08 2021-12-23 Tdk株式会社 推定システム及びシミュレーションシステム
JP7322818B2 (ja) 2020-06-08 2023-08-08 Tdk株式会社 推定システム及びシミュレーションシステム
WO2022034705A1 (ja) * 2020-08-13 2022-02-17 株式会社日立製作所 計算機システム及び社会参加支援方法
JP7434101B2 (ja) 2020-08-13 2024-02-20 株式会社日立製作所 計算機システム及び社会参加支援方法
CN112221003B (zh) * 2020-10-14 2021-07-20 电子科技大学 一种基于视听刺激快速诱发疲劳状态的模拟方法及系统
CN112221003A (zh) * 2020-10-14 2021-01-15 电子科技大学 一种基于视听刺激快速诱发疲劳状态的模拟方法及系统

Also Published As

Publication number Publication date
EP3550503A4 (en) 2019-10-09
US20200054266A1 (en) 2020-02-20
JPWO2018100797A1 (ja) 2019-10-17
EP3550503A1 (en) 2019-10-09
JP7051704B2 (ja) 2022-04-11

Similar Documents

Publication Publication Date Title
WO2018100797A1 (ja) 情報処理方法、情報処理装置、および情報処理端末
US11433276B2 (en) Method and system for using artificial intelligence to independently adjust resistance of pedals based on leg strength
US11904207B2 (en) Method and system for using artificial intelligence to present a user interface representing a user's progress in various domains
US11957960B2 (en) Method and system for using artificial intelligence to adjust pedal resistance
US20220016482A1 (en) Method and System for Using Artificial Intelligence to Onboard a User for an Exercise Plan
US11517788B2 (en) Finger exercise training menu generating system, method thereof, and program thereof
US9173576B2 (en) Biometric monitoring device having a body weight sensor, and methods of operating same
US11801423B2 (en) Method and system for using artificial intelligence to interact with a user of an exercise device during an exercise session
US20140045156A1 (en) Methods for managing lifestyle of individuals
KR101947900B1 (ko) 건강관리 서비스 제공방법
CN102218214A (zh) 一种捕捉运动信息的装置及相应的系统
KR101974831B1 (ko) 낙상위험 평가방법 및 이를 위한 사용자 단말기
KR20150112234A (ko) 헬스케어-자기관리 시스템 및 그 운영방법
WO2022212532A1 (en) Systems and methods for using artificial intelligence to generate exercise plans based on user energy consumption metrics
JPWO2018116703A1 (ja) 表示制御装置、表示制御方法及びコンピュータプログラム
US11355029B2 (en) Method and system for estimating a demand or an attentional cost associated with the execution of a task or attention sharing strategies developed by an individual
WO2016088309A1 (ja) アドバイス生成システム、アドバイス生成方法、およびアドバイス生成装置
JP2017174061A (ja) 解析システム
Miura et al. Smartphone-based gait measurement application for exercise and its effects on the lifestyle of senior citizens
JP2021026328A (ja) 勉強見守り方法、住宅及びコンピュータプログラム
JP6945908B1 (ja) 情報処理システム、サーバ、情報処理方法及びプログラム
US12102878B2 (en) Method and system for using artificial intelligence to determine a user's progress during interval training
US20220016485A1 (en) Method and System for Using Artificial Intelligence to Determine a User's Progress During Interval Training
Golestan et al. Sensor-enabled Functional-Mobility Assessment: An Exploratory Investigation
WO2021246423A1 (ja) 情報処理システム、サーバ、情報処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17875789

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018553654

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017875789

Country of ref document: EP

Effective date: 20190701