WO2020080243A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
WO2020080243A1
WO2020080243A1 PCT/JP2019/039970 JP2019039970W WO2020080243A1 WO 2020080243 A1 WO2020080243 A1 WO 2020080243A1 JP 2019039970 W JP2019039970 W JP 2019039970W WO 2020080243 A1 WO2020080243 A1 WO 2020080243A1
Authority
WO
WIPO (PCT)
Prior art keywords
time
user
information
information processing
sensor
Prior art date
Application number
PCT/JP2019/039970
Other languages
English (en)
French (fr)
Inventor
高史 藤本
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/284,563 priority Critical patent/US20210315468A1/en
Priority to CN201980067326.7A priority patent/CN113038876A/zh
Publication of WO2020080243A1 publication Critical patent/WO2020080243A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14507Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood
    • A61B5/14517Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue specially adapted for measuring characteristics of body fluids other than blood for sweat
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue
    • A61B5/14542Measuring characteristics of blood in vivo, e.g. gas concentration, pH value; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid, cerebral tissue for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0271Thermal or temperature sensors

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a program.
  • the present disclosure proposes an example of an information processing device, an information processing method, and a program that can provide the time for the individual according to how the individual feels the flow of time.
  • an information acquisition unit that acquires a time-dependent change in biometric information from one or more biometric information sensors worn by a user, and a first biometric object in a first section at predetermined time intervals.
  • a calculation unit that calculates a difference between the change over time of the information and the change over time of the second biological information in the second section at the same time as the first section, and calculates a time difference from the standard time.
  • the time-dependent change of the biological information is acquired from one or more biological information sensors worn by the user, and the first biological object in the first section is acquired at predetermined time intervals. Calculating a difference between a change with time of the information and a change with time of the second biological information in the second section at the same time as the first section, and calculating a time difference from the standard time.
  • a processing method is provided.
  • a program is provided to run.
  • FIG. 9 is an explanatory diagram (part 1) for describing an example of calculation of a user time 412 in the embodiment of the present disclosure.
  • FIG. 11 is an explanatory diagram (part 2) for describing an example of calculation of a user time 412 in the embodiment of the present disclosure.
  • FIG. 3 is an explanatory diagram illustrating an example of a configuration of an information processing system 1 according to an embodiment of the present disclosure.
  • FIG. 3 is a block diagram showing an example of a configuration of a wearable device 10 according to an embodiment of the present disclosure.
  • FIG. 16 is an explanatory diagram for describing an example of an outer appearance of the wearable device 10 according to the embodiment of the present disclosure.
  • FIG. 3 is a block diagram showing an example of a configuration of a server 30 according to the embodiment of the present disclosure.
  • 9 is a flowchart illustrating an example of an information processing method according to an embodiment of the present disclosure.
  • FIG. 16 is an explanatory diagram illustrating an example of a display screen 800a according to an embodiment of the present disclosure.
  • FIG. 16 is an explanatory diagram illustrating an example of a display screen 800b according to an embodiment of the present disclosure.
  • FIG. 16 is an explanatory diagram illustrating an example of a display screen 800c according to an embodiment of the present disclosure.
  • time is defined as the length between two points in the flow of time
  • time is defined as the moment (one point) in the flow of time.
  • the sensing data 400a to 400d are data in which the amount of exercise and the amount of burden, which are factors that affect the variation in how the user feels the progress of time on a daily basis, are reflected. ing.
  • the sensing data 400c obtained by the acceleration sensor 120c such as acceleration
  • the sensing data 400d obtained by the step count sensor 120d such as the number of steps
  • the sensing data 400d obtained by the step count sensor 120d such as the number of steps
  • Table 1 below shows an example of an interpretation (assumption) of the progress of the user time 412 in various sensing data 400 in the present embodiment. Note that the present embodiment is not limited to the interpretation as shown in Table 1 below.
  • a predetermined start time set by the user or the like (for example, set at the time indicated by the standard time 410. In the example of FIG. 2, “8:00” based on the standard time 410) is calculated. Is set to a predetermined end time set by the user (for example, the time indicated by the standard time 410. In the example of FIG. 2, “19:00” according to the standard time 410), the plurality of difference times obtained by By integrating, the integration time 406 of the difference is acquired. For example, in the example of FIG. 2, the accumulated time 406 is “plus 10 minutes” at 19:00 standard time.
  • the difference is obtained by subtracting the reference data 420 from the sensing data 400 at every predetermined time interval (50 minutes in the example of FIG. 3) and normalizing with the reference data or the like at the corresponding time.
  • the difference pulse rate (%) can be obtained as 402.
  • the negative difference 402 is interpreted as the progress of the time at the user time 412 being slower than the progress of the time at the standard time 410. Therefore, the negative number difference 402 is converted into the negative number difference time (see Table 1). Specifically, in the example of FIG. 3, when the difference 402 is -10%, the difference time is converted to -10 minutes.
  • synthesis with the integration time 406 relating to the sensing data 400 of another type is omitted, and based on only the integration time 406 relating to the sensing data 400 which is a temporal change of the pulse rate of the user.
  • the user time 412 is directly calculated.
  • the integrated time 406 related to the sensing data 400 which is the temporal change of the pulse rate of the user, is treated as the index 408 related to the user.
  • the accumulated time 406 is “minus 36 minutes” at 19:00 standard time, the sum is directly added to set “18:24” as the user time 412. It is calculated.
  • the integration is performed by performing processing on the integrated time 406 related to the plurality of different types of sensing data 400 obtained as described above based on a predetermined mathematical expression. It is preferable to calculate the index 408 for the user.
  • the predetermined coefficients (weightings) a to d based on the characteristics of each sensing data 400 are added to the respective accumulated data 406a to 406a.
  • 406d in the example of FIG. 4, the respective integration times 406a to 406d related to the respective sensing data are shown as ⁇ Tt, ⁇ Tp, ⁇ Ta, ⁇ Tf).
  • the wearable device 10 has a sensor unit (biological information sensor) 120 that incorporates sensors such as a pulse wave sensor unit 122 that detects a user's pulse (see FIG. 6).
  • the user time 412 described above can be calculated based on the sensing data 400 acquired by the sensor unit 120.
  • the user's step count, sleep state (sleep depth, sleep time), and the like are estimated, and the estimation result is the sensing data 400. You may use as.
  • the sensor unit 120 may be provided separately from the wearable device 10. Further, in the following description, the wearable device 10 will be described as a bracelet (wristband) type wearable device. Further, the detailed configuration of the wearable device 10 will be described later.
  • the server 30 is composed of, for example, a computer.
  • the server 30 is owned by, for example, a service provider who provides a service according to this embodiment, and can provide (present) a service (for example, provision of the user time 412) to each user.
  • the server 30 calculates the user time 412 based on the sensing data 400 from each wearable device 10, and provides the calculated user time 412 to the user via the wearable device 10 or the user terminal 70.
  • the detailed configuration of the server 30 will be described later.
  • the wearable device 10 mainly includes an input unit 102, an output unit (presentation unit) 104, a communication unit 106, a storage unit 108, a main control unit 110, and a sensor unit 120. .
  • the details of each functional unit of the wearable device 10 will be described below.
  • the output unit 104 is a functional unit for presenting information to the user, and outputs various kinds of information to the user by, for example, image, sound, color, light, vibration, or the like. More specifically, the output unit 104 can present the user time 412 and the index 408 related to the user to the user by displaying the user time 412 provided from the server 30 described later on the screen.
  • the output unit 104 is realized by a display, a speaker, an earphone, a light emitting element (for example, Light Emitting Diode (LED)), a vibration module, or the like. Note that some of the functions of the output unit 104 may be provided by the user terminal 70.
  • the storage unit 108 is provided in the wearable device 10 and stores programs, information, and the like for the main control unit 110, which will be described later, to execute various processes, and information obtained by the processes.
  • the storage unit 108 is realized by, for example, a non-volatile memory such as a flash memory.
  • the sensor unit 120 is provided in the wearable device 10 mounted on the user's body, and includes a pulse wave sensor unit (pulsation sensor) 122 that detects the pulse of the target user and a motion sensor unit 124 that detects movement of the user's body. Including etc. The details of various sensors included in the sensor unit 120 will be described below.
  • the pulsation waveform (pulse wave) can be detected from the change in the blood flow rate, and the pulse can be detected from the change in the waveform per predetermined time.
  • PPG photoplethysmography
  • the pulse wave sensor unit 122 may include an optical system mechanism such as a lens and a filter in order to detect light from the measurement site of the user. Then, the pulse wave sensor unit 122 can detect a pulse wave (sensing data 400) as a temporal change having a plurality of peaks, and by counting a plurality of peaks appearing in the pulse wave per predetermined time, The pulse rate of the user can be detected.
  • an optical system mechanism such as a lens and a filter in order to detect light from the measurement site of the user. Then, the pulse wave sensor unit 122 can detect a pulse wave (sensing data 400) as a temporal change having a plurality of peaks, and by counting a plurality of peaks appearing in the pulse wave per predetermined time, The pulse rate of the user can be detected.
  • the pulse wave thus obtained for example, the temporal change of the peak interval time in the pulse wave is acquired, May be calculated
  • the user's sleep time, sleep depth, degree of relaxation, degree of tension, and the like by statistically performing various processes on the pulse wave thus obtained (for example, the temporal change of the peak interval time in the pulse wave is acquired, May be calculated) to calculate the user's sleep time, sleep depth, degree of relaxation, degree of tension, and the like.
  • the pulse wave is not limited to be acquired by using the PPG method described above, and the pulse wave may be acquired by another method.
  • the pulse wave sensor unit 122 may detect the pulse wave using the laser Doppler blood flow measurement method.
  • the laser Doppler blood flow measurement method is a method of measuring blood flow using the following phenomena. Specifically, when the laser light is applied to the measurement site of the user, scattered light (mainly erythrocytes) existing in the blood vessel of the user is moved, so that scattered light accompanied by Doppler shift is generated. . Then, the scattered light accompanied by the Doppler shift interferes with the scattered light by the immovable tissue existing in the measurement site of the user, and the beat-like intensity change is observed. Therefore, the laser Doppler blood flow measuring method can detect the pulse wave by analyzing the intensity and frequency of the beat signal.
  • an ECG (Electrocardiogram) sensor unit (not shown) that detects an electrocardiogram of the user via an electrode (not shown) attached to the user's body. May be provided.
  • the user's heart rate can be detected from the detected electrocardiogram.
  • the sensor unit 120 may include a motion sensor unit 124 for detecting the movement of the user's body.
  • the motion sensor unit 124 detects, for example, the amount of exercise of the user or the number of steps of the user based on the amount of movement of the user by acquiring the sensing data 400 that indicates a change in acceleration that occurs with the motion of the user.
  • the motion sensor unit 124 includes an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc. (not shown).
  • the sensor unit 120 may include a positioning sensor (position sensor) (not shown) instead of the motion sensor unit 124 or together with the motion sensor unit 124.
  • the positioning sensor is a sensor that detects the position of the user wearing the wearable device 10, and specifically, can be a GNSS (Global Navigation Satellite System) receiver or the like.
  • the positioning sensor can generate the sensing data 400 indicating the latitude / longitude of the current location of the target user based on the signal from the GNSS satellite.
  • RFID Radio Frequency Identification
  • Wi-Fi access point Wi-Fi access point
  • wireless base station it is also possible to use the communication device as the positioning sensor.
  • the wearable device 10 shown in FIGS. 6 and 7 is an example of the present embodiment, that is, the wearable device 10 is not limited to the examples shown in FIGS. 6 and 7 in the present embodiment. .
  • the input unit 302 receives input of data and commands to the server 30. More specifically, the input unit 302 is realized by, for example, a touch panel, a keyboard or the like.
  • the output unit 304 includes, for example, a display, a speaker, a video output terminal, an audio output terminal, and the like, and outputs various kinds of information by an image or audio.
  • the storage unit 308 is provided in the server 30 and stores programs, information, and the like for the main control unit 310, which will be described later, to execute various processes, and information obtained by the processes.
  • the storage unit 308 is realized by, for example, a magnetic recording medium such as a hard disk (Hard Disk (HD)), a non-volatile memory such as a flash memory, or the like.
  • the main control unit 310 is provided in the server 30 and can control each block of the server 30 and calculate the user time 412 based on the acquired sensing data 400.
  • the main control unit 310 is realized by hardware such as a CPU, a ROM, and a RAM, for example.
  • the main control unit 310 can also function as a sensing data acquisition unit (information acquisition unit) 320, an evaluation acquisition unit 322, a processing unit 330, and an output control unit 340.
  • the details of these functions of the main control unit 310 according to the present embodiment will be described below.
  • the main control unit 310 may execute some of the functions of the main control unit 110 of the wearable device 10, or some of the functions of the main control unit 310 may be performed by the main control unit of the wearable device 10. May be performed by 110.
  • Processing unit 330 processes the sensing data 400 output from the sensing data acquisition unit 320 described above, and calculates the index 408 related to the user and the user time 412. Specifically, the processing unit 330 functions as an index calculation unit (calculation unit) 332 and a time calculation unit 334 in order to realize these functions described above. The details of these functions of the processing unit 330 according to the present embodiment will be described below.
  • the added up integrated time is calculated as an index (time difference) 408 related to the user.
  • the index calculation unit 332 may select the sensing data 400 used when calculating the index 408 related to the user based on the reliability of each sensing data 400.
  • the index calculation unit 332 may appropriately change the reference data 420 used for calculation based on the evaluation acquired by the evaluation acquisition unit 322 described above, the user attribute information, the user schedule, and the like. The weighting (coefficient to be multiplied) may be changed appropriately.
  • the index calculation unit 332 may appropriately change the calculation timing (time interval) in order to suppress an increase in power consumption of the sensor unit 120 or to improve the accuracy of the sensing data 400.
  • the time calculation unit 334 calculates the user time 412 by adding the index (time difference) 408 related to the user calculated by the index calculation unit 332 to the standard time 410.
  • server 30 shown in FIG. 8 is an example of this embodiment, that is, the server 30 is not limited to the example shown in FIG. 8 in this embodiment.
  • FIG. 9 is a flowchart showing an example of the information processing method according to this embodiment.
  • the wearable device 10, the server 30, or the user terminal 70 as attribute information from the user, the age, sex, height, weight, holiday of the user (one week of the user.
  • the user answers the question window (for example, "What is your gender? 1: Male, 2: Female") displayed on the display unit (not shown) of the user terminal 70 such as a smartphone. You can enter your own attribute information.
  • the input of the attribute information is not limited to being performed before the first information processing, and may be performed between the information processing performed continuously, and is particularly limited. Not a thing.
  • the wearable device 10, the server 30, or the user terminal 70 may acquire information such as the ambient temperature of the user of the day by using the input from the user or the position information of the user. Then, the attribute information and the like thus received are referred to when weighting when calculating the user time 412, when selecting the reference data 420, and the like. Further, in the present embodiment, the input of the user's current day schedule or the like may be accepted together with the attribute information.
  • actions such as exercise and drinking have a high possibility of affecting how the user feels the progress of time, so that running, trekking, participating in a drinking party, etc. It is preferable to accept input of a schedule.
  • the received schedule information may be referred to when weighting is performed when calculating the user time 412, when selecting the reference data 420, or the like, similarly to the above attribute information.
  • the server 30 may store the information of the schedule in association with the corresponding sensing data 400, the index 408 related to the user, and the information regarding the tendency of the user time 412. By doing so, it becomes possible to analyze the influence of the content of the user's action on the user's body or the like, which is reflected in the user time 412 or the like, at a later date.
  • Step S101 The server 30 acquires one or a plurality of different types of sensing data 400 from the wearable device 10.
  • the sensing data 400 derived from the pulse wave or the like
  • the measurement state changes due to the wearing state of the wearable device 10 including the sensor unit 120 and the movement of the user's body. Therefore, since the sensing data 400 such as the pulse rate is not always acquired in a good measurement state, the following processing is performed on the acquired sensing data 400, and then the user time 412 is calculated. It is preferable that the sensing data 400 is selected as the sensing data 400.
  • the waveform of the detected pulse wave is located in a time frame that can be estimated from the waveform of the pulse wave detected immediately before. It is determined whether or not it is. Further, when it is not in the time frame, a dummy pulse wave waveform is arranged in the time frame, and the time frame in which the waveform detected next will exist is estimated. In the present embodiment, such estimation and determination are repeated to determine the reliability of the acquired pulse wave, and based on the determination, the pulse wave is used as sensing data for calculating the user time 412. It is determined whether to select 400. Further, in this embodiment, for example, the reliability of the pulse wave may be determined using the sensing data 400 by the motion sensor unit 124.
  • the sensing data 400 such as the pulse rate is not selected as the sensing data 400 for calculating the user time 412 based on the reliability determination result or the like
  • other types of sensing data 400 are selected.
  • the user time 412 may be calculated using only.
  • the standard time 410 may be temporarily used as the user time 412 when the sensing data 400 of another type is not acquired or selected.
  • sensing data 400 derived from acceleration such as acceleration and the number of steps
  • these sensing data 400 have high reliability, and the processing as described above is not performed. Good.
  • the server 30 selects the reference data 420 to be compared with the sensing data 400.
  • the reference data 420 may be sensing data of the same type as the sensing data acquired from the wearable device 10 worn by the user. Further, the reference data 420 is a day earlier than the date when the sensing data 400 was acquired, has the same time as the first section, and has a predetermined time interval in the second section having the same time length. It may be the sensing data acquired for each.
  • the reference data 420 can be data obtained by smoothing a plurality of sensing data for the last three days on Wednesday. Further, for example, if the sensing data 400 is the sensing data acquired on the day when the user's schedule includes running, the reference data 420 is 3 days when the latest user's schedule includes running. It is possible to use data obtained by smoothing a plurality of sensing data of.
  • the reference data 420 is the first data on the past day set by the user (for example, the previous day, the latest past weekday, the latest past same day, the same month last year, etc.). It may be the sensing data acquired at a predetermined time interval of the second section having the same time and the same time length as the section. Further, in the present embodiment, the reference data 420 may be sensing data acquired from the wearable device 10 worn by another user, and is a model of the sensing data stored in advance in the storage unit 308 of the server 30. It may be (default data).
  • Step S105 The server 30 calculates the difference 402 by subtracting the reference data 420 selected in step S105 from the sensing data 400. At this time, the server 30 may perform normalization on the difference 402 and may perform other statistical processing.
  • Step S107 The server 30 converts the difference 402 into a difference time (time conversion) by multiplying the difference 402 calculated in step S105 by a predetermined coefficient.
  • the interpretation of the progress of the user time 412 with respect to the difference 402 (size relationship) of each sensing data 400 is as described above with reference to Table 1, for example.
  • Step S109 The server 30 integrates the plurality of difference times converted in time in step S107. Specifically, with a predetermined start time set by the user or the like as the start time, a plurality of difference times obtained up to a predetermined end time (for example, the present time) set by the user or the like are integrated to obtain an integrated time 406. To do.
  • Step S111 The server 30 calculates the user time 412 based on the accumulated time 406 accumulated in step S109. Specifically, the server 30 performs the synthesis by processing the integrated time 406 related to the plurality of different types of sensing data 400 based on a predetermined mathematical expression, and calculates the index (time difference) 408 related to the user. Furthermore, the server 30 calculates the user time 412 by adding the calculated user index 408 to the standard time 410.
  • Step S113 The server 30 presents to the user the accumulated time 406 obtained in step S109 as the index (time difference) 408 related to the user, or the index 408 related to the user, the user time 412, and the like obtained in step S111. To do. The details of the presentation method in this embodiment will be described later.
  • the difference between the standard time 410 and the user time 412 is reset when the user goes to bed, and the difference between the standard time 410 and the user time 412 is generated when the user wakes up and is active. You may assume that. When such an assumption is made, in the present embodiment, the time when the user wakes up is set as the start time. Note that when the user wakes up, it can be detected by the motion sensor unit 124 of the wearable device 10.
  • Example 2 it may be assumed that the difference between the standard time 410 and the user time 412 always occurs even if the user sleeps or takes an activity. If such an assumption is made, in the present embodiment, the activation of the wearable device 10 itself may be set as the start time, and the accumulation of the difference time may be continued while the wearable device 10 is activated.
  • a time designated by the user for example, 12:00 in standard time 410 may be set as the start time.
  • the start time and the end time, the reset timing of the integration time 406, and the like can be appropriately changed by the user.
  • the above-mentioned example is shown as an example of the setting of the present embodiment, that is, the present embodiment is not limited to these examples.
  • FIGS. 10 to 20 are explanatory diagrams for describing examples of the display screens 800a to 800h according to the embodiment of the present disclosure
  • FIGS. 18 to 20 are display screens 850a to 850c according to the embodiment of the present disclosure. It is an explanatory view for explaining an example.
  • the first presentation method is a mode in which the current user time 412 is presented according to the situation of the user on the day. Note that the first presentation method merely presents the user time 412 and the like to the user, and does not suggest the action or the like that the user should take on the day. That is, in the first presentation method, it is expected that the user will voluntarily take a suitable action by referring to the user time 412 or the like.
  • the user time 412 is presented to the user by the display screen 800a displayed on the display unit 104a of the bracelet (wristband) type wearable device 10a.
  • the display screen 800a includes, for example, a user time display 802 indicating the user time 412, and an integrated time graphic display 804 indicating the integrated time 406 calculated as an index (time difference) 408 related to the user by the length of a bar graph.
  • an integrated time display 806 showing the integrated time 406.
  • the integrated time graphic display 804 and the integrated time display 806 may show an integrated time composed of the integrated integrated time 406 as the index 408 relating to the user, or only one.
  • the integrated time graphic display 804 indicates that the user time 412 is later than the standard time 410 as it extends to the left in the figure, and the user time 412 is advanced from the standard time 410 as it extends to the right in the figure. Indicates that. By looking at such a display screen 800a, for example, the user time 412 is 25 minutes later than the standard time 410, and therefore, "Today, I am able to spend a relaxing time from the morning. , And increase the processing speed of business.
  • the user time 412 may be presented to the user by the display screen 800b displayed on the display unit 104a.
  • the display screen 800b can include, for example, a user time display 802, a standard time display 808 indicating the standard time 410, and an integrated time graphic display 804.
  • the display screen 800b may include a trend display 812 having an arrow shape.
  • the tendency display 812 indicates the progress of the user time 412 with respect to the standard time 410 in the latest predetermined time (for example, the last 10 minutes). Specifically, for example, when the trend display 812 is tilted to the left in the figure, it indicates that the user time 412 is advanced with respect to the standard time 410 at the latest predetermined time, and is displayed to the right in the figure. When it is tilted, it means that the user time 412 is advancing faster than the standard time 410 at the latest predetermined time.
  • the user by displaying the user time display 802, the integrated time graphic display 804, the integrated time display 806, and the standard time display 808 in various combinations, the user can be displayed.
  • Information may be presented on the display screen 800, and the form of the display screen 800 is not particularly limited.
  • the button 102a by the user, the display of the user time 412 and the standard time 410 may be switched, or the display of the integrated time 406 and the standard time 410 may be switched. .
  • the type of sensing data used when calculating the user time 412 and the like may be presented to the user.
  • the type of sensing data used when calculating the user time 412 or the like may be presented by the type display 810 included in the display screen 800f displayed on the display unit 104a.
  • the display screen 800f can include, for example, a user time display 802, a standard time display 808 indicating the standard time 410, and a type display 810.
  • the type display 810 displays various alphabets (for example, T: body temperature, P: pulse rate, A: acceleration, F: step number) to display the user time 412 and the like.
  • the type of data is presented to the user.
  • since “T, P, A, F” is displayed it is presented that the user time 412 is calculated using the sensing data 400 of body temperature, pulse rate, acceleration, and step count. There is.
  • the second presentation method is a mode in which the progress (transition) of the user time 412 in a predetermined past period (for example, one day, several days, week, month, year) is presented.
  • a predetermined past period for example, one day, several days, week, month, year
  • the second presentation method instead of presenting the user time 412 at one point at the current time as in the first presentation method, by presenting the progress of the user time 412 in a wide period, the user is more diversified.
  • Provide information for considering the activities of it is expected that by providing such diversified information, the behavior of the user in the future and the quality of the behavior itself will be changed.
  • the server 30 first expands the period of time for which the progress of the user time 412 is to be calculated, and then uses the reference data 420 and the like used for the calculation in order to perform a suitable comparison. It is preferable to change to data different from the presentation method of.
  • the progress of the user time 412 of the day is presented to the user by the display screen 850a displayed on the display unit 700 of the user terminal 70 including a smartphone.
  • the display screen 850a includes, for example, a standard time display 808 indicating the current standard time 410 and a progress display 852 indicating the progress of the user time 412.
  • the progress display 852 includes, for example, nine hours from 7:00 to 11:00 of the current day, and includes nine bands 860 corresponding to the respective times. Further, the progress display 852 displays the progress of the user time 412 at each time with the color or pattern of the corresponding band 860.
  • the band 860 when the band 860 is shown in a bright color, it indicates that the user time 412 is slow to progress with respect to the standard time 410 at that time, and when the band 860 is shown in a dark color, the standard time is shown. This indicates that the user time 412 progresses faster than 410.
  • the progress of the user time 412 of one month can be presented to the user by the display screen 850b displayed on the display unit 700.
  • the display screen 850b is, for example, a standard time display 808 indicating the current standard time 410, a progress display 852a indicating the progress of the user time 412, and an index of the tendency of the progress of the user time 412 of one month.
  • an index display 854 that indicates.
  • the progress display 852a for example, divides the most recent month into four hours (weeks) and includes four bands 860 corresponding to each week. Further, the progress display 852a displays the progress of the user time 412 in each week by the color or pattern of the corresponding band 860. Further, the index display 854 displays an index obtained by subtracting the number of fast weeks from the number of weeks of slow progress at the user time 412 as an index showing the tendency of the progress of user time 412 in the most recent month. .
  • the progress of the user time 412 for one year can be presented to the user by the display screen 850c displayed on the display unit 700.
  • the display screen 850c includes, for example, a standard time display 808 showing the current standard time 410, a progress display 852a showing the progress of the user time 412, and an index of the tendency of the progress of the user time 412 of one year.
  • the progress display 852b for example, divides the most recent year into twelve hours (months) and includes twelve bands 860 corresponding to each month. Further, the progress display 852b displays the progress of the user time 412 in each month by the color or pattern of the corresponding band 860. Further, the index display 854a displays an index obtained by subtracting the number of fast months from the number of months having a slow progress at the user time 412 as indicating the tendency of the progress of the user time 412 in the most recent year.
  • FIGS. 10 to 20 are examples of the display screens 800 and 850 of the present embodiment, that is, the display screens 800 and 850 of the present embodiment are shown in FIGS. It is not limited to the example shown in.
  • FIG. 21 is an explanatory diagram for describing an example of the display timing according to the present embodiment. As shown in FIG. 21, in this embodiment, various forms can be selected as the timing of presentation (display) of the user time 412 or the like.
  • the user time 412 and the like are always displayed, and the display is updated at the timing when the calculation processing of the user time 412 is performed. Good.
  • the user time 412 or the like is displayed for a predetermined time (for example, one minute). May be.
  • the user time 412 or the like is automatically calculated at every time (for example, 15 minutes) set by the user, and then the predetermined time is calculated.
  • the user time 412 or the like may be displayed only during the time (for example, one minute).
  • the user time 412 and the like are automatically calculated.
  • the action of the user's viewing can be detected by, for example, detecting the tapping action of the user on the display unit 104a, or by detecting the acceleration of the arm of the user.
  • the display unit 104a may display the user time 412 or the like for a predetermined time (for example, one minute).
  • the user time 412 may be displayed only when a change equal to or more than the threshold value is detected.
  • the timing of presenting the user time 412 and the like can be set in various forms, the information such as the user time 412 and the like is presented while the information such as the user time 412 is presented in response to the user's request. It is possible to suppress an increase in power consumption due to the presentation.
  • the example shown in FIG. 21 is shown as an example of the presentation timing of the present embodiment, that is, the presentation timing according to the present embodiment is not limited to the example shown in FIG.
  • FIGS. 22 and 23 are explanatory diagrams for explaining an example of the transition of the calculation mode according to the present embodiment
  • FIG. 23 is a flowchart showing an example of the information processing method in the automatic mode according to the present embodiment.
  • the timing of acquiring the sensing data 400 according to the power consumption of the wearable device 10 or the like, or according to the type of the sensing data 400 to be acquired, the timing of acquiring the sensing data 400, the calculation of the index 408 and the user time 412 related to the user. It is possible to appropriately select and change the timing and the like.
  • the calculation mode can be appropriately changed according to the user setting, the power consumption of the wearable device 10, and the like.
  • five calculation modes as shown in Table 2 below can be set.
  • Table 2 is shown as an example of the calculation mode of the present embodiment, that is, the calculation mode according to the present embodiment and the setting conditions in each calculation mode are limited to the example shown in Table 2. Not something.
  • the calculation mode when the predetermined condition is satisfied, the calculation mode may be changed as shown in FIG.
  • the transition to the low consumption mode can suppress an increase in the power consumed when acquiring the sensing data regarding the pulse wave, and as a result, the wearable device 10 can be activated for a long period of time.
  • the accuracy of the calculated user time 412 can be improved by changing the calculation mode to the high-frequency mode according to the change.
  • the conditions A to D in FIG. 21 are as follows, for example.
  • FIG. 21 is shown as an example of the transition of the calculation mode of the present embodiment, that is, the transition of the calculation mode and the transition condition according to the present embodiment are the same as those of FIG. It is not limited.
  • the acquisition timing of each sensing data 400 is such that the difference (difference ratio) between the previously acquired sensing data 400 and the currently acquired sensing data 400 is out of the predetermined range. It may be changed only in some cases. Specifically, for example, only the sensing data 400 having a large change width is set to have a small acquisition interval, and the sensing data 400 having a small change width is maintained at the acquisition interval thus far. In this way, in the automatic mode, the accuracy of the calculated user time 412 can be improved while suppressing an increase in power consumption.
  • the automatic mode according to the present embodiment includes a plurality of steps from step S201 to step S207.
  • the details of each step included in the automatic mode according to the present embodiment will be described below.
  • Step S201 The server 30 sets the acquisition timing (time interval) of each sensing data 400.
  • Step S203 The server 30 acquires the sensing data 400 based on the setting in step S201 (nth acquisition).
  • Step S205 The server 30 compares the sensing data 400 acquired in the (n-1) th time with the sensing data 400 acquired in step S203, and determines whether the difference between them is within a predetermined range.
  • the server 30 proceeds to step S207 if it is within the predetermined range, and returns to step S201 if it is outside the predetermined range. Then, in the returned step S201, the server 30 sets based on a predetermined rule such as setting a short time interval related to the timing of acquisition of the corresponding sensing data 400.
  • Step S207 The server 30 first acquires each sensing data 400 based on the acquisition timing set in step S201 (n + 1th acquisition).
  • the processing as described above can improve the accuracy of the calculated user time 412 while suppressing an increase in power consumption.
  • the reference data 420 is preferably selected based on the following processing in order to calculate the user time 412 with higher accuracy. Specifically, in the following process, the reference data 420 is changed when the calculated user time 412 is significantly different from the previously calculated user time 412. By doing so, more suitable reference data 420 can be selected in order to calculate the user time 412 and the like with high accuracy.
  • FIG. 24 is a flowchart showing an example of processing for selecting the reference data 420 according to this embodiment.
  • the processing for selection according to the present embodiment includes a plurality of steps from step S301 to step S307. The details of each step will be described below.
  • Step S301 The server 30 selects the reference data 420 according to the attribute of the user and the setting of the user.
  • Step S303 The server 30 calculates the user time 412 based on the selection in step S301.
  • Step S305 The server 30 compares the user time 412 calculated last time with the user time 412 calculated in step S303, and determines whether the difference is within a predetermined range. The server 30 proceeds to step S307 if it is within the predetermined range, and returns to step S301 if it is outside the predetermined range. Then, the server 30 selects the reference data 420 used for comparison with the sensing data 400 in the returned step S301 based on a predetermined rule.
  • the server 30 selects the sensing data 400.
  • the sensing data obtained by smoothing the plurality of sensing data in the last 5 days of the acquisition of is newly selected.
  • Step S307 The server 30 presents the user time 412 calculated in step S303 to the user.
  • FIG. 25 is an explanatory diagram for explaining an example of the display screen 850d according to the present embodiment.
  • the user time 412 when the user time 412 is presented to the user, it may be displayed to the user on the display screen 850d as shown in FIG. 25 in order to obtain the evaluation of the user time 412 of the user.
  • the display screen 850d displayed on the display unit 700 of the user terminal 70 including a smartphone includes a user time display 802 indicating the user time 412 and a standard time display 808 indicating the current standard time 410.
  • the display screen 850d includes a window 870 for inquiring the user about the evaluation and a window 872 used when the user answers.
  • the window 870 is a window for asking the user about the user time 412 displayed to the user, for example, asking, "What time do you feel?"
  • the window 872 is a window in which the user can input an evaluation by performing an operation of selecting each window.
  • the user may select, for example, “12:00 to (after 12:00)”, “around 11:40”, and “to 11:20 (before 11:20) shown in each window 872 as options.
  • the evaluation for the user time 412 can be input.
  • the user's evaluation input may be a voice input, and instead of the user time 412, the user's evaluation of the index 408 or the like may be acquired.
  • the server 30 can make the user time 412 closer to the user's actual feeling by changing the above-mentioned coefficients a to e (weighting), for example.
  • the server 30 may machine-learn the evaluation tendency according to each attribute by associating the evaluation tendency of each user thus obtained with the attribute information of each user. Then, the server 30 may use the tendency obtained by machine learning when calculating the user time 412 of another user (for example, setting the values of the coefficients a to e).
  • the tap operation can be detected by the acceleration sensor 120c of the motion sensor unit 124. Further, in the present embodiment, by storing the user time 412 by the user's operation, the stored user time 412 can be used for future calculation of the user time 412 and verification of the calculation result.
  • Table 3 is an example of the usage example of the user interface of the present embodiment, and the usage example of the user interface according to the present embodiment is not limited to Table 3.
  • Example 1 For example, an example will be described in which the user time 412 is 11:00 pm although the standard time 410 is 9:00 pm. The user who is provided with such a user time 412 realizes that he / she may be tired because he / she is busy, and normally, although he / she sleeps at 11:00 pm in standard time 410, the standard time 410 Will take action for going to bed at a time earlier than 11:00 pm.
  • the user time 412 provided allows the user to check the advance / delay of his / her user time 412 before going to bed. Therefore, the user can sleep at a suitable timing. Can evoke action for.
  • Example 2 The embodiment of the present disclosure can also be used when inviting a user to perform an action for maintaining a suitable sleep time.
  • the sensing data 400 obtained by the pulse wave sensor 120b or the like indicates that the user sleeps for a longer time or has a deeper sleep depth with respect to the reference value, It is assumed that the time progress of the user time 412 is slower than the time progress of the standard time 410.
  • the user time 412 is 6:00 am even though it is 8:00 am at standard time 410 will be described.
  • the user who is provided with such a user time 412 realizes that he / she may not be getting enough sleep and normally sleeps at 8:00 am in standard time 410 even though he / she sleeps at 8:00 am in standard time 410. Sleep will be further continued until a time later than 8:00 am.
  • the user time 412 provided allows the user to confirm the advance / delay of his / her user time 412 before getting up, so that the user can maintain a suitable sleep time.
  • the action to do can be invoked.
  • the user can easily grasp the pace (progress) of the user's own time due to the past activity of the user.
  • the behavior change of the user is evoked, and if the behavior according to the user time 412 can be appropriately performed, the health of the user can be maintained.
  • the user time 412 by providing the user time 412, it is possible to easily grasp the difference between the current state and the current state from the preferable state, and thus the behavior change of the user can be evoked.
  • the user time 412 is presented at the time and time that are commonly recognizable indexes, so that the user or another user can easily understand the physical condition of the user. . Furthermore, by using the user time 412, it becomes easy to grasp the tendency of the states of a plurality of users (crowd).
  • the wearable device 10 may be made to function as the server 30 so that the wearable device 10 is a stand-alone device.
  • FIG. 26 is an explanatory diagram showing an example of the hardware configuration of the information processing apparatus 900 according to this embodiment. Note that, in FIG. 26, the information processing apparatus 900 illustrates an example of the hardware configuration of the server 30 described above.
  • the information processing apparatus 900 has, for example, a CPU 950, a ROM 952, a RAM 954, a recording medium 956, an input / output interface 958, and an operation input device 960. Further, the information processing device 900 includes a display device 962, a communication interface 968, and a sensor 980. In addition, the information processing apparatus 900 connects the respective constituent elements by a bus 970 as a data transmission path, for example.
  • the CPU 950 is formed of, for example, one or more processors configured of an arithmetic circuit such as a CPU (Central Processing Unit) and various processing circuits, and controls the entire information processing apparatus 900. It can function as 310.
  • arithmetic circuit such as a CPU (Central Processing Unit) and various processing circuits, and controls the entire information processing apparatus 900. It can function as 310.
  • CPU Central Processing Unit
  • the ROM 952 stores programs used by the CPU 950, control data such as calculation parameters, and the like.
  • the RAM 954 functions as the storage unit 308 described above, and temporarily stores, for example, a program executed by the CPU 950.
  • the recording medium 956 functions as the above-described storage unit 350, and stores, for example, data related to the information processing method according to the present embodiment and various data such as various applications.
  • examples of the recording medium 956 include a magnetic recording medium such as a hard disk and a non-volatile memory such as a flash memory.
  • the recording medium 956 may be removable from the information processing device 900.
  • the input / output interface 958 connects, for example, the operation input device 960 and the display device 962.
  • Examples of the input / output interface 958 include a USB (Universal Serial Bus) terminal, a DVI (Digital Visual Interface) terminal, an HDMI (High-Definition Multimedia Interface) (registered trademark) terminal, and various processing circuits.
  • the operation input device 960 is provided in the information processing apparatus 900, for example, and is connected to the input / output interface 958 inside the information processing apparatus 900.
  • the operation input device 960 may be, for example, a button, a direction key, a rotary selector such as a jog dial, a touch panel, or a combination thereof.
  • the display device 962 is provided on the information processing apparatus 900, for example, and is connected to the input / output interface 958 inside the information processing apparatus 900.
  • Examples of the display device 962 include a liquid crystal display and an organic EL display (Organic Electro-Luminescence Display).
  • the input / output interface 958 can be connected to an external device such as an operation input device (for example, keyboard or mouse) external to the information processing apparatus 900 or an external display device.
  • an operation input device for example, keyboard or mouse
  • the communication interface 968 is a communication unit included in the information processing apparatus 900, and for performing wireless or wired communication with an external device such as the wearable device 10 or the user terminal 70 via the network 90 (or directly). Function as the communication unit 306.
  • the communication interface 968 for example, a communication antenna and an RF (Radio Frequency) circuit (wireless communication), an IEEE802.15.1 port and a transceiver circuit (wireless communication), an IEEE802.11 port and a transceiver circuit (wireless communication). ), Or a LAN (Local Area Network) terminal and a transmission / reception circuit (wired communication).
  • the hardware configuration of the information processing device 900 is not limited to the configuration shown in FIG.
  • each of the above components may be configured by using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.
  • the information processing apparatus 900 does not include the communication interface 968 when communicating with an external device or the like via a connected external communication device, or when configured to perform stand-alone processing.
  • the communication interface 968 may have a configuration capable of communicating with one or more external devices by a plurality of communication methods.
  • the information processing apparatus 900 can also be configured without the recording medium 956, the operation input device 960, the display device 962, and the like, for example.
  • the information processing apparatus may be applied to a system including a plurality of devices, such as cloud computing, which is premised on connection to a network (or communication between the devices). . That is, the above-described information processing apparatus according to the present embodiment can also be realized, for example, as an information processing system that performs processing related to the information processing method according to the present embodiment by a plurality of devices.
  • the embodiment of the present disclosure described above may include, for example, a program for causing a computer to function as the information processing apparatus according to the present embodiment, and a non-transitory tangible medium in which the program is recorded.
  • the program may be distributed via a communication line (including wireless communication) such as the Internet.
  • each step in the processing of the embodiment of the present disclosure described above does not necessarily have to be processed in the order described.
  • the order of the steps may be appropriately changed and processed.
  • each step may be partially processed in parallel or individually instead of being processed in time series.
  • the processing method of each step does not necessarily have to be processed according to the described method, and may be processed by another method by another functional unit, for example.
  • the effects described in the present specification are merely explanatory or exemplifying ones, and are not limiting. That is, the technique according to the present disclosure may have other effects that are apparent to those skilled in the art from the description of the present specification, in addition to or instead of the above effects.
  • An information acquisition unit that acquires a change with time of biometric information from one or more biometric information sensors worn by a user; For each predetermined time interval, the difference between the temporal change of the first biological information in the first section and the temporal change of the second biological information in the second section at the same time as the first section is calculated. And a calculation unit that calculates the time difference from the standard time,
  • An information processing device comprising: (2) The information processing apparatus according to (1), further including a time calculation unit that calculates the time associated with the user by adding the calculated time difference to the standard time.
  • the information processing apparatus calculates the time difference by time-converting the difference and integrating a plurality of the time-converted differences.
  • the information acquisition unit acquires a change with time of the plurality of different types of biological information from different biological information sensors, The calculating unit is weighted based on the type of the biological information, based on the change over time of the plurality of different types of biological information, calculates the time difference, The information processing device according to any one of (1) to (3) above.
  • the calculation unit selects the change over time of the biometric information used when calculating the time difference based on the reliability of each of the biometric information, according to any one of (1) to (5) above.
  • Information processing equipment (7) The information processing apparatus according to any one of (1) to (6) above, wherein the calculation unit selects a change over time of the second biometric information according to an attribute of the user.
  • the change with time of the second biometric information is the plurality of the first biometric information acquired from the biometric information sensor worn by the user and having the same time length as the first biometric section in the past of the first biometric sensor. 2 is a change with time of the plurality of pieces of biometric information acquired in the section 2;
  • the information processing apparatus according to (7) above.
  • the change with time of the second biometric information is within a period of a predetermined number of days satisfying a predetermined condition in the immediate past of the first section, which is acquired from the biometric information sensor worn by the user.
  • a time change obtained by smoothing a time change of the plurality of biological information acquired in the plurality of second sections having the same time length as the first section.
  • the information processing apparatus according to (8) above.
  • the calculation unit selects, as the predetermined condition, a change with time of the second biometric information having the second section having the same day as the day of the first section.
  • the change with time of the second biometric information has the same time length as that of the first section in the past of the first section acquired from the biometric information sensor worn by a user other than the user. It is a change over time of the plurality of biological information acquired in the plurality of second sections that have, The information processing apparatus according to (7) above.
  • the change with time of the biological information is Directly worn on a part of the user's body, a pulsation sensor for detecting heartbeat or pulse, a temperature sensor for detecting skin temperature, a perspiration sensor for detecting perspiration, a blood pressure sensor for detecting blood pressure, and an electroencephalogram are detected.
  • EEG sensor respiration sensor for detecting respiration
  • myoelectric potential sensor for detecting myoelectric potential
  • blood oxygen concentration sensor for detecting blood oxygen concentration
  • the information processing apparatus according to any one of (1) to (11) above.
  • the motion sensor includes at least one of an acceleration sensor, a gyro sensor, and a geomagnetic sensor attached to the user.
  • the information processing apparatus according to (2) further including a presentation unit that presents the calculated time difference to the user.
  • the presentation unit displays the calculated time associated with the user to the user.
  • An information processing method including: (19) On the computer, A function of acquiring a change with time of biometric information from one or more biometric sensors attached to a user, For each predetermined time interval, the difference between the temporal change of the first biological information in the first section and the temporal change of the second biological information in the second section at the same time as the first section is calculated. And the function to calculate the time difference from the standard time, A program that runs

Abstract

個人の時の流れの感じ方に応じた当該個人のための時刻を提供することができる情報処理装置、情報処理方法及びプログラムを提供する。ユーザに装着された、1つ又は複数の生体情報センサから生体情報の経時変化を取得する情報取得部(320)と、所定の時間間隔ごとに、第1の区間における第1の生体情報の経時変化と、前記第1の区間と同時刻における、第2の区間における第2の生体情報の経時変化との差分を算出し、標準時刻との時間差を算出する算出部(332)とを備える、情報処理装置を提供する。

Description

情報処理装置、情報処理方法及びプログラム
 本開示は、情報処理装置、情報処理方法及びプログラムに関する。
 多くの人々は、原子等の特定のエネルギー準位間の遷移を発振器として用いることにより時間を刻む原子時計によって定められた原子時(Atomic Time)を基準とする時刻(例えば、標準時(標準時刻))を用いて、生活している。
特開2005-13385号公報
 しかしながら、人それぞれの状況に応じた時の流れのペース(進みぐあい)が存在する。言い換えると、人それぞれの状況に応じて、時の流れの感じ方が異なってくる。そして、このような感じ方の違いは、個人の属性(性別や年齢等)の他にも、当日の身体の運動量、負担量、身体状態、精神状態等、多くの要素によって変化する。
 そこで、本開示では、個人の時の流れの感じ方に応じた当該個人のための時刻を提供することができる情報処理装置、情報処理方法及びプログラムの一例について提案する。
 本開示によれば、ユーザに装着された、1つ又は複数の生体情報センサから生体情報の経時変化を取得する情報取得部と、所定の時間間隔ごとに、第1の区間における第1の生体情報の経時変化と、前記第1の区間と同時刻における、第2の区間における第2の生体情報の経時変化との差分を算出し、標準時刻との時間差を算出する算出部とを備える、情報処理装置が提供される。
 また、本開示によれば、ユーザに装着された、1つ又は複数の生体情報センサから生体情報の経時変化を取得することと、所定の時間間隔ごとに、第1の区間における第1の生体情報の経時変化と、前記第1の区間と同時刻における、第2の区間における第2の生体情報の経時変化との差分を算出し、標準時刻との時間差を算出することとを含む、情報処理方法が提供される。
 さらに、本開示によれば、コンピュータに、ユーザに装着された、1つ又は複数の生体情報センサから生体情報の経時変化を取得する機能と、所定の時間間隔ごとに、第1の区間における第1の生体情報の経時変化と、前記第1の区間と同時刻における、第2の区間における第2の生体情報の経時変化との差分を算出し、標準時刻との時間差を算出する機能とを実行させる、プログラムが提供される。
 以上説明したように本開示によれば、個人の時の流れの感じ方に応じた当該個人のための時刻を提供することができる。
 なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態の概念を説明するための説明図(その1)である。 本開示の実施形態におけるユーザ時刻412の算出の一例を説明するための説明図(その1)である。 本開示の実施形態におけるユーザ時刻412の算出の一例を説明するための説明図(その2)である。 本開示の実施形態の概念を説明するための説明図(その2)である。 本開示の実施形態に係る情報処理システム1の構成の一例を説明するための説明図である。 本開示の実施形態に係るウェアラブルデバイス10の構成の一例を示すブロック図である。 本開示の実施形態に係るウェアラブルデバイス10の外観の一例を説明するための説明図である。 本開示の実施形態に係るサーバ30の構成の一例を示すブロック図である。 本開示の実施形態に係る情報処理方法の一例を示すフローチャートである。 本開示の実施形態に係る表示画面800aの一例を説明するための説明図である。 本開示の実施形態に係る表示画面800bの一例を説明するための説明図である。 本開示の実施形態に係る表示画面800cの一例を説明するための説明図である。 本開示の実施形態に係る表示画面800dの一例を説明するための説明図である。 本開示の実施形態に係る表示画面800eの一例を説明するための説明図である。 本開示の実施形態に係る表示画面800fの一例を説明するための説明図である。 本開示の実施形態に係る表示画面800gの一例を説明するための説明図である。 本開示の実施形態に係る表示画面800hの一例を説明するための説明図である。 本開示の実施形態に係る表示画面850aの一例を説明するための説明図である。 本開示の実施形態に係る表示画面850bの一例を説明するための説明図である。 本開示の実施形態に係る表示画面850cの一例を説明するための説明図である。 本開示の実施形態に係る表示タイミングの一例を説明するための説明図である。 本開示の実施形態に係る算出モードの遷移の一例を説明するための説明図である。 本開示の実施形態に係る自動モードの情報処理方法の一例を示すフローチャートである。 本開示の実施形態に係る基準データ420の選択のための処理の一例を示すフローチャートである。 本開示の実施形態に係る表示画面850dの一例を説明するための説明図である。 本開示の一実施形態に係る情報処理装置900のハードウェア構成の一例を示したブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の実施形態を創作するに至るまでの背景
   1.1.背景
   1.2.概念
 2.本開示の実施形態
   2.1.本開示の実施形態に係る情報処理システム1の構成
   2.2.本開示の実施形態に係るウェアラブルデバイス10の構成
   2.3.本開示の実施形態に係るサーバ30の構成
   2.4.本開示の実施形態に係る情報処理方法
   2.5.本開示の実施形態に係る開始時刻の設定
   2.6.本開示の実施形態に係る提示方法
   2.7.本開示の実施形態に係る提示のタイミング
   2.8.本開示の実施形態に係る算出のタイミング
   2.9.本開示の実施形態に係る基準データ420の選択
   2.10.本開示の実施形態に係るユーザ評価のフィードバック処理
   2.11.本開示の実施形態に係るユーザインタフェースの使用例
 3.本開示の実施形態に係る実施例
   3.1.実施例1
   3.2.実施例2
 4.まとめ
 5.ハードウェア構成について
 6.補足
 なお、以下の説明においては、以下に説明する本開示の実施形態に係るウェアラブルデバイス10(図1 参照)が装着された利用者をユーザと呼ぶ。
 <<1.本開示の実施形態を創作するに至るまでの背景>>
 <1.1.背景>
 まずは、本開示の実施形態の詳細を説明する前に、本発明者が本開示の実施形態を創作するに至る背景について説明する。
 通常、「時間」とは、時の流れの2点間の長さのことをいい、「時刻」とは、時の流れにおける一瞬(一点)のことをいうと定義されている。先に説明したように、多くの人々は、原子時計によって定められた原子時を基準とする時刻(例えば、標準時(標準時刻)410(図1 参照))を用いて日々の生活を送っている。言い換えると、多くの人々の日々の生活は、標準時410によって支配されているともいえる。
 しかしながら、毎日の生活は、標準時410の時間の進み具合に従って定常的に進んでいるのではなく、個人の状況に応じて変化する時間の進み具合に従って、早くなったり、遅くなったりしているように感じられることがある。例えば、リラックスして過ごす時間が長い日は、「今日一日長かったなあ。」と感じることが多く、一方、忙しく過ごした日には、「もうこんな時間だ。今日一日はあっという間に過ぎてしまったなあ。」と感じることが多い。言い換えると、個人の状況に応じて、毎日、時間の進み具合の感じ方が変わってくる。
 そこで、本発明者は、上述のような日々の生活における実感を踏まえて、標準時410の代わりに、個人の時間の進み具合の感じ方に応じた個人のための時刻(以下の説明においては、「ユーザ時刻412(図1 参照)」と呼ぶ)を当該個人に提供した場合には、当該個人の生活にどのような影響を与えることができるか思考実験を行った。
 例えば、標準時410においては午後9時であるにもかかわらず、ユーザ時刻412が午後11時であった場合、すなわち、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも速い場合を検討する。上述のようなユーザ時刻412が提供された個人は、忙しく働いた一日だったことから、時間の進み具合が速くなったことを自覚する。そして、当該個人は、忙しく働いたことから自身が疲れていると認識し、通常は、標準時410における午後11時に就寝しているにもかかわらず、標準時410における午後11時よりも早い時刻において就寝のための行動を選択することとなる。すなわち、本発明者は、上述のようなユーザ時刻412を提供することにより、ユーザは標準時410からの支配から解放され、ひいては個人の行動変容を喚起することにつながると考えた。さらに、本発明者は、当該個人が、ユーザ時刻412に応じた行動を好適に起こすことができれば、当該個人の健康維持にもつなげることができると考えた。
 そこで、本発明者は、多くの人々に、標準時410から解放された時刻、すなわち、個人の時間の進み具合の感じ方に応じた当該個人のための時刻「ユーザ時刻412」を提供するために、ユーザ時刻412の算出方法について鋭意検討を重ねた。
 個人の時間の進み具合の感じ方に対して影響を与える要素(ファクタ)には、様々なものを挙げることができる。例えば、上述のような要素としては、個人の属性(性別、年齢等)、当日の身体の運動量や負担量、精神状態(リラックス状態)等を挙げることができる。そこで、本発明者は、上述の各要素のうち、当日の個人の身体の運動量や負担量に着目することで、個人の時間の進み具合の感じ方の変動を推定し、ユーザ時刻412の算出ができるのではないかと考えた。詳細には、本発明者は、上述の各要素のうち、個人の属性については、日々大きく変化する要素ではないことから、日々の個人の時間の進み具合の感じ方の変動への影響は少ないと考えた。一方、本発明者は、身体の運動量や負担量については、日々大きく変化する要素であることから、日々の個人の時間の進み具合の感じ方の変動への影響は大きいと考えたのである。
 より具体的には、本発明者は、本発明者自身の実体験から、当日の身体の運動量(負担量)が多い場合には、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも速くなると推定した。さらに、本発明者は、このような推定に基づき、当日の運動量等と所定の値を持つ基準値(基準値の詳細については後述する)との差分を、ユーザ時刻412の、標準時410に対する時間の進み具合の差の指標(すなわち、時間差)として取り扱うことを独自に着想した。そして、このような本発明者の独自の着想に基づき、ユーザ時刻412の、標準時410に対する時間の進み具合の差の指標である、当日の運動量と上記基準値との差分を用いることにより、標準時410からユーザ時刻412を算出することが可能となる。また、本発明者は、上述の運動量等については、個人の生体情報(例えば、脈拍数等)に基づいて推定するものとした。
 このような本発明者の独自の考えに基づき、以下に説明する本開示の実施形態は創作された。すなわち、本開示の実施形態によれば、個人の行動による要素(例えば、運動量や負担量)に基づいて、当該個人のための、当該個人自身が作りだした、当該個人のあるべき個人の時刻であるユーザ時刻412を提供することが可能となる。以下に、本発明者が創作した本開示の実施形態の概念を説明する。
 <1.2.概念>
 本開示の実施形態の概念を、図1から図4を参照して説明する。図1及び図4は、本開示の実施形態の概念を説明するための説明図である。図2は、本開示の実施形態におけるユーザ時刻の算出の一例を説明するための説明図であって、詳細には、個人(ユーザ)の歩数のセンシングデータ(経時変化)に基づいてユーザ時刻の算出を行う例を示している。図3は、本開示の実施形態におけるユーザ時刻の算出の一例を説明するための説明図であって、詳細には、ユーザの脈拍数のセンシングデータに基づいてユーザ時刻の算出を行う例を示している。
 図1に示されるように、本実施形態においては、例えば、個人(ユーザ)の運動量や負担量に対応する各種の生体情報として、体表面温度センサ120a、脈波センサ120b、加速度センサ120c、歩数センサ120dからのセンシングデータ(第1の生体情報の経時変化)400a、400b、400c、400dを取得する。本実施形態においては、これらの各生体情報センサ120a~120dから得られたセンシングデータ400a~400d(例えば、体温、脈波、加速度、歩数等の経時変化)は、ユーザの運動量や負担量と関連するものと仮定している。すなわち、本実施形態においては、上記センシングデータ400a~400dは、日々のユーザの時間の進み具合の感じ方の変動に影響を与える要素である運動量や負担量が反映されたデータであると仮定している。
 具体的には、本実施形態においては、運動量(負担量)が多い場合には、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも速くなるとの独自の推定に基づき、センシングデータ400の種別に応じて、基準値との差分(大小関係)を以下のように解釈する。
 例えば、ユーザの体温等といった体表面温度センサ120aによって得られたセンシングデータ400aが、基準値と比べて大きい場合には、ユーザの運動量(負担量)が多いとして、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも速くなると解釈する。例えば、脈拍数や心拍数等といった脈波センサ120b等によって得られたセンシングデータ400bが、基準値と比べて大きい場合には、ユーザの身体の負担量が多いとして、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも速くなると解釈する。また、例えば、加速度等といった加速度センサ120cによって得られたセンシングデータ400cが、基準値と比べて大きい場合には、運動量(負担量)が多いとして、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも速くなると解釈する。さらに、例えば、歩数等といった歩数センサ120dによって得られたセンシングデータ400dが、基準値と比べて大きい場合には、運動量(負担量)が多いとして、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも速くなると解釈する。
 さらに、本実施形態においては、脈波センサ120bや脳波センサ(図示省略)によって得られたセンシングデータ400が、基準値に対してユーザがよりリラックスしていることを示している場合には、負担量が少ないとして、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも遅くなると解釈してもよい。また、本実施形態においては、脈波センサ120b等によって得られたセンシングデータ400が、基準値に対してユーザが緊張していることを示している場合には、負担量が多いとして、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも速くなると解釈してもよい。さらに、本実施形態においては、脈波センサ120b等によって得られたセンシングデータ400が、基準値に対してユーザがより長時間睡眠していることや睡眠深度が深いことを示している場合には、負担量が減ったとして、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも遅くなると解釈してもよい。
 以下の表1に、本実施形態における、各種のセンシングデータ400における、ユーザ時刻412の時間の進み具合の解釈(仮定)の例を示す。なお、本実施形態においては、以下の表1に示されるような解釈に限定されるものではない。
Figure JPOXMLDOC01-appb-T000001
 さらに、本実施形態においては、図1に示すように、これらセンシングデータ400a~400d(詳細には、センシングデータ400と基準値との差分)に合成アルゴリズム600を適用することで、ユーザに係る指標408(図4 参照)を算出する。このユーザに係る指標408が、ユーザの時間の進み具合の感じ方を示す指標であり、詳細には、ユーザ時刻412が標準時410と比べてどの程度遅れているか、もしくは、進んでいるかを示す時間差に係る指標である。そして、本実施形態においては、図1に示すように、算出したユーザに係る指標408を、標準時410に足し合わせることによって、ユーザ時刻412を算出することができる。
 次に、本実施形態における、上述したユーザに係る指標408の算出、すなわち、上記合成アルゴリズム600の詳細について順次説明する。
 まずは、本実施形態においては、各センシングデータ400について、所定の時間間隔ごとに、第1の区間におけるセンシングデータ400と、上記第1の区間と同時刻における第2の区間における、センシングデータ400と同種のセンシングデータである基準データ(第2の生体情報の経時変化)420との差分402(又は、差分割合(%))を算出する。そして、本実施形態においては、算出した差分402に所定の係数を乗算することにより、差分402を差分時間に変換(時間換算)し、複数の差分時間を積算することにより、各センシングデータ400についての、差分の積算時間406(図4 参照)を算出する。さらに、本実施形態においては、複数のセンシングデータ400の積算時間406を所定の数式に基づいて処理を行うことによって合成を行い、ユーザに係る指標408としての時間差を算出する。
 本実施形態においては、例えば、図2に示すように、ユーザのセンシングデータ400として、第1の区間(図2の例では、標準時410により8:00~19:00として示されている区間)における所定の時間間隔(図2の例では、50分間)ごとにカウントされたユーザの歩数の経時変化を取得する。言い換えると、図2では、センシングデータ400は、離散的に取得された値の集合による経時変化の例として、ユーザの歩数の経時変化を取得する例が示されている。また、本実施形態においては、基準データ420(基準値)として、センシングデータ400が取得された日よりも過去の日であって、第1の区間と同一時刻(図2の例では、標準時410により8:00~19:00として示されている区間)であり、且つ、同一の時間長(図2の例では、標準時410により11時間となる)を持つユーザの歩数の経時変化を取得する。さらに、基準データ420として取得されるユーザの歩数の経時変化は、センシングデータ400と同様に、第2の区間における所定の時間間隔(図2の例では、50分間)ごとにカウントされたユーザの歩数の経時変化となっている。
 なお、図2に示す例では、当該基準データ420は、センシングデータ400が取得された日の直近の所定の日数の期間(例えば、1か月~3か月程度)における、上記第1の区間と同一時刻、且つ、同一の時間長を持つ、複数の第2の区間の所定の時間間隔ごとにカウントされたユーザの歩数の平滑化された値(平均値)の集合による経時変化であってもよい。もしくは、当該基準データ420は、ユーザが設定したリファレンスデータであってもよく、他のユーザの歩数の経時変化であってもよく、本実施形態においては、特に限定されるものではない。
 より詳細には、本実施形態においては、基準データ420は、センシングデータ400の種別や、どのような情報を得たいのか(例えば、現時点でのユーザ時刻412なのか、これまでのユーザ時刻412の推移をユーザに提示したいのか等)等に応じて、適宜選択することができる。さらに、本実施形態においては、センシングデータ400及び基準データ420は、センシングデータ400の種別や、どのような情報を得たいのか等に応じて、センシングデータ400や基準データ420に含まれる測定ノイズ等を除去する処理等が行われてもよい。
 そして、本実施形態においては、所定の時間間隔ごとに、センシングデータ400から基準データ420を差し引くことで、差分402として差分歩数を取得する。例えば、図2の例では、標準時410による8:00においては、センシングデータ400の「0歩」から基準データ420の「100歩」を差し引いて、差分歩数は「マイナス100歩」となる。なお、本実施形態においては、当該差分402は、例えば、差分の数値そのものであってもよく、所定の統計処理を施すことで差分割合に変換してもよい。
 次に、本実施形態においては、算出した差分402に所定の係数を乗算することにより差分時間に変換する。図2に示す例においては、差分402における100歩あたり10分に対応するように差分時間を算出する。なお、ここで、センシングデータ400が歩数の経時変化であることから、正の数の差分402は、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも速くなると解釈することとなる。従って、正の数の差分402は、正の数の差分時間に換算されることとなる。一方、センシングデータ400が歩数の経時変化であることから、負の数の差分402は、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも遅くなると解釈することとなる。従って、負の数の差分402は、負の数の差分時間に換算されることとなる(表1 参照)。より具体的には、図2の例においては、差分402がマイナス100歩である場合には、差分時間はマイナス10分に換算されることとなる。
 さらに、本実施形態においては、ユーザ等が設定した所定の開始時刻(例えば、標準時410によって示される時刻で設定される。図2の例においては、標準時410による「8:00」)を起算時として、ユーザ等が設定した所定の終了時刻(例えば、標準時410によって示される時刻で設定される。図2の例では、標準時410による「19:00」)までに得られた複数の差分時間を積算することにより、差分の積算時間406を取得する。例えば、図2の例においては、標準時19:00において、積算時間406は「プラス10分」となる。
 そして、本実施形態においては、このように得られた複数の異なる種別のセンシングデータ400の積算時間406を所定の数式に基づいて処理を行うことによって合成を行い、合成された積算時間406が、ユーザに係る指標(時間差)408として算出されることとなる。そして、本実施形態においては、ユーザに係る指標408としての上記合成された積算時間406を、標準時410に足し合わせることによって、ユーザ時刻412を算出することができる。
 なお、図2に示す例においては、他の種別のセンシングデータ400に係る積算時間406との合成を省略し、ユーザの歩数の経時変化であるセンシングデータ400に係る積算時間406のみに基づいて、ユーザ時刻412を直接的に算出した場合を示している。言い換えると、図2に示す例においては、ユーザの歩数の経時変化であるセンシングデータ400に係る積算時間406をユーザに係る指標408として扱っている。例えば、図2の例においては、標準時19:00において積算時間406は「プラス10分」となっていることから、直接的に足し合わせて、ユーザ時刻412として「19:10」を算出している。なお、上記合成の詳細については後述する。
 本実施形態においては、上述したように、1つのセンシングデータ400に基づいてユーザ時刻412を算出してもよいが、合成を行うことで、複数の異なる種別のセンシングデータ400に基づいてユーザ時刻412を算出することが好ましい。本実施形態においては、複数の異なる種別のセンシングデータ400を用いることにより、ユーザの実感により近い、精度の高いユーザ時刻412を得られる可能性が高まると考えられるためである。さらに、このようにすることで、1つ又は複数のセンシングデータ400の信頼性が低い場合(測定精度や測定状態の悪化等)であっても、残りの他の信頼性の高いセンシングデータ400に基づいてユーザ時刻412を算出することができることから、継続してユーザ時刻412を提供することができる。なお、以下の説明においては、精度の高いユーザ時刻412とは、ユーザの実感に近いユーザ時刻412や、ユーザの身体的状況(運動量、負荷量)等が忠実に反映されてユーザ時刻412が算出されていることを意味するものとする。
 また、他の具体例としては、図3に示すように、ユーザのセンシングデータ400として、第1の区間(図3の例では、標準時410により8:00~19:00として示されている区間)における所定の時間間隔ごとに得られたユーザの脈拍数の経時変化を取得する。言い換えると、図3では、センシングデータ400は、連続的にセンシングされた値の経時変化の例として、ユーザの脈拍数の経時変化を取得する例が示されている。さらに、本実施形態においては、例えば、基準データ420として、センシングデータ400が取得された日よりも過去の日であって、第1の区間と同一時刻(図3の例では、標準時410により8:00~19:00として示されている区間)であり、且つ、同一の時間長(図3の例では、標準時410により11時間となる)を持つ第2の区間における所定の時間間隔ごとに得られたユーザの脈拍数の経時変化を取得する。なお、図3の例においても、当該基準データ420は、センシングデータ400が取得された日の直近の所定の日数の期間(例えば、3日~5日程度)における、上記第1の区間と同一時刻、且つ、同一の時間長を持つ、複数の第2の区間の所定の時間間隔ごとに得られたユーザの脈拍数の平滑化された値(平均値)の経時変化であってもよく、特に限定されない。
 そして、本実施形態においては、所定の時間間隔(図3の例では、50分間)ごとに、センシングデータ400から基準データ420を差し引き、該当する時間の基準データ等で正規化することにより、差分402として差分脈拍数(%)を得ることができる。
 次に、本実施形態においては、算出した差分402に所定の係数を乗算することにより差分時間に変換する(時間換算する)。図3に示す例においては、差分402における10%あたり10分に対応するように差分時間を算出する。なお、ここで、センシングデータ400が脈拍数の経時変化であることから、正の数の差分402は、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも速くなると解釈することとなる。従って、正の数の差分402は、正の数の差分時間に換算されることとなる。一方、センシングデータ400が脈拍数の経時変化であることから、負の数の差分402は、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも遅くなると解釈することとなる。従って、負の数の差分402は、負の数の差分時間に換算されることとなる(表1 参照)。具体的には、図3の例においては、差分402がマイナス10%である場合には、差分時間はマイナス10分に換算されることとなる。
 さらに、本実施形態においては、ユーザ等が設定した所定の開始時刻(図3の例では、標準時410による「8:00」)を起算時として、ユーザ等が設定した所定の終了時刻(図3の例では、標準時410による「19:00」)までに得られた複数の差分時間を積算することにより、差分の積算時間406を取得する。具体的には、図3の例においては、標準時19:00において、積算時間406は「マイナス36分」となっている。
 そして、図3に示す例においては、他の種別のセンシングデータ400に係る積算時間406との合成を省略し、ユーザの脈拍数の経時変化であるセンシングデータ400に係る積算時間406のみに基づいて、ユーザ時刻412を直接的に算出した場合を示している。言い換えると、図3に示す例においては、ユーザの脈拍数の経時変化であるセンシングデータ400に係る積算時間406をユーザに係る指標408として扱っている。具体的には、図3の例においては、標準時19:00において積算時間406は「マイナス36分」となっていることから、直接的に足し合わせて、ユーザ時刻412として「18:24」を算出している。
 さらに、先に説明したように、本実施形態においては、上述のように得られた複数の異なる種別のセンシングデータ400に係る積算時間406を所定の数式に基づいて処理を行うことによって合成を行い、ユーザに係る指標408を算出することが好ましい。例えば、本実施形態においては、図4に示すように、各センシングデータ400の特性に基づいて予め定められた係数(重み付け)a~dを、各センシングデータに係る(由来する)積算時間406a~406d(図4の例では、各センシングデータに係る各積算時間406a~406dは、ΔTt、ΔTp、ΔTa、ΔTfとして示さされている。)に乗算する。さらに、本実施形態においては、乗算された各積算時間406a~406dを足し合わせることにより、足し合わされた積算時間406a~406dが、ユーザに係る指標(時間差)408(図4の例では、ユーザに係る指標408はΔTとして示されている。)として算出される。すなわち、下記の数式(1)を用いて、ユーザに係る指標408を算出することができる。
Figure JPOXMLDOC01-appb-M000002
 さらに、本実施形態においては、上述のように算出されたユーザに係る指標408に、予め定められた係数e(例えば、ユーザの属性の応じて定められる係数e)を乗算し、標準時410(図4の例では、標準時はTとして示されている。)に足し合わせることにより、ユーザ時刻412(図4の例では、ユーザ時刻412はTuとして示されている。)を算出することができる。すなわち、下記の数式(2)を用いて、ユーザ時刻412を算出することができる。
Figure JPOXMLDOC01-appb-M000003
 なお、本実施形態においては、例えば、上述の係数a~eは、以下のようにして設定することができる。係数a~eは、例えば、直近(例えば、前日)に得られた、ユーザのセンシングデータとの差分(変化量)や、直近(例えば、直前の3日~5日間)に得られた複数のセンシングデータを統計処理して得られた分散等の統計学的指標を用いて設定することができる。また、本実施形態においては、係数a~eは、他のユーザも含む複数のユーザのセンシングデータに基づいて算出された値であってもよい。さらに、本実施形態においては、ユーザの属性情報(年齢、性別等)、ユーザの周囲の環境情報(気温、季節等)に応じて設定されてもよい。そして、上述のように、各ユーザのためのユーザ時刻412を算出するために好適に設定された係数a~eは、各ユーザや、各ユーザの属性情報と紐づけられてサーバ30の記憶部308に格納され、利用されてもよい。
 本開示の実施形態は、以上の説明したような概念に基づいて、ユーザ時刻412を算出することができる。なお、図1から図4に示す例は、本実施形態の一例として示したものであり、本開示の実施形態は、これら図1から図4に示す例に限定されるものではない。次に、以上説明した概念を用いてユーザ時刻412を算出する、本開示の実施形態に係る情報処理システムについて説明する。
 <<2.本開示の実施形態>>
 <2.1.本開示の実施形態に係る情報処理システム1の構成>
 本開示の実施形態に係る情報処理システム1の構成について、図5を参照して説明する。図5は、本実施形態に係る情報処理システム1の構成の一例を説明するための説明図である。
 図5に示すように、本実施形態に係る情報処理システム1は、ウェアラブルデバイス(ウェアラブル端末)10、サーバ30及びユーザ端末70を含み、これらは互いにネットワーク90を介して通信可能に接続される。詳細には、ウェアラブルデバイス10、サーバ30及びユーザ端末70は、図示しない基地局等(例えば、携帯電話機の基地局、無線LAN(Local Area network)のアクセスポイント等)を介してネットワーク90に接続される。なお、ネットワーク90で用いられる通信方式は、有線又は無線(例えば、WiFi(登録商標)、Bluetooth(登録商標)等)を問わず任意の方式を適用することができるが、安定した動作を維持することができる通信方式を用いることが望ましい。
 (ウェアラブルデバイス10)
 ウェアラブルデバイス10は、ユーザの身体の一部(耳たぶ、首、腕、手首、足首等)に装着可能なデバイス、もしくは、ユーザの身体に挿入されたインプラントデバイス(インプラント端末)であることができる。より具体的には、ウェアラブルデバイス10は、HMD(Head Mounted Display)型、眼鏡型、イヤーデバイス型、アンクレット型、腕輪(リストバンド)型、首輪型、アイウェア型、パッド型、バッチ型、衣服型等の各種の方式のウェアラブルデバイスであることができる。
 さらに、ウェアラブルデバイス10は、例えば、ユーザの脈拍を検出する脈波センサ部122等のセンサ類を内蔵するセンサ部(生体情報センサ)120を有する(図6 参照)。本実施形態においては、このようなセンサ部120により取得されたセンシングデータ400に基づいて、上述したユーザ時刻412を算出することができる。また、本実施形態においては、ウェアラブルデバイス10の有するセンサ部120により取得されたセンシングデータに基づいて、ユーザの歩数、睡眠状態(睡眠深度、睡眠時間)等を推定し、推定結果をセンシングデータ400として用いてもよい。なお、本実施形態においては、上記センサ部120は、ウェアラブルデバイス10とは別体のものとして設けられていてもよい。また、以下の説明においては、ウェアラブルデバイス10は、腕輪(リストバンド)型ウェアラブルデバイスであるものとして説明する。さらに、ウェアラブルデバイス10の詳細構成については後述する。
 (サーバ30)
 サーバ30は、例えば、コンピュータ等により構成される。サーバ30は、例えば、本実施形態によってサービスを提供するサービス提供者が保有し、各ユーザに対してサービス(例えば、ユーザ時刻412の提供)を提供(提示)することができる。具体的には、サーバ30は、各ウェアラブルデバイス10からのセンシングデータ400に基づき、ユーザ時刻412を算出し、算出したユーザ時刻412をウェアラブルデバイス10又はユーザ端末70を介してユーザに提供する。なお、サーバ30の詳細構成については後述する。
 (ユーザ端末70)
 ユーザ端末70は、ユーザによって使用され、もしくは、ユーザの近傍に設置され、サーバ30により得られた情報(例えば、ユーザ時刻412)をユーザに向けて出力するための端末である。また、ユーザ端末70は、ユーザから入力された情報を受け付け、受け付けた当該情報をサーバ30へ送信してもよい。例えば、ユーザ端末70は、タブレット型PC(Personal Computer)、スマートフォン、携帯電話、ラップトップ型PC、ノート型PC等のモバイル端末、HMD等のウェアラブルデバイスであることができる。さらに詳細には、ユーザ端末70は、ユーザに向けて表示を行う表示部(図示省略)や、ユーザからの操作を受け付ける操作部(図示省略)や、ユーザに向けて音声出力を行うスピーカ(図示省略)等を有してもよい。
 なお、図1においては、本実施形態に係る情報処理システム1は、1つのウェアラブルデバイス10及びユーザ端末70を含むものとして示されているが、本実施形態においてはこれに限定されるものではない。例えば、本実施形態に係る情報処理システム1は、複数のウェアラブルデバイス10及びユーザ端末70を含んでもよい。さらに、本実施形態に係る情報処理システム1は、例えば、ウェアラブルデバイス10からサーバ30へ情報を送信する際の中継装置のような他の通信装置等を含んでもよい。また、本実施形態に係る情報処理システム1は、ウェアラブルデバイス10を含んでいなくてもよく、このような場合、例えば、ユーザ端末70がウェアラブルデバイス10のように機能し、ユーザ端末70で取得したセンシングデータがサーバ30に出力されることとなる。さらに、本実施形態に係る情報処理システム1は、ユーザ端末70を含んでいなくてもよく、このような場合、例えば、ウェアラブルデバイス10がユーザ端末70のように機能し、サーバ30から取得した情報がウェアラブルデバイス10に出力されることとなる。
 <2.2.本開示の実施形態に係るウェアラブルデバイス10の構成>
 以上、本開示の実施形態に係る情報処理システム1の構成について説明した。次に、本開示の実施形態に係るウェアラブルデバイス10の構成について、図6及び図7を参照して説明する。図6は、本実施形態に係るウェアラブルデバイス10の構成の一例を示すブロック図であり、図7は、本実施形態に係るウェアラブルデバイス10の外観の一例を説明するための説明図である。
 ウェアラブルデバイス10は、図6に示すように、入力部102と、出力部(提示部)104と、通信部106と、記憶部108と、主制御部110と、センサ部120とを主に有する。以下に、ウェアラブルデバイス10の各機能部の詳細について説明する。
 (入力部102)
 入力部102は、ウェアラブルデバイス10へのユーザからのデータ、コマンドの入力を受け付ける。より具体的には、当該入力部102は、タッチパネル、ボタン、スイッチ、ダイヤル、マイクロフォン等により実現される。また、本実施形態においては、ウェアラブルデバイス10は、直接的なユーザからの入力ではなく、後述するモーションセンサ部124によってユーザの動作を検出し、検出したユーザの動作に係るセンシングデータ400に基づいて入力情報を取得してもよい。
 (出力部104)
 出力部104は、ユーザに対して情報を提示するための機能部であり、例えば、ユーザに向けて、画像、音声、色、光、又は、振動等により各種の情報を出力する。より具体的には、出力部104は、後述するサーバ30から提供されるユーザ時刻412を画面表示することで、ユーザにユーザ時刻412やユーザに係る指標408等を提示することができる。当該出力部104は、ディスプレイ、スピーカ、イヤフォン、発光素子(例えば、Light Emitting Diode(LED))、振動モジュール等により実現される。なお、出力部104の機能の一部は、ユーザ端末70により提供されてもよい。
 (通信部106)
 通信部106は、ウェアラブルデバイス10内に設けられ、サーバ30等の外部装置との間で情報の送受信を行うことができる。言い換えると、通信部106は、データの送受信を行う機能を有する通信インタフェースと言える。当該通信部106は、例えば、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
 (記憶部108)
 記憶部108は、ウェアラブルデバイス10内に設けられ、後述する主制御部110が各種処理を実行するためのプログラム、情報等や、処理によって得た情報を格納する。当該記憶部108は、例えば、フラッシュメモリ(flash memory)等の不揮発性メモリ(nonvolatile memory)等により実現される。
 (主制御部110)
 主制御部110は、ウェアラブルデバイス10内に設けられ、ウェアラブルデバイス10の各機能部を制御することができる。例えば、主制御部110は、後述するセンサ部120からセンシングデータ400を取得し、送信可能な所定の形式に変換し、通信部106を介して、所定の形式のセンシングデータ400を後述するサーバ30へ送信する。さらに、主制御部110は、正確な時刻を把握する時計機構(図示省略)を内蔵し、当該時計機構から得た標準時410を、上述の出力部104を介して、ユーザに提示してもよい。当該主制御部110は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等のハードウェアにより実現される。なお、主制御部110の機能の一部は、後述するサーバ30により提供されてもよい。
 (センサ部120)
 センサ部120は、ユーザの身体に装着されたウェアラブルデバイス10に設けられ、対象ユーザの脈拍を検出する脈波センサ部(拍動センサ)122や、ユーザの身体の動きを検出するモーションセンサ部124等を含む。以下に、センサ部120の含まれる各種のセンサの詳細について説明する。
 ~脈波センサ部122~
 脈波センサ部122は、ユーザの脈拍等を検出するために、当該ユーザの皮膚等の身体の一部(例えば、両腕、手首、足首等)に装着され、ユーザの脈波を検出する生体センサである。ここで、脈波とは、心臓の筋肉が一定のリズムで収縮すること(拍動、なお、単位時間の心臓における拍動回数を心拍数と呼ぶ)により、動脈を通じ全身に血液が送られることにより、動脈内壁に圧力の変化が生じ、体表面等に現れる動脈の拍動による波形のことである。例えば、脈波センサ部122は、脈波を取得するために、手や腕、脚等のユーザの測定部位内の血管に光を照射し、当該ユーザの血管中を移動する物質や静止している生体組織で散乱された光を検出する。照射した光は血管中の赤血球により吸収されることから、光の吸収量は、測定部位内の血管に流れる血液量に比例する。従って、脈波センサ部122は、散乱された光の強度を検出することにより流れる血液量の変化を知ることができる。さらに、この血流量の変化から、拍動の波形(脈波)を検出し、所定の時間あたりの波形の変化から脈拍を検出することができる。なお、このような方法は、光電容積脈波(PhotoPlethysmoGraphy(PPG))法と呼ばれる。
 詳細には、脈波センサ部122は、例えば、コヒーレント光を照射することができる、小型レーザやLED(図示省略)等を内蔵し、例えば850nm前後のような所定の波長を持つ光を照射する。なお、本実施形態においては、脈波センサ部122が照射する光の波長は、適宜選択することが可能である。さらに、脈波センサ部122は、例えばフォトダイオード(Photo Detector(PD))を内蔵し、検出した光の強度を電気信号に変換することにより、脈波を取得する。なお、脈波センサ部122は、PDの代わりに、CCD(Charge Coupled Devices)型センサ、CMOS(Complementary Metal Oxide Semiconductor)型センサ等を内蔵してもよい。また、脈波センサ部122には、ユーザの測定部位からの光を検出するために、レンズやフィルタ等の光学系機構が含まれていてもよい。そして、脈波センサ部122により、複数のピークを有する経時変化としての脈波(センシングデータ400)を検出することができ、所定の時間当たりの脈波に現れる複数のピークをカウントすることにより、ユーザの脈拍数を検出することができる。
 さらに、本実施形態においては、このようにして得られた脈波に対して統計的に各種の処理を行うことにより(例えば、脈波におけるピークの間隔時間の経時変化を取得して、取得結果を解析する等)、ユーザの睡眠時間、睡眠深度、リラックスの度合い、緊張の度合い等を算出してもよい。
 また、本実施形態においては、上述のPPG法を利用して脈波を取得することに限定されるものではなく、他の方法によっても脈波を取得してもよい。例えば、本実施形態においては、脈波センサ部122は、レーザドップラー血流計測法を用いて脈波を検出してもよい。当該レーザドップラー血流計測法は、以下のような現象を利用して血流を測定する方法である。詳細には、レーザ光をユーザの測定部位に照射した際には、当該ユーザの血管内に存在する散乱物質(主に赤血球)が移動していることにより、ドップラーシフトを伴った散乱光が生じる。そして、当該ドップラーシフトを伴った散乱光が、ユーザの測定部位に存在する、移動しない組織による散乱光と干渉し、ビート状の強度変化が観測されることとなる。そこで、当該レーザドップラー血流計測法は、ビート信号の強度と周波数を解析することにより、脈波を検出することができる。
 なお、本実施形態においては、脈波センサ部122の代わりに、ユーザの身体に貼り付けられた電極(図示省略)を介して当該ユーザの心電図を検出するECG(Electrocardiogram)センサ部(図示省略)が設けられていてもよい。この場合、検出した心電図から、ユーザの心拍数を検出することができる。
 また、本実施形態においては、センサ部120は、脈波センサ部122の代わりに、もしくは、脈波センサ部122と共に、他の各種生体情報センサ(図示省略)を含んでいてもよい。例えば、当該各種生体情報センサは、対象ユーザの身体の一部に直接的又は間接的に装着され、当該対象ユーザの脳波、呼吸、筋電位、皮膚温度、発汗、血圧、血中酸素濃度等を測定する1つ又は複数のセンサを含むことができる。
 ~モーションセンサ部124~
 また、センサ部120は、ユーザの身体の動きを検出するためのモーションセンサ部124を含んでもよい。モーションセンサ部124は、例えば、ユーザの動作に伴って発生する加速度の変化を示すセンシングデータ400を取得することにより、当該ユーザの運動量や、ユーザの移動距離に基づきユーザの歩数等を検出する。具体的には、モーションセンサ部124は、加速度センサ、ジャイロセンサ、地磁気センサ等(図示省略)を含む。
 さらに、センサ部120は、モーションセンサ部124の代わりに、もしくは、モーションセンサ部124と共に、測位センサ(位置センサ)(図示省略)を含んでいてもよい。当該測位センサは、ウェアラブルデバイス10を装着したユーザの位置を検出するセンサであり、具体的には、GNSS(Global Navigation Satellite System)受信機等であることができる。この場合、測位センサは、GNSS衛星からの信号に基づいて、対象ユーザの現在地の緯度・経度を示すセンシングデータ400を生成することができる。また、本実施形態においては、例えば、RFID(Radio Frequency Identification)、Wi-Fiのアクセスポイント、無線基地局の情報等からユーザの相対的な位置関係を検出することが可能なため、このような通信装置を上記測位センサとして利用することも可能である。
 以上のように、本実施形態においては、センサ部120は各種の生体情報センサ等を含むことができる。さらに、センサ部120は、上述した主制御部110が有する時計機構(図示省略)と協働し、取得したセンシングデータ400に、当該センシングデータ400を取得した標準時410を紐づけてもよい。また、各種センサは、ウェアラブルデバイス10のセンサ部120内に設けられていなくてもよく、例えば、ウェアラブルデバイス10とは別体のものとして設けられていてもよい。
 さらに、先に説明したように、ウェアラブルデバイス10は、HMD型、イヤーデバイス型、アンクレット型、腕輪型、首輪型、アイウェア型、パッド型、バッチ型、衣服型等の各種の方式のウェアラブルデバイスを採用することができる。例えば、図7に示すウェアラブルデバイス10aは、腕輪(リストバンド)型ウェアラブルデバイスである。当該ウェアラブルデバイス10aは、本体部100と、本体部100の側面に設けられたユーザがウェアラブルデバイス10aを操作するためのボタン102a(例えば、ボタン102aは、1つに限定されるものではなく、複数設けられていてもよい)と、本体部100の表面に設けられた、例えば有機EL(Electro Luminescence)ディスプレイ等からなる表示部104aと有する。さらに、当該ウェアラブルデバイス10aは、ユーザの腕に本体部100を装着、固定するためのリストバンド150を有する。また、本体部100には、外部装置を接続するためのインタフェースとしてUSB(Universal Serial Bus)ポート(図示省略)や、Liイオン電池等の電池(図示省略)等が内蔵されてもよい。
 なお、図6及び図7に示すウェアラブルデバイス10は、本実施形態の一例であり、すなわち、本実施形態においては、ウェアラブルデバイス10は、図6及び図7に示す例に限定されるものではない。
 <2.3.本開示の実施形態に係るサーバ30の構成>
 以上、本開示の実施形態に係るウェアラブルデバイス10の構成について説明した。次に、本開示の実施形態に係るサーバ30の構成について、図8を参照して説明する。図8は、本実施形態に係るサーバ30の構成の一例を示すブロック図である。
 先に説明したように、サーバ30は、例えば、コンピュータ等により構成される。図8に示すように、サーバ30は、入力部302と、出力部304と、通信部306と、記憶部308と、主制御部310とを主に有する。以下に、サーバ30の各機能部の詳細について説明する。
 (入力部302)
 入力部302は、サーバ30へのデータ、コマンドの入力を受け付ける。より具体的には、当該入力部302は、例えば、タッチパネル、キーボード等により実現される。
 (出力部304)
 出力部304は、例えば、ディスプレイ、スピーカ、映像出力端子、音声出力端子等により構成され、画像又は音声等により各種の情報を出力する。
 (通信部306)
 通信部306は、サーバ30内に設けられ、ウェアラブルデバイス10やユーザ端末70等の外部装置との間で情報の送受信を行うことができる。当該通信部306は、例えば、通信アンテナ、送受信回路やポート等の通信デバイスにより実現される。
 (記憶部308)
 記憶部308は、サーバ30内に設けられ、後述する主制御部310が各種処理を実行するためのプログラム、情報等や、処理によって得た情報を格納する。当該記憶部308は、例えば、ハードディスク(Hard Disk(HD))等の磁気記録媒体や、フラッシュメモリ(flash memory)等の不揮発性メモリ(nonvolatile memory)等により実現される。
 (主制御部310)
 主制御部310は、サーバ30内に設けられ、サーバ30の各ブロックを制御したり、取得したセンシングデータ400に基づき、ユーザ時刻412を算出したりすることができる。当該主制御部310は、例えば、CPU、ROM、RAM等のハードウェアにより実現される。また、当該主制御部310は、センシングデータ取得部(情報取得部)320、評価取得部322、処理部330、及び出力制御部340として機能することもできる。以下に、本実施形態に係る主制御部310のこれら機能の詳細について説明する。なお、当該主制御部310は、ウェアラブルデバイス10の主制御部110の機能の一部を実行してもよく、もしくは、当該主制御部310の機能の一部は、ウェアラブルデバイス10の主制御部110によって実行されてもよい。
 ~センシングデータ取得部320~
 センシングデータ取得部320は、1つ又は複数のウェアラブルデバイス10から出力された1つ又は異なる種別の複数のセンシングデータ(経時変化)400を取得し、取得したセンシングデータ400を後述する処理部330へ出力する。さらに、センシングデータ取得部320は、センサ部120の消費電力の増加を抑えるように、もしくは、センシングデータ400の精度を向上させるために、ウェアラブルデバイス10のセンサ部120と協働して、センシングデータ400の取得のタイミング(時間間隔)を適宜変更してもよい。
 ~評価取得部322~
 評価取得部322は、ユーザによるユーザ時刻412やユーザに係る指標408等に対する評価等を取得し、取得した評価等を処理部330へ出力する。例えば、処理部330は、評価等を参照して、ユーザ時刻412の合成アルゴリズム600を変更し、算出するユーザ時刻412をユーザの実感により近い時刻に修正することができる。
 ~処理部330~
 処理部330は、上述したセンシングデータ取得部320から出力されたセンシングデータ400を処理し、ユーザに係る指標408や、ユーザ時刻412を算出する。詳細には、処理部330は、上述したこれら機能を実現するために、指標算出部(算出部)332及び時刻算出部334として機能する。以下に、本実施形態に係る処理部330のこれら機能の詳細について説明する。
 指標算出部332は、所定の時間間隔ごとに、第1の区間におけるセンシングデータ400と、上記第1の区間と同時刻における、第2の区間における基準データ420との差分402を算出する。さらに、指標算出部332は、算出した複数の差分402を時間換算し、これらを積算して、積算時間406を算出する。また、指標算出部332は、上記積算時間406に基づき、標準時410との時間差に係るユーザに係る指標408を算出する。詳細には、指標算出部332は、センシングデータ400の種別に応じて、各積算時間406に重み付け(例えば、所定の係数を乗算する)を行った上で、種別の異なる各積算時間406を足し合わせて、足し合わされた積算時間をユーザに係る指標(時間差)408として算出する。この際、指標算出部332は、各センシングデータ400の信頼性に基づいて、ユーザに係る指標408を算出する際に用いるセンシングデータ400を選択してもよい。さらに、指標算出部332は、上述した評価取得部322が取得した評価やユーザの属性情報やユーザのスケジュール等に基づいて、算出に用いる基準データ420を適宜変更してもよく、算出の際の重み付け(乗算する係数)を適宜変更してもよい。また、指標算出部332は、センサ部120の消費電力の増加を抑えるように、もしくは、センシングデータ400の精度を向上させるために、算出のタイミング(時間間隔)を適宜変更してもよい。
 時刻算出部334は、上記指標算出部332が算出したユーザに係る指標(時間差)408を標準時410に足し合わせることにより、ユーザ時刻412を算出する。
 ~出力制御部340~
 出力制御部340は、上述の処理部330によって得られた結果(例えば、ユーザに係る指標408やユーザ時刻412)を、上述の通信部306を制御して、ウェアラブルデバイス10やユーザ端末70に送信する。
 なお、図8に示すサーバ30は、本実施形態の一例であり、すなわち、本実施形態においては、サーバ30は、図8に示す例に限定されるものではない。
 <2.4.本開示の実施形態に係る情報処理方法>
 以上、本開示の実施形態に係る情報処理システム1及び当該情報処理システム1に含まれる各装置の詳細について説明した。次に、本実施形態に係る情報処理方法について、図9を参照して説明する。図9は、本実施形態に係る情報処理方法の一例を示すフローチャートである。
 図9に示すように、本実施形態に係る情報処理方法には、ステップS101からステップS113までの複数のステップが含まれている。以下に、本実施形態に係る情報処理方法に含まれる各ステップの詳細を説明する。
 まず、本実施形態に係る情報処理を開始する前に、ウェアラブルデバイス10、サーバ30又はユーザ端末70は、ユーザからの属性情報として、ユーザの年齢、性別、身長、体重、休日(ユーザの一週間のライフスタイルに関連する情報)、通勤、通学の時間帯(ユーザの平日のライフスタイルに関連する情報)、その他、ユーザの特定の周期性のある活動に関する情報等の入力を受け付ける。例えば、ユーザは、スマートフォン等であるユーザ端末70の表示部(図示省略)に表示された設問ウィンドウ(例えば、「あなたの性別は?1:男性、2:女性」)に対して回答することにより、自身の属性情報を入力することができる。なお、本実施形態においては、属性情報の入力は、初回の情報処理前に行うことに限定されるものではなく、継続して行われる情報処理の合間に行われてもよく、特に限定されるものではない。さらに、ウェアラブルデバイス10、サーバ30又はユーザ端末70は、ユーザからの入力やユーザの位置情報等を利用して、当日のユーザの周囲の気温等の情報を取得してもよい。そして、このようにして受け付けた属性情報等は、ユーザ時刻412を算出する際に行う重み付けや、基準データ420の選択等の際に参照されることとなる。また、本実施形態においては、属性情報とともに、ユーザの当日のスケジュール等の入力を受け付けてもよい。本実施形態においては、例えば、運動や飲酒等の行動は、ユーザの時間の進み具合の感じ方に影響を与える可能性が高いことから、ランニングを行う、トレッキングする、飲み会に参加する等のスケジュールの入力を受け付けることが好ましい。そして、本実施形態においては、受け付けたスケジュールの情報を、上記属性情報と同様に、ユーザ時刻412を算出する際に行う重み付けや、基準データ420の選択等の際に参照してもよい。さらに、本実施形態においては、サーバ30は、当該スケジュールの情報を、該当するセンシングデータ400や、ユーザに係る指標408及びユーザ時刻412の傾向に関する情報と紐づけて格納してもよい。このようにすることで、ユーザ時刻412等に反映される、ユーザの行動の内容によるユーザの身体等への影響を後日解析することが可能となる。
 (ステップS101)
 サーバ30は、ウェアラブルデバイス10から1つ又は複数の異なる種別のセンシングデータ400を取得する。
 なお、本実施形態においては、センシングデータ400の質を確保するために、以下のような処理を行うことが好ましい。詳細には、脈波等に由来するセンシングデータ400に関しては、センサ部120を含むウェアラブルデバイス10の装着状態やユーザの身体の運動の影響を受けて、測定状態が変化する。従って、脈拍数等のセンシングデータ400は、常に良い測定状態で取得されるとは限らないために、取得したセンシングデータ400に対して以下のような処理を行った上で、ユーザ時刻412を算出するためのセンシングデータ400として選択されることが好ましい。
 具体的には、本実施形態においては、例えば、脈波の波形の振幅に対して予め閾値を設定し、当該閾値よりの低い振幅を持つ波形部分や高い振幅を持つ波形部分を除去する処理を行った上で、ユーザ時刻412を算出するためのセンシングデータ400として使用する。また、例えば、脈波の波形が、時間的に周辺に存在するノイズの波形とかけ離れた波形を持っているかを判定し、ノイズ波形と類似する波形部分を除去する処理を行った上で、ユーザ時刻412を算出するためのセンシングデータ400として使用する。
 また、脈波は、定期的に類似する波形が検出される性質を持つことから、検出された脈波の波形が、直前に検出された脈波の波形から推定することができる時間枠に位置しているかどうかの判定を行う。さらに、当該時間枠にない場合には、当該時間枠内にダミーの脈波波形を配置し、次に検出される波形が存在するであろう時間枠を推定する。本実施形態においては、このような推定、判定を繰り返すことで、取得された脈波の信頼性を判定し、当該判定に基づいて、当該脈波を、ユーザ時刻412を算出するためのセンシングデータ400として選択するか否かを決定する。また、本実施形態においては、例えば、モーションセンサ部124によるセンシングデータ400を利用して、脈波の信頼性を判定してもよい。
 なお、本実施形態においては、信頼性の判定結果等により、脈拍数等のセンシングデータ400が、ユーザ時刻412を算出するためのセンシングデータ400として選択しない場合には、他の種別のセンシングデータ400のみを使用してユーザ時刻412を算出してもよい。もしくは、本実施形態においては、さらに他の種別のセンシングデータ400が取得又は選択しなかった場合には、一時的に標準時410をユーザ時刻412として用いてもよい。さらに、本実施形態においては、ユーザ時刻412をユーザに提示する際に、どのような種別のセンシングデータ400を使用してユーザ時刻412が算出されたのかをユーザに提示することが好ましい。
 また、本実施形態においては、加速度や歩数等の加速度に由来するセンシングデータ400に対しては、これらセンシングデータ400は信頼性が高いものと仮定し、上述のような処理を行わないようにしてもよい。
 (ステップS103)
 サーバ30は、センシングデータ400と比較する基準データ420を選択する。本実施形態においては、基準データ420は、ユーザに装着されたウェアラブルデバイス10から取得された、上記センシングデータと同種のセンシングデータあることができる。さらに、基準データ420は、センシングデータ400が取得された日よりも過去の日であり、第1の区間と同一時刻であり、且つ、同一の時間長を持つ第2の区間における所定の時間間隔ごとに取得されたセンシングデータであることができる。
 より具体的には、当該基準データ420は、センシングデータ400が取得された日の直近であって、所定の条件を満たした所定の日数の期間(例えば、直近の3日~5日間、直近の平日の3日~5日間、先週の7日間、直近1か月の同一曜日の4日間、ユーザのスケジュールが同一の直近1か月の4日間等)における、上記第1の区間と同一時刻、且つ、同一の時間長を持つ複数の第2の区間の、所定の時間間隔ごとに取得され、平滑化された値(平均値)による経時変化であってもよい。例えば、センシングデータ400が平日に取得されたものであれば、基準データ420としては、直近の平日の3日間の複数のセンシングデータを平滑化したデータを用いることができる。例えば、センシングデータ400が水曜日に取得されたものであれば、基準データ420としては、直近の水曜日の3日間の複数のセンシングデータを平滑化したデータを用いることができる。さらに、例えば、センシングデータ400が、ユーザのスケジュールにランニングが含まれている日に取得されたセンシングデータであれば、基準データ420としては、直近のユーザのスケジュールにランニングが含まれている3日間の複数のセンシングデータを平滑化したデータを用いることができる。
 もしくは、本実施形態においては、基準データ420は、ユーザが設定した過去の日(例えば、前日、直近の過去の平日、直近の過去の同一曜日、昨年の同月日等)における、上記第1の区間と同一時刻、且つ、同一の時間長を持つ第2の区間の所定の時間間隔ごとに取得されたセンシングデータであってもよい。また、本実施形態においては、基準データ420は、他のユーザに装着されたウェアラブルデバイス10から取得されたセンシングデータであってもよく、予めサーバ30の記憶部308に格納されたセンシングデータのモデル(デフォルトデータ)であってもよい。
 さらに、本実施形態においては、基準データ420は、ユーザの属性情報や、どのような情報を得たいのか等に応じて、適宜変更することができる。例えば、ユーザが男性であれば、基準データ420としては、男性のセンシングデータを用いることができる。また、例えば、昨年と本年との状態を比較することを所望する場合には、基準データ420としては、昨年の、センシングデータ400が取得された同一の月日におけるセンシングデータを用いることができる。
 (ステップS105)
 サーバ30は、センシングデータ400から上記ステップS105で選択した基準データ420を差し引くことで、差分402を算出する。この際、サーバ30は、差分402に対して正規化を行ってもよく、その他の統計的処理を行ってもよい。
 (ステップS107)
 サーバ30は、上記ステップS105で算出された差分402に対して所定の係数を乗算することにより、差分402を差分時間に変換する(時間換算する)。なお、各センシングデータ400の差分402(大小関係)に対する、ユーザ時刻412の時間の進み具合の解釈については、例えば、表1を参照して既に説明したとおりである。
 (ステップS109)
 サーバ30は、上記ステップS107で時間換算された複数の差分時間を積算する。詳細には、ユーザ等が設定した所定の開始時刻を起算時として、ユーザ等が設定した所定の終了時刻(例えば、現時点)までに得られた複数の差分時間を積算し、積算時間406を取得する。
 (ステップS111)
 サーバ30は、上記ステップS109で積算された積算時間406に基づき、ユーザ時刻412を算出する。詳細には、サーバ30は、複数の異なる種別のセンシングデータ400に係る積算時間406を所定の数式に基づいて処理を行うことによって合成を行い、ユーザに係る指標(時間差)408を算出する。さらに、サーバ30は、算出したユーザに係る指標408を、標準時410に足し合わせることによって、ユーザ時刻412を算出する。
 (ステップS113)
 サーバ30は、ユーザに係る指標(時間差)408として上記ステップS109で得られた積算時間406や、もしくは、上記ステップS111で得られた、ユーザに係る指標408や、ユーザ時刻412等をユーザに提示する。なお、本実施形態における提示方法の詳細については、後述する。
 以上のように、本実施形態によれば、ユーザの行動による運動量や負荷量に基づいて、当該ユーザのための、当該ユーザの時の流れの感じ方に応じたユーザ時刻412を提供することができる。さらに、本実施形態によれば、ユーザの運動量や負荷量を、日常的に親しんでいる時刻又は時間に置き換えて提示することから、直接的に運動量等が提示されている場合に比べて、ユーザは容易に自身の状態等を把握することができる。その結果、本実施形態によれば、上記把握に基づくユーザの行動変容を喚起することができる。
 <2.5.本開示の実施形態に係る開始時刻の設定>
 次に、差分時間の積算を行う範囲の設定、詳細には、積算を開始する開始時刻の設定の例について説明する。本実施形態においては、上記開始時刻については様々な時刻を設定することが可能である。
 (例1)
 例えば、本実施形態においては、ユーザが就寝することにより、標準時410とユーザ時刻412の差分がリセットされ、ユーザが起床して、活動することにより、標準時410とユーザ時刻412の差分が発生するものと仮定してもよい。このような仮定を行った場合、本実施形態においては、ユーザの起床時を開始時刻として設定する。なお、ユーザの起床時は、ウェアラブルデバイス10のモーションセンサ部124によって検出することが可能である。
 (例2)
 また、例えば、本実施形態においては、ユーザが、就寝や活動を行っても、常に標準時410とユーザ時刻412の差分が発生するものと仮定してもよい。このような仮定を行った場合、本実施形態においては、ウェアラブルデバイス10自体の起動を開始時刻として設定し、ウェアラブルデバイス10が起動している間、差分時間の積算を継続してもよい。
 (例3)
 また、本実施形態においては、ユーザが指定した時刻、例えば、標準時410における12:00等を開始時刻として設定することもできる。
 さらに、本実施形態においては、開始時刻及び終了時刻、積算時間406のリセットのタイミング等は、ユーザによって適宜変更することが可能である。なお、上述の例は、本実施形態の設定の一例として示したものであり、すなわち、本実施形態は、これらの例に限定されるものではない。
 <2.6.本開示の実施形態に係る提示方法>
 次に、本開示の実施形態に係る提示方法の詳細について、図10から図20を参照して説明する。図10から図17は、本開示の実施形態に係る表示画面800a~800hの一例を説明するための説明図であり、図18から図20は、本開示の実施形態に係る表示画面850a~850cの一例を説明するための説明図である。
 (第1の提示方法)
 第1の提示方法においては、当日のユーザの状況に応じて、現時点のユーザ時刻412を提示するモードである。なお、第1の提示方法においては、ユーザ時刻412等をユーザに対して提示するのみにとどまり、ユーザに対して当日のユーザがとるべき行動等を提案しないものとする。すなわち、第1の提示方法においては、ユーザがユーザ時刻412等を参照することにより、ユーザ自身が自発的に好適な行動をとることを期待している。
 本実施形態においては、例えば、図10に示すように、腕輪(リストバンド)型ウェアラブルデバイス10aの表示部104aに表示された表示画面800aによって、ユーザ時刻412をユーザに対して提示する。詳細には、当該表示画面800aは、例えば、ユーザ時刻412を示すユーザ時刻表示802と、ユーザに係る指標(時間差)408として算出された積算時間406を棒グラフの長さで示す積算時間図形表示804と、上記積算時間406を示す積算時間表示806とを含むことができる。なお、本実施形態においては、積算時間図形表示804及び積算時間表示806は、ユーザに係る指標408としての合成された積算時間406からなる積算時間を示すものであってもよく、もしくは、1つの種別のセンシングデータ400から得られた、合成されていない積算時間406を示すものであってもよい。上記積算時間図形表示804は、例えば、図中左に延びるほど、標準時410に対してユーザ時刻412が遅いことを示し、図中右に延びるほど、標準時410に対してユーザ時刻412が進んでいることを示す。ユーザは、このような表示画面800aを見ることにより、例えば、標準時410に対してユーザ時刻412が25分遅いことから、「今日は、午前中からゆったり時間を過ごせている。お昼までもう少し頑張れるなあ。」と考え、業務の処理速度を上げたりすることとなる。
 また、本実施形態においては、例えば、図11に示すように、表示部104aに表示された表示画面800bによって、ユーザ時刻412をユーザに対して提示してもよい。詳細には、当該表示画面800bは、例えば、ユーザ時刻表示802と、標準時410を示す標準時表示808と、積算時間図形表示804とを含むことができる。ユーザは、このような表示画面800bを見ることで、例えば、標準時410に対してユーザ時刻412が15分進んでいることから、「今日は、午前中から忙しかったなあ。今日は早めに昼食をとろう。」と考え、早めに昼食をとることとなる。
 なお、図11に示すように、表示画面800bは、矢印の形状を持つ傾向表示812を含んでいてもよい。当該傾向表示812は、直近の所定の時間(例えば、直近10分間)における標準時410に対するユーザ時刻412の進み具合を示す。具体的には、例えば、傾向表示812が図中左に傾いている場合には、直近の所定の時間において、標準時410に対してユーザ時刻412が遅く進んでいることを示し、図中右に傾いている場合には、直近の所定の時間において標準時410に対してユーザ時刻412が速く進んでいることを示す。
 本実施形態においては、図12から図14に示すように、ユーザ時刻表示802と、積算時間図形表示804と、積算時間表示806と、標準時表示808とを様々に組み合わせて表示することで、ユーザに情報を提示してもよく、表示画面800の形態は特に限定されるものではない。また、ユーザがボタン102a(図7 参照)を操作することで、例えば、ユーザ時刻412と標準時410との表示を切り替えてもよく、もしくは、積算時間406と標準時410との表示を切り替えてもよい。
 また、本実施形態においては、図15及び図16に示すように、ユーザ時刻412等を算出する際に用いたセンシングデータの種別をユーザに提示してもよい。例えば、図15に示すように、ユーザ時刻412等を算出する際に用いたセンシングデータの種別を、表示部104aに表示された表示画面800fに含まれる種別表示810によって提示してもよい。詳細には、当該表示画面800fは、例えば、ユーザ時刻表示802と、標準時410を示す標準時表示808と、種別表示810とを含むことができる。当該種別表示810は、各種のアルファベット(例えば、T:体温、P:脈拍数、A:加速度、F:歩数に対応する)を表示させることにより、ユーザ時刻412等を算出する際に用いたセンシングデータの種別をユーザに提示する。図15の例では、「T、P、A、F」と表示されていることから、体温、脈拍数、加速度、歩数のセンシングデータ400を用いてユーザ時刻412が算出されたことを提示している。
 また、図16の例では、「T、_、A、F」と表示されていることから、すなわち、「P」が表示されていないことから、脈拍数以外の、体温、加速度、歩数のセンシングデータ400を用いてユーザ時刻412が算出されたことを提示している。
 さらに、本実施形態においては、図17に示すように、表示部104aの色彩、明るさ又は模様を切り替えることにより、標準時410に対するユーザ時刻412の進み具合であるユーザに係る指標408を提示してもよい。例えば、表示部104aが明るい色彩である場合には、標準時410に対してユーザ時刻412が遅いことを示し、表示部104aが暗い色彩である場合には、標準時410に対してユーザ時刻412が進んでいることを示す。さらに、本実施形態においては、音声や振動パターン(例えば、振動のパターンの違い)等によって、標準時410に対するユーザ時刻412の進み具合を提示してもよい。
 (第2の提示方法)
 第2の提示方法においては、過去の所定の期間(例えば、1日、数日、週、月、年)におけるユーザ時刻412の進み具合(推移)を提示するモードである。第2の提示方法においては、第1の提示方法のように現時点の一点におけるユーザ時刻412を提示するのではなく、広い期間におけるユーザ時刻412の進み具合を提示することにより、より多角的にユーザの活動等を検討するための情報を提供する。そして、第2の提示方法においては、このような多角的な情報を提供することにより、今後のユーザが行う行動や行動の質自体が変容することを期待している。なお、第2の提示方法においては、サーバ30は、ユーザ時刻412の進み具合の算出の対象となる期間を拡大して、好適な比較を行うために、算出に用いる基準データ420等を第1の提示方法とは異なるデータに変更することが好ましい。
 例えば、本実施形態においては、図18に示すように、スマートフォンからなるユーザ端末70の表示部700に表示された表示画面850aによって、1日のユーザ時刻412の進み具合をユーザに対して提示することができる。詳細には、当該表示画面850aは、例えば、現在の標準時410を示す標準時表示808と、ユーザ時刻412の進み具合を示す進捗表示852とを含む。当該進捗表示852は、例えば、当日の7時から11時までを9つの時間に区切り、区切られた各時間に対応する9つの帯860を含む。さらに、当該進捗表示852は、各時間におけるユーザ時刻412の進み具合を該当する帯860の色彩や模様等で表示する。例えば、帯860を明るい色彩で示している場合には、当該時間において、標準時410に対してユーザ時刻412の進み具合が遅いことを示し、帯860を暗い色彩で示している場合には、標準時410に対してユーザ時刻412の進み具合が速いことを示している。
 また、本実施形態においては、図19に示すように、表示部700に表示された表示画面850bによって、1か月のユーザ時刻412の進み具合をユーザに対して提示することができる。詳細には、当該表示画面850bは、例えば、現在の標準時410を示す標準時表示808と、ユーザ時刻412の進み具合を示す進捗表示852aと、1か月のユーザ時刻412の進み具合の傾向の指標を示す指標表示854とを含む。当該進捗表示852aは、例えば、直近の1か月を4つの時間(週)に区切り、各週に対応する4つの帯860を含む。さらに、当該進捗表示852aは、各週におけるユーザ時刻412の進み具合を該当する帯860の色彩や模様等で表示する。さらに、指標表示854は、ユーザ時刻412の進み具合が遅い週の数から速い週の数を差し引いて得た指標を、直近1か月のユーザ時刻412の進み具合の傾向を示す指標として表示する。
 さらに、本実施形態においては、図20に示すように、表示部700に表示された表示画面850cによって、1年間のユーザ時刻412の進み具合をユーザに対して提示することができる。詳細には、当該表示画面850cは、例えば、現在の標準時410を示す標準時表示808と、ユーザ時刻412の進み具合を示す進捗表示852aと、1年のユーザ時刻412の進み具合の傾向の指標を示す指標表示854aとを含む。当該進捗表示852bは、例えば、直近の1年を12の時間(月)に区切り、各月に対応する12の帯860を含む。さらに、当該進捗表示852bは、各月におけるユーザ時刻412の進み具合を該当する帯860の色彩や模様等で表示する。さらに、指標表示854aは、ユーザ時刻412の進み具合が遅い月の数から速い月の数を差し引いて得た指標を、直近1年間のユーザ時刻412の進み具合の傾向を示すものとして表示する。
 このように、本実施形態においては、ユーザ時刻412等を、ユーザが直感的に把握できるような形態で提示することにより、ユーザがユーザ時刻412等を容易に把握することができる。さらに、本実施形態によれば、上記把握に基づくユーザの行動変容を喚起することができる。なお、図10から図20に示す例は、本実施形態の表示画面800、850の一例として示したものであり、すなわち、本実施形態に係る表示画面800、850は、これら図10から図20に示す例に限定されるものではない。
 <2.7.本開示の実施形態に係る提示のタイミング>
 次に、本実施形態に係るユーザ時刻412の提示のタイミングについて、図21を参照して説明する。図21は、本実施形態に係る表示タイミングの一例を説明するための説明図である。図21に示すように、本実施形態においては、ユーザ時刻412等の提示(表示)のタイミングは、様々な形態を選択することができる。
 本実施形態においては、例えば、図21の(a)に示すように、常にユーザ時刻412等の表示を継続しており、ユーザ時刻412の算出処理が行われたタイミングで上記表示を更新してもよい。
 また、本実施形態においては、例えば、図21の(b)に示すように、ユーザ時刻412の算出が行われた後、所定の時間(例えば、1分間)だけユーザ時刻412等の表示を行ってもよい。
 また、本実施形態においては、例えば、図21の(c)に示すように、ユーザが設定した時間毎(例えば、15分)毎に自動でユーザ時刻412等の算出を行い、その後に、所定の時間(例えば、1分間)だけユーザ時刻412等の表示を行ってもよい。
 例えば、図21の(d)に示すように、ユーザが腕輪型ウェアラブルデバイス10aの表示部104a(図4 参照)を見るという行為が検出された場合、自動でユーザ時刻412等の算出を行ってもよい。なお、本実施形態においては、ユーザの見る行為は、例えば、表示部104aに対するユーザのタップ動作を検出する、又は、ユーザの腕の加速度から検出する等によって、検出することができる。そして、算出した後に、表示部104aは、所定の時間(例えば、1分間)だけユーザ時刻412等の表示を行ってもよい。
 また、予め設定した所定の時間ごとにユーザ時刻412の算出を行い、得られたユーザ時刻412の進み具合が顕著に変化した場合(例えば、前回算出されたユーザ時刻412の進み具合と比べて所定の閾値以上の変化が検出された場合)にのみ、ユーザ時刻412を表示するようにしてもよい。
 以上のように、本実施形態においては、ユーザ時刻412等の提示のタイミングは、様々な形態に設定することができることから、ユーザの求めに応じてユーザ時刻412等の情報を提示しつつ、情報の提示による消費電力の増加を抑えることができる。なお、図21に示す例は、本実施形態の提示のタイミングの一例として示したものであり、すなわち、本実施形態に係る提示のタイミングは、図21に示す例に限定されるものではない。
 <2.8.本開示の実施形態に係る算出のタイミング>
 次に、本実施形態に係るユーザに係る指標408やユーザ時刻412等の算出のタイミングについて、図22及び図23を参照して説明する。図22は、本実施形態に係る算出モードの遷移の一例を説明するための説明図であり、図23は、本示の実施形態に係る自動モードの情報処理方法の一例を示すフローチャートである。
 本実施形態においては、ウェアラブルデバイス10の消費電力等に応じて、もしくは、取得するセンシングデータ400の種別に応じて、センシングデータ400の取得のタイミングや、ユーザに係る指標408やユーザ時刻412の算出のタイミング等を適宜選択、変更することが可能である。
 例えば、本実施形態においては、ユーザの設定や、ウェアラブルデバイス10の消費電力等に応じて、算出モードを適宜変更することができる。本実施形態においては、例えば、以下の表2に示すような、5つの算出モードを設定することができる。
Figure JPOXMLDOC01-appb-T000004
 なお、表2に示す例は、本実施形態の算出モードの一例として示したものであり、すなわち、本実施形態に係る算出モード及び各算出モードにおける設定条件は、表2に示す例に限定されるものではない。
 さらに、本実施形態においては、所定の条件が満たされた場合に、図21に示すように、上記算出モードを遷移させてもよい。例えば、低消費モードに遷移することにより、脈波についてのセンシングデータを取得する際に消費される電力の増加を抑えることができ、その結果、ウェアラブルデバイス10を長期間にわたって起動させることができる。また、例えば、同種のセンシングデータ400が顕著に変化した場合に、変化に応じて算出モードを高頻度モードに遷移することにより、算出するユーザ時刻412の精度を向上させることができる。
 なお、図21中のA~Dの各条件は、例えば以下の通りとなる。
 A:前回の取得のセンシングデータ400と今回取得したセンシングデータ400の差分(差分割合)が所定の範囲以内の場合(例えば、10%以内)
 B:前回の取得のセンシングデータ400と今回取得したセンシングデータ400の差分(差分割合)が所定の範囲から外れていた場合(例えば、10%以上)
 C:ユーザからセンシングデータ400の取得指示を受け付けた場合
 D:センシングデータ400を取得した場合
 なお、図21に示す例は、本実施形態の算出モードの遷移の一例として示したものであり、すなわち、本実施形態に係る算出モードの遷移及び遷移の条件は、図21及び上述の条件に限定されるものではない。
 また、本実施形態においては、上記自動モードでは、個々のセンシングデータ400の取得タイミングを、前回の取得のセンシングデータ400と今回取得したセンシングデータ400の差分(差分割合)が所定の範囲から外れた場合等にのみ、変化させてもよい。詳細には、例えば、上記変化の幅が大きなセンシングデータ400のみ、取得の間隔を小さくし、変化幅の小さなセンシングデータ400については、これまでの取得の間隔を維持する。このようにして、自動モードでは、消費電力の増加を抑えつつ、算出するユーザ時刻412の精度を向上させることができる。
 より具体的には、例えば、図23に示すように、本実施形態に係る自動モードには、ステップS201からステップS207までの複数のステップが含まれている。以下に、本実施形態に係る自動モードに含まれる各ステップの詳細を説明する。
 (ステップS201)
 サーバ30は、各センシングデータ400の取得タイミング(時間間隔)を設定する。
 (ステップS203)
 サーバ30は、上記ステップS201の設定に基づき、センシングデータ400を取得する(取得n回目)。
 (ステップS205)
 サーバ30は、n-1回目に取得されたセンシングデータ400と、上記ステップS203で取得されたセンシングデータ400とを比較し、これらの差分が所定の範囲以内かどうかを判定する。サーバ30は、所定の範囲以内であれば、ステップS207へ進み、所定の範囲から外れていた場合には、ステップS201へ戻る。そして、サーバ30は、戻ったステップS201において、例えば、該当するセンシングデータ400の取得のタイミングに係る時間間隔を、短く設定する等、所定のルールに基づいて設定する。
 (ステップS207)
 サーバ30は、最初にステップS201で設定された取得タイミングに基づき、各センシングデータ400を取得する(取得n+1回目)。
 以上のように、自動モードでは、以上のように処理することにより、消費電力の増加を抑えつつ、算出するユーザ時刻412の精度を向上させることができる。
 <2.9.本開示の実施形態に係る基準データ420の選択>
 次に、本実施形態に係る基準データ420の選択の詳細について説明する。本実施形態においては、基準データ420は、より精度の高いユーザ時刻412を算出するために、以下のような処理に基づいて選択されることが好ましい。詳細には、以下の処理においては、算出したユーザ時刻412が、前回算出したユーザ時刻412と顕著な差が生じた場合に、基準データ420の変更を行う。このようにすることで、精度の高いユーザ時刻412等を算出するためにより好適な基準データ420を選択することができる。
 本実施形態における、基準データ420の選択のための処理の一例を、図24を参照して説明する。図24は、本実施形態に係る基準データ420の選択のための処理の一例を示すフローチャートである。図24に示すように、本実施形態に係る選択のための処理には、ステップS301からステップS307までの複数のステップが含まれている。以下に各ステップの詳細を説明する。
 (ステップS301)
 サーバ30は、ユーザの属性やユーザの設定に応じて、基準データ420を選択する。
 (ステップS303)
 サーバ30は、上記ステップS301の選択に基づいて、ユーザ時刻412を算出する。
 (ステップS305)
 サーバ30は、前回算出されたユーザ時刻412と、上記ステップS303で算出されたユーザ時刻412とを比較し、差分が所定の範囲以内かどうかを判定する。サーバ30は、所定の範囲以内であれば、ステップS307へ進み、所定の範囲から外れていた場合には、ステップS301へ戻る。そして、サーバ30は、戻ったステップS301にて、センシングデータ400との比較に用いる基準データ420の選択を、所定のルールに基づいて行う。
 例えば、サーバ30は、先に選択された基準データ420が、センシングデータ400が取得された日の直近の3日間における複数のセンシングデータを平滑化したセンシングデータであった場合には、センシングデータ400が取得された日の直近の5日間における複数のセンシングデータを平滑化したセンシングデータを新たに選択する。
 (ステップS307)
 サーバ30は、ステップS303で算出されたユーザ時刻412をユーザに提示する。
 本実施形態によれば、以上のような処理を行うことにより、精度の高いユーザ時刻412等を算出するためにより好適な基準データ420を選択することができる。
 <2.10.本開示の実施形態に係るユーザ評価のフィードバック処理>
 ところで、本実施形態においては、よりユーザの実感に近いユーザ時刻412を算出するために、ユーザに評価を行ってもらい、当該評価をユーザ時刻412の算出にフィードバックしてもよい。以下に、図25を参照して、本実施形態に係るユーザ評価のフィードバック処理を説明する。図25は、本実施形態に係る表示画面850dの一例を説明するための説明図である。
 詳細には、ユーザ時刻412をユーザに提示する際に、ユーザのユーザ時刻412に対する評価を取得するために、図25に示すような表示画面850dのユーザに向けて表示してもよい。例えば、スマートフォンからなるユーザ端末70の表示部700に表示された表示画面850dは、ユーザ時刻412を示すユーザ時刻表示802と、現在の標準時410を示す標準時表示808とを含む。さらに、表示画面850dは、ユーザに向けて評価を尋ねるウィンドウ870と、ユーザが回答する際に用いるウィンドウ872とを含む。具体的には、ウィンドウ870は、ユーザに対して表示されているユーザ時刻412に対する評価を、例えば「あなたが感じている時刻は?」と質問するウィンドウである。また、ウィンドウ872は、ユーザが各ウィンドウを選択する操作を行うことで、評価を入力することができるウィンドウである。ユーザは、例えば、選択肢として各ウィンドウ872に示される「12:00~(12時以降である)」、「11:40前後」、「~11:20(11時20分よりも前である)」のいずれかに対して操作を行うことにより、ユーザ時刻412に対しての評価を入力することができる。なお、本実施形態においては、ユーザの評価の入力は、音声入力であってもよく、また、ユーザ時刻412の代わりに、ユーザに係る指標408等に対する評価を取得してもよい。
 そして、このような評価結果に基づいて、サーバ30は、例えば、上述した係数a~e(重み付け)を変更することにより、ユーザ時刻412をよりユーザの実感に近い時刻にすることができる。
 さらに、サーバ30は、このように得られた各ユーザの評価の傾向と、各ユーザの属性情報とを紐づけて、各属性に応じた評価の傾向を機械学習してもよい。そして、サーバ30は、機械学習によって得られた傾向を、他のユーザのユーザ時刻412を算出する際に(例えば、係数a~eの値の設定)用いてもよい。
 <2.11.本開示の実施形態に係るユーザインタフェースの使用例>
 以下に、ウェアラブルデバイス10が腕輪型ウェアラブルデバイス10aであった場合の、ユーザインタフェースの使用例について説明する。本実施形態に係るユーザインタフェースの使用例として、腕輪型ウェアラブルデバイス10aのボタン102aに対する操作及び腕輪型ウェアラブルデバイス10aの表面に対するタップ操作と、対応する腕輪型ウェアラブルデバイス10aの動作について、以下の表3に示す。
Figure JPOXMLDOC01-appb-T000005
 なお、本実施形態においては、タップ操作は、モーションセンサ部124の加速度センサ120cにより検出することができる。また、本実施形態においては、ユーザの操作によってユーザ時刻412を記憶させることにより、記憶されたユーザ時刻412を、今後のユーザ時刻412の算出や算出結果の検証に利用することができる。
 なお、表3に示す例は、本実施形態のユーザインタフェースの使用例の一例であり、本実施形態に係るユーザインタフェースの使用例は、表3に限定されるものではない。
 <<3.本開示の実施形態に係る実施例>>
 以上、本開示の実施形態における情報処理方法の詳細について説明した。次に、具体的な実施例を示しながら、本開示の実施形態に係る情報処理の例についてより具体的に説明する。なお、以下に示す実施例は、本開示の実施形態に係る情報処理のあくまでも一例であって、本開示の実施形態に係る情報処理方法が下記の例に限定されるものではない。
 <3.1.実施例1>
 例えば、標準時410においては午後9時であるにもかかわらず、ユーザ時刻412が午後11時であった場合の例を説明する。このようなユーザ時刻412が提供されたユーザは、忙しく働いたことから疲れている可能性があることを自覚し、通常は、標準時410における午後11時に就寝しているにもかかわらず、標準時410における午後11時よりも早い時刻において就寝のための行動をとることとなる。
 すなわち、本実施例によれば、提供されたユーザ時刻412により、ユーザは、就寝前に自身のユーザ時刻412の進み遅れを確認することができることから、ユーザに対して、好適なタイミングでの就寝のための行動を喚起することができる。
 <3.2.実施例2>
 また、本開示の実施形態は、ユーザに対して好適な睡眠時間を維持するための行動を喚起する際に用いることもできる。当該実施例2においては、脈波センサ120b等によって得られたセンシングデータ400が、基準値に対してユーザがより長時間睡眠していることや睡眠深度が深いことを示している場合には、ユーザ時刻412の時間の進み具合が標準時410の時間の進み具合よりも遅くなると仮定する。
 例えば、標準時410において午前8時であるにもかかわらず、ユーザ時刻412が午前6時であった場合の例を説明する。このようなユーザ時刻412が提供されたユーザは、充分な睡眠がとれていない可能性があることを自覚し、通常は、標準時410における午前8時に就寝しているにもかかわらず、標準時410における午前8時よりも遅い時刻まで睡眠をさらに継続することとなる。
 すなわち、本実施例によれば、提供されたユーザ時刻412により、ユーザは、起床前に自身のユーザ時刻412の進み遅れを確認することができることから、ユーザに対して、好適な睡眠時間を維持するための行動を喚起することができる。
 以上により、本実施形態によって提供されたユーザ時刻412によれば、ユーザは、自身の過去の活動に起因したユーザ自身の時間のペース(進み具合)を容易に把握することができる。その結果、本実施形態によれば、当該ユーザの行動変容を喚起することにつながり、ひいてはユーザ時刻412に応じた行動を好適に起こすことができれば、当該ユーザの健康維持にもつなげることができる。
 <<4.まとめ>>
 以上説明したように、上述した本開示の実施形態によれば、ユーザのための、当該ユーザの時の流れの感じ方に応じたユーザ時刻412を提供することができる。
 さらに、本実施形態によれば、ユーザ時刻412を提供することにより、好適な状態からの現状の差分を容易に把握することができることから、ユーザの行動変容を喚起することができる。また、本実施形態においては、ユーザ時刻412は、共通認識可能な指標である時刻及び時間で提示されることから、ユーザ又は他のユーザが、ユーザの身体状態等を容易に理解することができる。さらに、ユーザ時刻412を用いることで、複数のユーザ(群集)の状態の傾向の把握が容易となる。
 また、心拍数等の数値からは、ユーザがどのような状態を示しているかを理解することが難しいが、日常的に親しんでいる時刻又は時間に置き換えたユーザ時刻412であれば、ユーザがどのような状態を示しているかを理解することは容易である。さらに、様々な生体情報を合成しても、ユーザ時刻412に変換することにより、ユーザがどのような状態であるかを容易に理解することが可能となる。
 また、上述の実施形態においては、本実施形態に係るウェアラブルデバイス10にサーバ30の機能を担わせることにより、ウェアラブルデバイス10をスタンドアローン型の装置としてもよい。
 <<5.ハードウェア構成について>>
 図26は、本実施形態に係る情報処理装置900のハードウェア構成の一例を示す説明図である。なお、図26では、情報処理装置900は、上述のサーバ30のハードウェア構成の一例を示している。
 情報処理装置900は、例えば、CPU950と、ROM952と、RAM954と、記録媒体956と、入出力インタフェース958と、操作入力デバイス960とを有する。さらに、情報処理装置900は、表示デバイス962と、通信インタフェース968と、センサ980とを有する。また、情報処理装置900は、例えば、データの伝送路としてのバス970で各構成要素間を接続する。
 (CPU950)
 CPU950は、例えば、CPU(Central Processing Unit)等の演算回路で構成される、1又は2以上のプロセッサや、各種処理回路等で形成され、情報処理装置900全体を制御する、上述した主制御部310として機能することができる。
 (ROM952及びRAM954)
 ROM952は、CPU950が使用するプログラムや演算パラメータ等の制御用データ等を記憶する。RAM954は、上述した記憶部308として機能し、例えば、CPU950により実行されるプログラム等を一時的に記憶する。
 (記録媒体956)
 記録媒体956は、上述の記憶部350として機能し、例えば、本実施形態に係る情報処理方法に係るデータや、各種アプリケーション等様々なデータを記憶する。ここで、記録媒体956としては、例えば、ハードディスク等の磁気記録媒体や、フラッシュメモリ等の不揮発性メモリが挙げられる。また、記録媒体956は、情報処理装置900から着脱可能であってもよい。
 (入出力インタフェース958、操作入力デバイス960及び表示デバイス962)
 入出力インタフェース958は、例えば、操作入力デバイス960や、表示デバイス962等を接続する。入出力インタフェース958としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)(登録商標)端子、各種処理回路等が挙げられる。
 操作入力デバイス960は、例えば、情報処理装置900に備えられ、情報処理装置900の内部で入出力インタフェース958と接続される。操作入力デバイス960としては、例えば、ボタンや、方向キー、ジョグダイヤル等の回転型セレクター、タッチパネル、あるいは、これらの組み合わせ等が挙げられる。
 表示デバイス962は、例えば、情報処理装置900上に備えられ、情報処理装置900の内部で入出力インタフェース958と接続される。表示デバイス962としては、例えば、液晶ディスプレイや有機ELディスプレイ(Organic Electro-Luminescence Display)等が挙げられる。
 なお、入出力インタフェース958が、情報処理装置900の外部の操作入力デバイス(例えば、キーボードやマウス等)や外部の表示デバイス等の、外部デバイスと接続することも可能であることは、言うまでもない。
 (通信インタフェース968)
 通信インタフェース968は、情報処理装置900が備える通信手段であり、ネットワーク90を介して(あるいは、直接的に)、ウェアラブルデバイス10やユーザ端末70等の外部装置と、無線又は有線で通信を行うための通信部306として機能する。ここで、通信インタフェース968としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11ポート及び送受信回路(無線通信)、あるいはLAN(Local Area Network)端子及び送受信回路(有線通信)等が挙げられる。
 以上、情報処理装置900のハードウェア構成の一例を示した。なお、情報処理装置900のハードウェア構成は、図26に示す構成に限られない。詳細には、上記の各構成要素は、汎用的な部材を用いて構成してもよいし、各構成要素の機能に特化したハードウェアにより構成してもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 例えば、情報処理装置900は、接続されている外部の通信デバイスを介して外部装置等と通信を行う場合や、スタンドアローンで処理を行う構成である場合には、通信インタフェース968を備えていなくてもよい。また、通信インタフェース968は、複数の通信方式によって、1又は2以上の外部装置と通信を行うことが可能な構成を有していてもよい。また、情報処理装置900は、例えば、記録媒体956や、操作入力デバイス960、表示デバイス962等を備えない構成をとることも可能である。
 また、本実施形態に係る情報処理装置は、例えばクラウドコンピューティング等のように、ネットワークへの接続(または各装置間の通信)を前提とした、複数の装置からなるシステムに適用されてもよい。つまり、上述した本実施形態に係る情報処理装置は、例えば、複数の装置により本実施形態に係る情報処理方法に係る処理を行う情報処理システムとして実現することも可能である。
 <<6.補足>>
 なお、先に説明した本開示の実施形態は、例えば、コンピュータを本実施形態に係る情報処理装置として機能させるためのプログラム、及びプログラムが記録された一時的でない有形の媒体を含みうる。また、プログラムをインターネット等の通信回線(無線通信も含む)を介して頒布してもよい。
 また、上述した本開示の実施形態の処理における各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。さらに、各ステップの処理方法についても、必ずしも記載された方法に沿って処理されなくてもよく、例えば、他の機能部によって他の方法で処理されていてもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 ユーザに装着された、1つ又は複数の生体情報センサから生体情報の経時変化を取得する情報取得部と、
 所定の時間間隔ごとに、第1の区間における第1の生体情報の経時変化と、前記第1の区間と同時刻における、第2の区間における第2の生体情報の経時変化との差分を算出し、標準時刻との時間差を算出する算出部と、
 を備える、情報処理装置。
(2)
 算出した前記時間差を前記標準時刻に足し合わせることにより、前記ユーザに係る時刻を算出する時刻算出部をさらに備える、上記(1)に記載の情報処理装置。
(3)
 前記算出部は、前記差分を時間換算し、時間換算された複数の前記差分を積算することにより、前記時間差を算出する、上記(1)又は(2)に記載の情報処理装置。
(4)
 前記情報取得部は、異なる複数の前記生体情報センサから異なる種別の複数の前記生体情報の経時変化を取得し、
 前記算出部は、前記生体情報の種別に基づいて重み付けがなされた、前記異なる種別の複数の生体情報の経時変化に基づいて、前記時間差を算出する、
 上記(1)~(3)のいずれか1つに記載の情報処理装置。
(5)
 前記ユーザから前記時間差に対する評価を取得する評価取得部をさらに備え、
 前記算出部は、取得した前記評価に基づいて重み付けを行う、
 上記(4)に記載の情報処理装置。
(6)
 前記算出部は、前記各生体情報の信頼性に基づいて、前記時間差を算出する際に用いる前記生体情報の経時変化を選択する、上記(1)~(5)のいずれか1つに記載の情報処理装置。
(7)
 前記算出部は、前記ユーザの属性に応じて、前記第2の生体情報の経時変化を選択する、上記(1)~(6)のいずれか1つに記載の情報処理装置。
(8)
 前記第2の生体情報の経時変化は、前記ユーザに装着された前記生体情報センサから取得された、前記第1の区間の過去において、前記第1の区間と同じ時間長を持つ複数の前記第2の区間において取得された複数の前記生体情報の経時変化である、
 上記(7)に記載の情報処理装置。
(9)
 前記第2の生体情報の経時変化は、前記ユーザに装着された前記生体情報センサから取得された、前記第1の区間の直近の過去における所定の条件を満たした所定の日数の期間内であって、前記第1の区間と同じ時間長を持つ複数の前記第2の区間において取得された複数の前記生体情報の経時変化を平滑化して得られる経時変化である、
 上記(8)に記載の情報処理装置。
(10)
 前記算出部は、前記所定の条件として、前記第1の区間に係る曜日と同一の曜日を持つ前記第2の区間を持つ前記第2の生体情報の経時変化を選択する、上記(9)に記載の情報処理装置。
(11)
 前記第2の生体情報の経時変化は、前記ユーザ以外の他のユーザに装着された前記生体情報センサから取得された、前記第1の区間の過去において、前記第1の区間と同じ時間長を持つ複数の前記第2の区間において取得された複数の前記生体情報の経時変化である、
 上記(7)に記載の情報処理装置。
(12)
 前記生体情報の経時変化は、
 前記ユーザの身体の一部に直接的に装着されて、心拍又は脈拍を検出する拍動センサ、皮膚温度を検出する温度センサ、発汗を検出する発汗センサ、血圧を検出する血圧センサ、脳波を検出する脳波センサ、呼吸を検出する呼吸センサ、筋電位を検出する筋電位センサ、血中酸素濃度を検出する血中酸素濃度センサ、及び、
 前記ユーザの動きを検出する、モーションセンサ又は位置センサのうちの少なくとも1つによって取得される、
 上記(1)~(11)のいずれか1つに記載の情報処理装置。
(13)
 前記モーションセンサは、前記ユーザに装着された、加速度センサ、ジャイロセンサ、及び、地磁気センサのうちの少なくとも1つを含む、上記(12)に記載の情報処理装置。
(14)
 算出した前記時間差を前記ユーザに提示する提示部をさらに備える、上記(2)に記載の情報処理装置。
(15)
 前記提示部は、算出した前記ユーザに係る時刻を前記ユーザに表示する、上記(14)に記載の情報処理装置。
(16)
 前記提示部は、色彩又は模様を変化させて、前記時間差を表示する、上記(14)に記載の情報処理装置。
(17)
 前記情報取得部又は前記算出部は、前記生体情報センサの消費電力、及び、前記第1の生体情報の経時変化の状態に応じて、前記第1の生体情報の経時変化を取得するタイミング又は前記時間差を算出するタイミングを変更する、上記(1)~(16)のいずれか1つに記載の情報処理装置。
(18)
 ユーザに装着された、1つ又は複数の生体情報センサから生体情報の経時変化を取得することと、
 所定の時間間隔ごとに、第1の区間における第1の生体情報の経時変化と、前記第1の区間と同時刻における、第2の区間における第2の生体情報の経時変化との差分を算出し、標準時刻との時間差を算出することと、
 を含む、情報処理方法。
(19)
 コンピュータに、
 ユーザに装着された、1つ又は複数の生体情報センサから生体情報の経時変化を取得する機能と、
 所定の時間間隔ごとに、第1の区間における第1の生体情報の経時変化と、前記第1の区間と同時刻における、第2の区間における第2の生体情報の経時変化との差分を算出し、標準時刻との時間差を算出する機能と、
 を実行させる、プログラム。
  1  情報処理システム
  10、10a  ウェアラブルデバイス
  30  サーバ
  70  ユーザ端末
  90  ネットワーク
  100  本体部
  102、302  入力部
  102a  ボタン
  104、304  出力部
  104a、700  表示部
  106、306  通信部
  108、308  記憶部
  110、310  主制御部
  120  センサ部
  120a  対表面温度センサ
  120b、122  脈波センサ(脈波センサ部)
  120c  加速度センサ
  120d  歩数センサ
  124  モーションセンサ部
  150  リストバンド
  320  センシングデータ取得部
  322  評価取得部
  330  処理部
  332  指標算出部
  334  時刻算出部
  340  出力制御部
  400、400a、400b、400c、400d  センシングデータ
  402  差分
  406、406a、406b、406c、406d  積算時間
  408  指標
  410  標準時
  412  ユーザ時刻
  420  基準データ
  600  合成アルゴリズム
  800、800a、800b、800c、800d、800e、800f、800g、800h、850、850a、850b、850c、850d  表示画面
  802  ユーザ時刻表示
  804  積算時間図形表示
  806  積算時間表示
  808  標準時表示
  810  種別表示
  812  傾向表示
  852、852a、852b  進捗表示
  854、854a  指標表示
  860  帯
  870、872  ウィンドウ
  900  情報処理装置
  950  CPU
  952  ROM
  954  RAM
  956  記録媒体
  958  入出力インタフェース
  960  操作入力デバイス
  962  表示デバイス
  968  通信インタフェース
  970  バス
  980  センサ
 
 

Claims (19)

  1.  ユーザに装着された、1つ又は複数の生体情報センサから生体情報の経時変化を取得する情報取得部と、
     所定の時間間隔ごとに、第1の区間における第1の生体情報の経時変化と、前記第1の区間と同時刻における、第2の区間における第2の生体情報の経時変化との差分を算出し、標準時刻との時間差を算出する算出部と、
     を備える、情報処理装置。
  2.  算出した前記時間差を前記標準時刻に足し合わせることにより、前記ユーザに係る時刻を算出する時刻算出部をさらに備える、請求項1に記載の情報処理装置。
  3.  前記算出部は、前記差分を時間換算し、時間換算された複数の前記差分を積算することにより、前記時間差を算出する、請求項1に記載の情報処理装置。
  4.  前記情報取得部は、異なる複数の前記生体情報センサから異なる種別の複数の前記生体情報の経時変化を取得し、
     前記算出部は、前記生体情報の種別に基づいて重み付けがなされた、前記異なる種別の複数の生体情報の経時変化に基づいて、前記時間差を算出する、
     請求項1に記載の情報処理装置。
  5.  前記ユーザから前記時間差に対する評価を取得する評価取得部をさらに備え、
     前記算出部は、取得した前記評価に基づいて重み付けを行う、
     請求項4に記載の情報処理装置。
  6.  前記算出部は、前記各生体情報の信頼性に基づいて、前記時間差を算出する際に用いる前記生体情報の経時変化を選択する、請求項1に記載の情報処理装置。
  7.  前記算出部は、前記ユーザの属性に応じて、前記第2の生体情報の経時変化を選択する、請求項1に記載の情報処理装置。
  8.  前記第2の生体情報の経時変化は、前記ユーザに装着された前記生体情報センサから取得された、前記第1の区間の過去において、前記第1の区間と同じ時間長を持つ複数の前記第2の区間において取得された複数の前記生体情報の経時変化である、
     請求項7に記載の情報処理装置。
  9.  前記第2の生体情報の経時変化は、前記ユーザに装着された前記生体情報センサから取得された、前記第1の区間の直近の過去における所定の条件を満たした所定の日数の期間内であって、前記第1の区間と同じ時間長を持つ複数の前記第2の区間において取得された複数の前記生体情報の経時変化を平滑化して得られる経時変化である、
     請求項8に記載の情報処理装置。
  10.  前記算出部は、前記所定の条件として、前記第1の区間に係る曜日と同一の曜日を持つ前記第2の区間を持つ前記第2の生体情報の経時変化を選択する、請求項9に記載の情報処理装置。
  11.  前記第2の生体情報の経時変化は、前記ユーザ以外の他のユーザに装着された前記生体情報センサから取得された、前記第1の区間の過去において、前記第1の区間と同じ時間長を持つ複数の前記第2の区間において取得された複数の前記生体情報の経時変化である、
     請求項7に記載の情報処理装置。
  12.  前記生体情報の経時変化は、
     前記ユーザの身体の一部に直接的に装着されて、心拍又は脈拍を検出する拍動センサ、皮膚温度を検出する温度センサ、発汗を検出する発汗センサ、血圧を検出する血圧センサ、脳波を検出する脳波センサ、呼吸を検出する呼吸センサ、筋電位を検出する筋電位センサ、血中酸素濃度を検出する血中酸素濃度センサ、及び、
     前記ユーザの動きを検出する、モーションセンサ又は位置センサのうちの少なくとも1つによって取得される、
     請求項1に記載の情報処理装置。
  13.  前記モーションセンサは、前記ユーザに装着された、加速度センサ、ジャイロセンサ、及び、地磁気センサのうちの少なくとも1つを含む、請求項12に記載の情報処理装置。
  14.  算出した前記時間差を前記ユーザに提示する提示部をさらに備える、請求項2に記載の情報処理装置。
  15.  前記提示部は、算出した前記ユーザに係る時刻を前記ユーザに表示する、請求項14に記載の情報処理装置。
  16.  前記提示部は、色彩又は模様を変化させて、前記時間差を表示する、請求項14に記載の情報処理装置。
  17.  前記情報取得部又は前記算出部は、前記生体情報センサの消費電力、及び、前記第1の生体情報の経時変化の状態に応じて、前記第1の生体情報の経時変化を取得するタイミング又は前記時間差を算出するタイミングを変更する、請求項1に記載の情報処理装置。
  18.  ユーザに装着された、1つ又は複数の生体情報センサから生体情報の経時変化を取得することと、
     所定の時間間隔ごとに、第1の区間における第1の生体情報の経時変化と、前記第1の区間と同時刻における、第2の区間における第2の生体情報の経時変化との差分を算出し、標準時刻との時間差を算出することと、
     を含む、情報処理方法。
  19.  コンピュータに、
     ユーザに装着された、1つ又は複数の生体情報センサから生体情報の経時変化を取得する機能と、
     所定の時間間隔ごとに、第1の区間における第1の生体情報の経時変化と、前記第1の区間と同時刻における、第2の区間における第2の生体情報の経時変化との差分を算出し、標準時刻との時間差を算出する機能と、
     を実行させる、プログラム。
PCT/JP2019/039970 2018-10-19 2019-10-10 情報処理装置、情報処理方法及びプログラム WO2020080243A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/284,563 US20210315468A1 (en) 2018-10-19 2019-10-10 Information processing apparatus, information processing method, and program
CN201980067326.7A CN113038876A (zh) 2018-10-19 2019-10-10 信息处理装置、信息处理方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018197354 2018-10-19
JP2018-197354 2018-10-19

Publications (1)

Publication Number Publication Date
WO2020080243A1 true WO2020080243A1 (ja) 2020-04-23

Family

ID=70284695

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/039970 WO2020080243A1 (ja) 2018-10-19 2019-10-10 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20210315468A1 (ja)
CN (1) CN113038876A (ja)
WO (1) WO2020080243A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012816A (zh) * 2021-04-12 2021-06-22 东北大学 脑分区风险预测方法及装置、电子设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5140562A (en) * 1991-03-13 1992-08-18 Moore Ede Martin C Biological timepiece
US6304519B1 (en) * 2000-05-05 2001-10-16 Vladimir Druk Method and apparatus for measuring subjective time
JP2013210869A (ja) * 2012-03-30 2013-10-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2015520427A (ja) * 2012-03-07 2015-07-16 コーニンクレッカ フィリップス エヌ ヴェ 概日時間の差の生成
JP2018023459A (ja) * 2016-08-08 2018-02-15 セイコーエプソン株式会社 体内時計時刻算出装置および体内時計時刻算出方法
WO2018042512A1 (ja) * 2016-08-30 2018-03-08 富士通株式会社 活動量処理装置、活動量処理方法、及び、活動量処理プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5365199B2 (ja) * 2009-01-06 2013-12-11 ソニー株式会社 ライフスタイルを評価するための方法、情報処理装置及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5140562A (en) * 1991-03-13 1992-08-18 Moore Ede Martin C Biological timepiece
US6304519B1 (en) * 2000-05-05 2001-10-16 Vladimir Druk Method and apparatus for measuring subjective time
JP2015520427A (ja) * 2012-03-07 2015-07-16 コーニンクレッカ フィリップス エヌ ヴェ 概日時間の差の生成
JP2013210869A (ja) * 2012-03-30 2013-10-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP2018023459A (ja) * 2016-08-08 2018-02-15 セイコーエプソン株式会社 体内時計時刻算出装置および体内時計時刻算出方法
WO2018042512A1 (ja) * 2016-08-30 2018-03-08 富士通株式会社 活動量処理装置、活動量処理方法、及び、活動量処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012816A (zh) * 2021-04-12 2021-06-22 东北大学 脑分区风险预测方法及装置、电子设备和存储介质
CN113012816B (zh) * 2021-04-12 2023-09-01 东北大学 脑分区风险预测方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
US20210315468A1 (en) 2021-10-14
CN113038876A (zh) 2021-06-25

Similar Documents

Publication Publication Date Title
US11883195B2 (en) Multimode sensor devices
JP7031669B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9750415B2 (en) Heart rate variability with sleep detection
US9743848B2 (en) Heart rate variability with sleep detection
US11602279B2 (en) Automated exercise recommendations
US20180116607A1 (en) Wearable monitoring device
US20210161482A1 (en) Information processing device, information processing method, and computer program
US20160324432A1 (en) Heart rate detection using ambient light
US10750958B2 (en) Variable brightness and gain for optimizing signal acquisition
US20160030809A1 (en) System and method for identifying fitness cycles using earphones with biometric sensors
WO2020080243A1 (ja) 情報処理装置、情報処理方法及びプログラム
GB2600126A (en) Improvements in or relating to wearable sensor apparatus
EP4011281A1 (en) Detecting sleep intention
KR102605899B1 (ko) 생체 신호 측정 장치 및 방법
WO2023167061A1 (ja) 情報処理方法、情報処理装置及び情報処理システム
US20180303431A1 (en) User migraine analysis component
CA3220941A1 (en) Coaching based on reproductive phases
GB2566318A (en) Wearable device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19873146

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19873146

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP