WO2012144396A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2012144396A1
WO2012144396A1 PCT/JP2012/059958 JP2012059958W WO2012144396A1 WO 2012144396 A1 WO2012144396 A1 WO 2012144396A1 JP 2012059958 W JP2012059958 W JP 2012059958W WO 2012144396 A1 WO2012144396 A1 WO 2012144396A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
score
unit
wake
sleep
Prior art date
Application number
PCT/JP2012/059958
Other languages
English (en)
French (fr)
Inventor
雅人 君島
直之 尾上
達人 佐藤
英行 松永
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US14/111,018 priority Critical patent/US9891592B2/en
Priority to EP12774646.9A priority patent/EP2701117A4/en
Priority to CN201280019132.8A priority patent/CN103518204B/zh
Publication of WO2012144396A1 publication Critical patent/WO2012144396A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4809Sleep detection, i.e. determining whether a subject is asleep or not
    • GPHYSICS
    • G04HOROLOGY
    • G04FTIME-INTERVAL MEASURING
    • G04F10/00Apparatus for measuring unknown time intervals by electric means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation

Definitions

  • the present technology particularly relates to an information processing apparatus, an information processing method, and a program that can improve sleep efficiency.
  • the present technology has been made in view of such a situation, and is intended to improve sleep efficiency.
  • An information processing apparatus includes at least one of an acquisition unit that acquires information representing a user's action schedule, and whether or not to wake up or not according to the user's action schedule And a first determination unit that performs at least one of the following determinations: determination of whether to wake up when to wake up;
  • a first score representing the degree to be awakened or the degree to be asleep can be obtained.
  • a second determination unit that obtains a second score representing the degree of sleepiness of the user based on the data detected by the sensor can be further provided.
  • a selection unit that selects content to be played based on the first score and the second score, and a playback unit that plays the content selected by the selection unit may be further provided.
  • the selection unit selects the content that causes a change in sleepiness corresponding to the difference between the first score and the second score based on the information stored in the storage unit. Can be made.
  • the second determination unit further determines the second score based on data detected by the sensor after the content is reproduced, and the second score obtained before the reproduction of the content is started. Based on the difference from the second score obtained after the reproduction of the content, the information indicating the degree of change in sleepiness for the reproduced content stored in the storage unit is updated.
  • An updating unit can be further provided.
  • the wakeup unit that wakes up the user according to the level of wakeup, and the first determination unit
  • a sleep unit that causes the user to fall asleep according to the level to which the user should sleep can be further provided.
  • information representing a user's action schedule is acquired, and at least one of whether to wake up or whether to sleep is determined according to the user's action schedule.
  • the determination of at least one of the degree to wake up in the case of being or the degree to sleep in the case of being to sleep is made.
  • FIG. It is a block diagram which shows the structural example of a drowsiness judgment part. It is a block diagram which shows the structural example of a music selection / reproduction
  • FIG. It is a flowchart explaining the process which learns a user's nearest station. It is a flowchart explaining the process in the case of use case 2.
  • FIG. It is a flowchart explaining the process in the case of use case 3.
  • FIG. It is a flowchart explaining the process in the case of use case 4.
  • FIG. It is a flowchart explaining a music selection / reproduction
  • FIG. 1 is a diagram illustrating an information processing apparatus according to an embodiment of the present technology.
  • the information processing device 1 in FIG. 1 is a portable device such as a mobile phone, a PDA (Personal Digital Assistant), a digital camera, or a PND (Portable Navigation Device), and has a casing that can be held with one hand. Have.
  • a display unit such as an LCD (Liquid Crystal Display) is provided on the front surface of the housing of the information processing apparatus 1.
  • the information processing apparatus 1 has a schedule DB, which is a DB (Data Base) in which information on a user's action schedule is stored, for example, in an internal memory.
  • the information processing apparatus 1 determines whether the user should wake up or should sleep based on the user's action schedule. When the information processing apparatus 1 determines that the user should wake up, the information processing apparatus 1 obtains an awakening score that expresses the degree (degree) of wakeup as a numerical value. When the information processing apparatus 1 determines that the user should go to sleep, the degree is expressed as a numerical value. Get the sleep score to represent.
  • the information processing apparatus 1 obtains a sleepiness score representing the user's sleep desire, that is, sleepiness, as a numerical value based on sensor data detected by various sensors.
  • the information processing apparatus 1 has a music playback function, and selects and plays back music that can cause the sleepiness change to bring the sleepiness score close to the arousal score or the sleep onset score. Each piece of music that can be played back by the information processing apparatus 1 is set with metadata that represents changes in sleepiness caused by a user who has listened to the music.
  • the information processing apparatus 1 outputs the sound obtained by reproducing the music from the speaker of the information processing apparatus 1 or the earphone attached to the information processing apparatus 1 and allows the user to listen to the sound.
  • the information processing apparatus 1 selects the music piece in consideration of the user's sleepiness score and the wakefulness score and reproduces it, so that the information processing apparatus 1 determines the user's sleepiness score. Can be close to the awakening score.
  • the information processing apparatus 1 selects and reproduces the music in consideration of the user's sleepiness score and sleepiness score, so that the information processing apparatus 1 The score can be brought close to the sleep onset score.
  • the wakefulness score representing the degree to be awakened and the sleepiness score representing the degree to be asleep represent the sleepiness score of the user that should be present, which is determined based on the action schedule.
  • FIG. 2 is a diagram illustrating a first example of a use case of the information processing apparatus 1.
  • the information processing apparatus 1 obtains a wake-up score representing the degree to which the user should wake up when it is determined that the user should wake up because the current time has approached the wake-up time such as 7:00 am .
  • the user's wake-up time is determined in advance by the information processing apparatus 1 based on the user's behavior history, for example.
  • the arousal score obtained at this time is, for example, a score smaller than the awakening score obtained when it is determined that it should occur to prevent sleep overtime on the train as described later.
  • the information processing apparatus 1 obtains the user's sleepiness score based on the sensor data.
  • the sleepiness score obtained at this time is a small score when the sleep time is long and the user is already sufficiently sleeping, and a large score when the sleep time is short and the user is not sleeping much.
  • the information processing apparatus 1 selects and reproduces music that can cause the user to cause a change in sleepiness that brings the sleepiness score closer to the awakening score. If the wakefulness score is constant, if the sleepiness score is large, music that causes a large change in sleepiness is played, and if the sleepiness score is small, the music that causes a small change in sleepiness is played. .
  • the music that causes a great change in sleepiness in the direction of lowering the sleepiness score is, for example, a music that includes a music with a fast tempo, a music with a high volume, or vocal sounds.
  • the music that causes a small change in sleepiness in the direction of lowering the sleepiness score is, for example, a music that has a slower tempo than a music that causes a large change in sleepiness, a music that has a low volume, and a music that does not include vocal sound.
  • FIG. 3 is a diagram illustrating a second example of the use case of the information processing apparatus 1.
  • the information processing apparatus 1 obtains a wake-up score indicating the degree to which the user should get up when it is determined that the user should get up because the train has approached the getting-off station.
  • the disembarking station is the user's home or the nearest station of the company, but it may be another station.
  • the nearest station is determined in advance by the information processing apparatus 1 based on the user's action history, for example. Whether the train on board is approaching the nearest station is determined by the information processing apparatus 1 based on the train timetable or the like.
  • the arousal score obtained at this time is a score larger than the arousal score obtained in the case of use case 1.
  • the information processing apparatus 1 obtains the user's sleepiness score based on the sensor data.
  • the information processing apparatus 1 selects and reproduces music that can cause the user to cause a change in sleepiness that brings the sleepiness score closer to the awakening score. If the same drowsiness score as in use case 1 is obtained, the arousal score is large, so that a music that causes a large change in sleepiness is reproduced as compared to use case 1.
  • FIG. 4 is a diagram illustrating a third example of the use case of the information processing apparatus 1.
  • the information processing apparatus 1 determines that the user should sleep based on the user's action schedule, the information processing apparatus 1 obtains a recommended bedtime.
  • the recommended bedtime for example, if the next day's action plan is to go out at a time earlier than the normal wake-up time, recommend a time that is a predetermined time, such as 8 hours, based on the time to go out. It is determined by the information processing apparatus 1.
  • the information processing apparatus 1 obtains the user's sleepiness score based on the sensor data.
  • the sleepiness score obtained at this time is a small score when the current time is much before the normal bedtime, and a large score when the current time is close to the normal bedtime.
  • the information processing apparatus 1 obtains a sleep score indicating the degree to which the person should sleep.
  • the information processing apparatus 1 selects and reproduces music that can cause the user to cause a change in sleepiness that brings the sleepiness score closer to the sleep onset score.
  • the music that causes a small change in sleepiness in the direction of increasing the sleepiness score is, for example, a music with a slow tempo, a music with a low volume, or a music that does not include vocal sound.
  • songs that cause a large change in sleepiness in the direction of increasing sleepiness score do not include, for example, a song that is much slower in tempo than a song that causes a change in sleepiness, a song that has a very low volume, or vocal sound. It is a song.
  • FIG. 5 is a diagram illustrating a fourth example of the use case of the information processing apparatus 1.
  • the information processing apparatus 1 determines that there is time until the start time of the next meeting based on the user's action schedule, determines that the user should sleep and obtains a sleep score indicating the degree to which the user should sleep.
  • the sleep onset score obtained at this time is, for example, a larger score as the work end time of the previous day is later, and a larger score as the time is reached until the start time of the next meeting.
  • the information processing apparatus 1 obtains the user's sleepiness score based on the sensor data.
  • the information processing apparatus 1 selects and reproduces music that can cause the user to cause a change in sleepiness that brings the sleepiness score closer to the sleep onset score.
  • the information processing apparatus 1 When the current time approaches the start time of the conference, the information processing apparatus 1 performs a process for awakening the user in the same manner as in use case 1 or 2.
  • FIG. 6 is a diagram illustrating an example of a wakefulness score and a sleep onset score.
  • a score less than 0 represents a wakefulness score
  • a score greater than 0 represents a sleep onset score.
  • the maximum arousal score is 100 (-100) and the maximum sleep score is 100.
  • the arousal score is calculated as 40 (-40) in order to gradually awaken.
  • the arousal score is calculated as 80 (-80) in order to suddenly awaken.
  • the sleep score is calculated as 60 (+60) in order to sleep more strongly.
  • the sleep onset score is obtained as 20 (+20).
  • FIG. 7 is a block diagram illustrating a hardware configuration example of the information processing apparatus 1.
  • the information processing apparatus 1 is configured by connecting a sensor unit 12, a camera 13, an operation unit 14, a display unit 15, a storage unit 16, a communication unit 17, and a reproduction sound output unit 18 to a controller 11. .
  • the controller 11 includes a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), and the like.
  • the CPU of the controller 11 loads a program from the ROM and executes it using the RAM, and controls the overall operation of the information processing apparatus 1.
  • the sensor unit 12 includes various sensors such as a sensor that detects biological information that is information related to the user's body and a sensor that detects device information that is information related to the information processing apparatus 1. Sensors that detect information about the user's body include a pulse sensor that detects the user's pulse, a body temperature sensor that detects body temperature, and an electroencephalogram sensor that detects brain waves. Data representing the pulse, body temperature, and electroencephalogram detected by these sensors is output to the controller 11.
  • sensors that detect information related to the information processing apparatus 1 include an acceleration sensor, a gyro sensor, and a GPS (Global Positioning System). Data representing the acceleration and angle generated in the information processing apparatus 1 and data representing the position of the information processing apparatus 1 detected by these sensors are output to the controller 11.
  • the camera 13 is an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and performs photoelectric conversion of light taken in by a lens provided on the back side of the housing of the information processing apparatus 1 to generate image data. To do. For example, the camera 13 photographs the user and outputs a face image to the controller 11.
  • CMOS Complementary Metal Oxide Semiconductor
  • the operation unit 14 includes a button provided on the surface of the casing of the information processing apparatus 1 and a touch panel provided by being stacked on a display such as an LCD constituting the display unit 15.
  • the operation unit 14 detects a user operation and outputs information representing the content of the detected operation to the controller 11.
  • the display unit 15 displays various types of information such as images and texts according to control by the controller 11.
  • the storage unit 16 is composed of a flash memory or the like.
  • the storage unit 16 stores various types of information such as a schedule DB that is a schedule information DB representing a user's action schedule and a music DB that is a music DB.
  • the communication unit 17 receives radio waves from the base station and communicates with a server on a network such as a LAN (Local Area Network) or the Internet via the network.
  • a server on a network such as a LAN (Local Area Network) or the Internet via the network.
  • the reproduction sound output unit 18 includes a signal processing unit that outputs a music signal to a speaker provided in the information processing apparatus 1 or an earphone attached to the earphone jack of the information processing apparatus 1.
  • the reproduction sound output unit 18 outputs the music reproduced by the controller 11 and allows the user to listen to it.
  • FIG. 8 is a block diagram illustrating a functional configuration example of the information processing apparatus 1. At least a part of the functional units shown in FIG. 8 is realized by executing a predetermined program by the controller 11 of FIG.
  • a control unit 21, a sleep / wakefulness determination unit 22, a drowsiness determination unit 23, a music selection / playback unit 24, a schedule DB 25, and a music DB 26 are realized.
  • the control unit 21 learns the user's behavior based on the sensor data supplied from the sensor unit 12 and specifies the user's wake-up time and the nearest station.
  • the control unit 21 registers the specified wake-up time and the nearest station information in the schedule DB 25.
  • the control unit 21 controls the sleep / wakefulness determination unit 22 to calculate a wakefulness score or a sleepiness score, and controls the sleepiness determination unit 23 to calculate a sleepiness score.
  • the sleep / wakefulness determination unit 22 reads schedule information from the schedule DB 25, and determines whether the user should wake up or should sleep based on the user's action schedule.
  • the schedule DB 25 includes a DB that stores user work-related (work-related) schedule information and a DB that stores private life-related schedule information.
  • the sleep / wakefulness determination unit 22 obtains a sleepiness score when it is determined that the user should wake up, and obtains a sleepiness score when it is determined that the user should sleep.
  • the sleep / wakefulness determination unit 22 outputs the obtained awakening score or sleepiness score to the music selection / playback unit 24.
  • the sleepiness determination unit 23 obtains a sleepiness score based on the sensor data supplied from the sensor unit 12.
  • the sleepiness determination unit 23 outputs the obtained sleepiness score to the music selection / playback unit 24.
  • the music selection / reproduction unit 24 selects and reproduces the music based on the arousal score or the sleep onset score obtained by the sleep / wakefulness determination unit 22 and the sleepiness score obtained by the sleepiness determination unit 23.
  • the music selection by the music selection / playback unit 24 is performed on the music stored in the music DB 26.
  • the music DB 26 stores a plurality of music data.
  • the music data is taken into the information processing apparatus 1 in advance by the user.
  • information representing changes in sleepiness caused by the user who listened to the music is set as metadata.
  • the schedule DB 25 and the music DB 26 can be realized in a server on the network. In this case, transmission / reception of data performed between the schedule DB 25 and the music DB 26 and each unit in FIG. 8 is performed via the communication unit 17.
  • FIG. 9 is a block diagram illustrating a configuration example of the sleep / wakefulness determination unit 22.
  • the sleep / wakefulness determination unit 22 includes a work-related schedule acquisition unit 41, a delivery date / achievement status / importance management unit 42, a bedtime / wakeup time determination unit 43, a private life-related schedule acquisition unit 44, a bedtime / wakeup time determination unit 45, and The score calculation unit 46 is configured.
  • the business-related schedule acquisition unit 41 reads and acquires the business-related schedule information of the user from the business-related schedule DB 25A constituting the schedule DB 25.
  • the business-related schedule includes, for example, a meeting start time, a business trip departure time, a predetermined document creation deadline, a lunch time, and the like.
  • the business-related schedule acquisition unit 41 outputs the acquired schedule information to the delivery date / achievement status / importance level management unit 42.
  • the delivery date / achievement status / importance level management unit 42 manages information such as the delivery date of the product, the achievement status of the work, and the importance level of each item registered as a schedule. Information managed by the delivery date / achievement status / importance level management unit 42 is set in advance by the user, for example.
  • the delivery date / achievement status / importance level management unit 42 uses the schedule information supplied from the work-related schedule acquisition unit 41 together with information such as the delivery date of the product, the achievement status of the work, the importance level of the schedule, and the bedtime / wakeup time determination unit 43. Output to. For example, when information including the meeting start time is supplied from the work-related schedule acquisition unit 41, the delivery date / achievement status / importance level management unit 42 together with the information supplied from the work-related schedule acquisition unit 41 Output importance information.
  • the bedtime / wake-up time determination unit 43 acquires the information supplied from the delivery date / achievement status / importance level management unit 42 and determines whether the user should wake up or should go to sleep according to the schedule.
  • the sleeping / wake-up time determination unit 43 determines the wake-up time when it is determined that the user should wake up, and determines the bedtime when it is determined that the user should sleep.
  • the bed / wake-up time determination unit 43 specifies that there is time until the start time of the next meeting, the user determines that the user should go to sleep. Also, the bedtime / wake-up time determination unit 43 determines a time that is a predetermined time before the start time of the next meeting as the wake-up time. The bedtime / wakeup time determination unit 43 outputs the information of the wakeup time or bedtime determined in this way to the score calculation unit 46.
  • the private life related schedule acquisition unit 44 reads and acquires the user's private life related schedule information from the private life related schedule DB 25B of the schedule DB 25.
  • the schedule related to private life includes, for example, the user's normal wake-up time, bedtime, and nearest station.
  • the private life related schedule acquisition unit 44 outputs the acquired schedule information to the bedtime / wake-up time determination unit 45.
  • the bedtime / wake-up time determination unit 45 acquires the schedule information supplied from the private life related schedule acquisition unit 44, and determines whether the user should wake up or sleep according to the schedule. The bedtime / wake-up time determination unit 45 determines the bedtime when it is determined that the user should wake up, and the bedtime when it is determined that the user should sleep.
  • the bedtime / wake-up time determination unit 45 acquires schedule information including a user's normal wake-up time, and determines that the user should wake up when the current time approaches the wake-up time.
  • the bedtime / wake-up time determination unit 45 determines a time that is a predetermined time before the normal wake-up time as the wake-up time.
  • the bedtime / wake-up time determination unit 45 outputs the information on the wake-up time or bedtime determined in this way to the score calculation unit 46.
  • the score calculation unit 46 calculates the awakening score based on the wake-up time and the current time when the wake-up time is determined by the bed / wake-up time determination unit 43 or the bed / wake-up time determination unit 45. On the other hand, when the bedtime is determined by the bedtime / wake-up time determination unit 43 or the bedtime / wake-up time determination unit 45, the score calculation unit 46 calculates a sleep onset score based on the bedtime and the current time.
  • the score calculation unit 46 when the wake-up time determined by the sleep / wake-up time determination unit 43 or the sleep / wake-up time determination unit 45 is a time 10 minutes after the current time, the score calculation unit 46 is 30 minutes after the current time. A greater arousal score is calculated than when it is time. In this way, the score calculation unit 46 obtains a smaller score as the time from the current time to the wake-up time is longer, and conversely, obtains a larger score as the time from the current time to the wake-up time is shorter. calculate.
  • the score calculation unit 46 is 30 minutes after the current time. A greater sleep score is calculated than when the current time is. Thus, the score calculation unit 46 obtains a smaller score as the time from the current time to the bedtime becomes longer, and conversely, obtains a higher score as the time from the current time to the bedtime becomes shorter. calculate.
  • the score calculation unit 46 outputs the calculated sleep onset score or wakefulness score to the music selection / playback unit 24.
  • FIG. 10 is a block diagram illustrating a configuration example of the drowsiness determination unit 23.
  • the sleepiness determination unit 23 includes a sensor data acquisition unit 61, a feature amount extraction unit 62, a sleepiness determination unit 63, a face recognition unit 64, a face motion determination unit 65, and a score calculation unit 66.
  • the sensor data acquisition unit 61 includes a biological information acquisition unit 71, a device information acquisition unit 72, and a captured image acquisition unit 73.
  • the biological information acquisition unit 71 of the sensor data acquisition unit 61 acquires sensor data output from a sensor that detects biological information among the sensors constituting the sensor unit 12.
  • the biometric information acquisition unit 71 outputs biometric information, which is information of the user's pulse detected by the pulse sensor, the user's body temperature detected by the body temperature sensor, and the user's brain wave detected by the electroencephalogram sensor, to the feature amount extraction unit 62. To do.
  • the device information acquisition unit 72 acquires sensor data output from a sensor that detects device information among the sensors constituting the sensor unit 12.
  • the device information acquisition unit 72 outputs device information, which is information on the acceleration detected by the acceleration sensor and the angle detected by the gyro sensor, to the feature amount extraction unit 62.
  • the captured image acquisition unit 73 acquires an image of the user's face taken by the camera 13 and outputs the acquired image to the face recognition unit 64.
  • the feature amount extraction unit 62 analyzes the biological information supplied from the biological information acquisition unit 71 and extracts the feature amount of the biological information. In addition, the feature amount extraction unit 62 analyzes the device information supplied from the device information acquisition unit 72 and extracts the feature amount of the device information. The feature amount extraction unit 62 outputs the extracted feature amount of the biological information and the feature amount of the device information to the sleepiness determination unit 63.
  • the drowsiness discriminating unit 63 is a drowsiness discriminator that discriminates the user's drowsiness by matching the pre-given teacher data with the feature amount supplied from the drowsiness discrimination unit 63. For example, a feature amount extracted from biological information when a person is sleeping and a feature amount extracted from device information are given to the sleepiness determination unit 63 as teacher data.
  • the sleepiness determination unit 63 performs matching between the teacher data of the biological information and the feature amount extracted from the biological information by the feature amount extraction unit 62, and obtains a matching score. Further, the drowsiness determination unit 63 performs matching between the teacher data of the device information and the feature amount extracted from the device information by the feature amount extraction unit 62, and obtains a matching score. For example, the sleepiness determination unit 63 outputs the obtained matching score to the score calculation unit 66 as information representing the user's sleepiness.
  • the drowsiness discrimination by the drowsiness discrimination unit 63 is performed using at least a part of the plurality of sensor data included in the biological information and the device information. For example, when the user is out and cannot obtain biometric information, the user's sleepiness is determined based only on the device information.
  • the face recognition unit 64 recognizes the user's face in the image by analyzing the image acquired by the captured image acquisition unit 73. Further, the face recognition unit 64 extracts the recognized facial features and outputs them to the face motion determination unit 65. For example, the features of the user's eyes are extracted by the face recognition unit 64.
  • the face motion determination unit 65 determines whether or not the user is sleeping, such as whether or not the user's eyes are open or blinking. The user's face motion is determined. The face motion determination unit 65 outputs information representing the determination result of the user's face motion to the score calculation unit 66.
  • a score indicating the possibility that the user's eyes are open or not open, and a score indicating the possibility that the user is blinking or not blinking are provided.
  • the score is output to the score calculator 66. For example, if the number of blinks of the user per predetermined unit time is less than the threshold number, it is determined that the user is likely to be sleepy.
  • the score calculation unit 66 calculates a drowsiness score based on the information representing the user's sleepiness supplied from the sleepiness determination unit 63 and the determination result of the user's face movement supplied from the face motion determination unit 65. The current time is also taken into account when calculating the sleepiness score.
  • the score calculation unit 66 outputs the calculated sleepiness score information to the music selection / playback unit 24.
  • FIG. 11 is a block diagram illustrating a configuration example of the music selection / playback unit 24.
  • the music selection / reproduction unit 24 includes a music selection unit 81, a reproduction unit 82, an information management unit 83, and a detection unit 84.
  • the sleep or awake score supplied from the sleep / wake determination unit 22 is input to the music selection unit 81, and the sleepiness score supplied from the sleepiness determination unit 23 is input to the music selection unit 81, the information management unit 83, and the detection unit 84, respectively. Is done.
  • the music selection unit 81 selects the music to be reproduced from the music stored in the music DB 26 as the sleep or wake score supplied from the sleep / wake determination unit 22 and the sleepiness score supplied from the sleepiness determination unit 23. Select based on.
  • the music selection unit 81 reads the data of the selected music from the music DB 26 and outputs it to the playback unit 82.
  • the reproduction unit 82 reproduces the music selected by the music selection unit 81 and outputs the sound obtained by the reproduction from the reproduction sound output unit 18.
  • the information management unit 83 updates the metadata of the reproduced music based on the sleepiness score before the music reproduction by the reproduction unit 82 and the sleepiness score obtained from the sensor data detected after the music reproduction.
  • the update of the metadata is performed, for example, when it is detected that the user has fallen asleep by playing music or when the user has been awakened by playing music.
  • the detection unit 84 detects whether the user is awake or sleeping based on the input sleepiness score. When it is determined that the user should sleep, the detection unit 84 outputs information representing the fact to the music selection unit 81 and the information management unit 83 when detecting that the user has gone to sleep by playing the music. To do. Further, when it is determined that the user should wake up, when the detection unit 84 detects that the user has woken up by reproducing the music, information indicating the information is displayed as the music selection unit 81 and the information management unit 83. Output to.
  • the selection of music by the music selection unit 81, the update of metadata by the information management unit 83, and the detection of the user state by the detection unit 84 will be described in detail later.
  • FIG. 12 is performed, for example, after the wake-up time is set by the alarm function that the information processing apparatus 1 has.
  • the control unit 21 outputs an alarm sound from the reproduction sound output unit 18.
  • step S1 the control unit 21 determines whether or not the user has been woken up, and waits until it is determined that the wake-up has been detected. Whether or not the user has woken up is determined based on whether or not an alarm sound stop operation has been performed by the user. Whether or not the user has woken up may be determined based on the drowsiness score or sensor data as described later.
  • step S2 the control unit 21 acquires the current time.
  • step S3 the control unit 21 obtains the wake-up frequency in the time zone including the current time.
  • the control unit 21 stores and manages a history of daily user wake-up times in the schedule DB 25. Based on the history stored in the schedule DB 25, the control unit 21 obtains the wake-up frequency in a time zone including the current time among predetermined time zones such as every 15 minutes.
  • step S4 the control unit 21 determines whether or not the wake-up frequency in the time zone including the current time is equal to or more than a predetermined number of times as a threshold value. When it is determined in step S4 that the wake-up frequency in the time zone including the current time is less than the predetermined number, the process returns to step S1 and the above processing is repeated.
  • step S5 when it is determined in step S4 that the wake-up frequency in the time zone including the current time is equal to or greater than the predetermined number, in step S5, the control unit 21 determines the time zone including the current time as the wake-up time zone.
  • the control unit 21 sets a predetermined time in the wake-up time zone, such as the start time of the determined wake-up time zone, as the wake-up time, and stores the information on the wake-up time in the private life related schedule DB 25B of the schedule DB 25. Thereafter, the process ends.
  • step S11 the private life related schedule acquisition unit 44 (FIG. 9) of the sleep / wakefulness determination unit 22 acquires the information of the usual wake-up time obtained by learning from the private life related schedule DB 25B.
  • the bedtime / wake-up time determination unit 45 determines the normal wake-up time acquired from the private life related schedule DB 25B as the wake-up time.
  • step S12 the score calculation unit 46 determines that the user should wake up, and determines whether or not the current time is a certain time before the wake-up time.
  • the score calculation unit 46 waits until it is determined in step S12 that the current time is a certain time before the wake-up time.
  • step S12 If it is determined in step S12 that the current time is a certain time before the wake-up time, the drowsiness determination unit 23 calculates the drowsiness score based on the sensor data detected by the sensor unit 12 in step S13.
  • step S14 the score calculation unit 46 of the sleep / wakefulness determination unit 22 obtains a wakefulness score.
  • step S15 the music selection / playback unit 24 performs music selection / playback processing.
  • music selection / reproduction process music that can cause the user to change sleepiness that brings the sleepiness score closer to the arousal score is selected and reproduced.
  • the music selection / playback process will be described later. After the music selection / playback process is performed and the user wakes up, the process ends.
  • the information processing apparatus 1 can wake up the user comfortably by playing music with a slow tempo when the user's sleepiness is low.
  • the process of FIG. 14 is started when it is detected that the user is on the train, for example.
  • the current position detected by GPS is a position on a train track and the moving speed of the position is the same as the speed of the train, it is detected that the user is on the train. It is also possible to detect that the user is on the train when the vibration feature detected by the sensor unit 12 matches the vibration feature detected in the train. Information representing the speed of the train and the characteristics of the vibration detected in the train is stored in advance in the storage unit 16, for example. It may be detected that the user is on the train in response to an operation by the user.
  • step S21 the control unit 21 determines whether or not the user's getting off is detected, and waits until it is determined that the getting off is detected. For example, when the current position detected by GPS is the position of a train station and the moving speed is a walking speed, it is detected that the user has got off the train. It may be detected that the user gets off in response to an operation by the user.
  • step S22 the control unit 21 acquires date information and position information.
  • the location information is acquired by GPS.
  • step S23 the control unit 21 specifies the getting-off station based on the acquired position information.
  • the control unit 21 specifies the position represented by the position information on the map, and if the specified position is the position of the station, the control unit 21 specifies the station as the getting-off station.
  • the map previously given to the control unit 21 includes information on the position of each station.
  • step S24 the control unit 21 obtains the frequency of getting off within a predetermined period at the specified getting-off station. For example, the control unit 21 identifies the getting-off station every day, and manages the history of the getting-off station stored in the schedule DB 25. Based on the history stored in the schedule DB 25, the control unit 21 calculates the frequency of getting off within a predetermined period such as one week.
  • step S25 the control unit 21 determines whether or not the getting-off frequency obtained in step S24 is equal to or more than a predetermined number of times as a threshold value. When it is determined in step S25 that the frequency of getting off is less than the predetermined number of times, the process returns to step S21 and the above processing is repeated.
  • step S26 the control unit 21 determines the specified getting-off station as the nearest station.
  • the control unit 21 stores the information on the nearest station in the private life related schedule DB 25B of the schedule DB 25 and ends the process.
  • step S31 the control unit 21 determines whether or not the user has got on the train and waits until it is determined that the user has got on the train. Whether or not the user is on the train is determined using the current position and map detected by GPS as described above, for example.
  • step S32 the private life related schedule acquisition unit 44 acquires information on the timetable of the train on which the user has taken.
  • the train on which the user got is detected based on, for example, the position of the boarding station and the moving direction of the user detected by GPS.
  • the information on the timetable of the train on which the user has boarded is downloaded in advance from a predetermined server, for example, and stored in the private life related schedule DB 25B.
  • the bedtime / wake-up time determination unit 45 refers to the timetable acquired by the private life related schedule acquisition unit 44, and identifies the time at which the train on which the user rides arrives at the nearest station.
  • the score calculation unit 46 determines the specified arrival time as the getting-off time, that is, the wake-up time of the user sleeping on the train.
  • step S34 the score calculation unit 46 determines whether or not the current time is a certain time before the getting-off time, and waits until it is determined that the time is a certain time before the getting-off time.
  • step S34 When it is determined in step S34 that the current time is a certain time before the departure time, the drowsiness determination unit 23 calculates a drowsiness score based on the sensor data detected by the sensor unit 12 in step S35.
  • step S36 the score calculation unit 46 obtains a wakefulness score.
  • step S37 the music selection / playback unit 24 performs music selection / playback processing.
  • the music selection / reproduction processing here, a music that causes a greater change in sleepiness than in the use case 1 is selected and reproduced.
  • the information processing apparatus 1 can wake up the user before the train reaches the nearest station by listening to music that causes a great change in sleepiness.
  • step S41 the work-related schedule acquisition unit 41 of the sleep / wakefulness determination unit 22 acquires the wake-up time of the next morning of the user. For example, when schedule information including the wake-up time of the next morning is stored in the work-related schedule DB 25A of the schedule DB 25, the work-related schedule acquisition unit 41 acquires the wake-up time of the next morning from the schedule information.
  • schedule information of a person who accompanies a business trip with the user of the information processing device 1 is registered in the business-related schedule DB 25A, the wake-up time of the user of the information processing device 1 is acquired based on the schedule information. May be.
  • step S42 the bedtime / wake-up time determination unit 43 obtains a recommended bedtime according to the wake-up time acquired in step S41.
  • the bedtime / wake-up time determination unit 43 obtains a recommended bedtime that is a predetermined time before the wake-up time acquired in step S41.
  • the recommended sleeping time is determined. It may be required. For example, a time after a predetermined time from the time when the accompanying person goes to bed is obtained as a recommended bedtime. In determining the recommended bedtime, the importance of the next morning schedule managed by the delivery date / achievement status / importance level management unit 42 is also taken into consideration.
  • step S43 the bedtime / wake-up time determination unit 43 determines whether or not the current time is a certain time before the recommended bedtime.
  • the bedtime / wake-up time determination unit 43 waits until it is determined in step S43 that the current time is a predetermined time before the recommended bedtime.
  • step S44 the drowsiness determination unit 23 calculates a drowsiness score based on the sensor data detected by the sensor unit 12. To do.
  • step S45 the score calculation unit 46 obtains a sleep onset score.
  • step S46 the music selection / playback unit 24 performs music selection / playback processing.
  • music selection / reproduction processing here, music that can cause the user to change sleepiness that brings the sleepiness score closer to the sleep onset score is selected and reproduced.
  • the information processing apparatus 1 can cause the user to fall asleep at an early time by listening to music that increases drowsiness.
  • step S51 the work-related schedule acquisition unit 41 of the sleep / wakefulness determination unit 22 acquires schedule information stored in the work-related schedule DB 25A of the schedule DB 25.
  • schedule information stored in the work-related schedule DB 25A of the schedule DB 25.
  • information including the start time of the next meeting is acquired.
  • the information acquired by the work-related schedule acquisition unit 41 is output to the score calculation unit 46 through the delivery date / achievement status / importance level management unit 42 and the bedtime / wake-up time determination unit 43 together with information such as the importance level of the conference.
  • step S52 the score calculation unit 46 obtains a sleep onset score when there is an idle time longer than a predetermined time until the start time of the next meeting.
  • step S53 the drowsiness determination unit 23 calculates a drowsiness score based on the sensor data detected by the sensor unit 12.
  • step S54 the music selection / playback unit 24 performs music selection / playback processing.
  • the music selection / reproduction process here is a process for causing the user to fall asleep, and the user who has listened to the reproduced music will appropriately take a nap.
  • step S55 the bedtime / wake-up time determination unit 43 determines that the user should wake up and sets the wake-up time. For example, the higher the sleepiness score, the later the wake-up time.
  • step S56 the bedtime / wake-up time determination unit 43 determines whether or not the current time is a time that is a predetermined time before the wake-up time, and waits until it is determined that the time is a predetermined time before the wake-up time.
  • step S56 If it is determined in step S56 that the current time is a certain time before the wake-up time, the drowsiness determination unit 23 calculates a drowsiness score based on the sensor data detected by the sensor unit 12 in step S57.
  • step S58 the score calculation unit 46 obtains a wakefulness score.
  • step S59 the music selection / playback unit 24 performs music selection / playback processing.
  • the music selection / reproduction process here is a process for awakening the user who takes a nap, and the user who listens to the music wakes up from the nap. After the music selection / playback process is performed and the user wakes up, the process ends.
  • the information processing apparatus 1 can make the user take a nap when there is time until the next schedule, and can wake up before the next schedule.
  • the music selection unit 81 of the music selection / playback unit 24 selects a music DB.
  • the music DB includes a large-scale user DB on a server that can be accessed by a plurality of users.
  • the information processing apparatus 1 can acquire and reproduce music data from a music DB of a large-scale user. For example, one of the music DB 26 which is a personal DB and the music DB of a large-scale user is designated and selected by the user.
  • FIG. 19 is a diagram showing an example of the metadata of music stored in the music DB.
  • 19A shows a music DB 26 (personal music DB)
  • FIG. 19B shows a music DB of a large-scale user.
  • the sleepiness score increase / decrease value is a value representing a change in sleepiness score caused to the user who listens to the music.
  • the sleep intensity represents the degree of sleep
  • the arousal intensity represents the degree of arousal.
  • the sleepiness score increase / decrease value of the music “A” in FIG. 19A is ⁇ 10
  • the sleepiness score of the user is reduced by 10. This means that the user can be awakened by the value 10.
  • the awakening intensity of the music “A” is 1.
  • the sleepiness score increase / decrease value of the music “B” in FIG. 19A is +50, which means that when the user of the information processing apparatus 1 listens to the music “B”, the user's sleepiness score is increased by 50. This means that the user can fall asleep for the value 50.
  • the sleep intensity of the music “B” is 3.
  • the sleepiness score increase / decrease value of the music DB 26 is registered in advance by, for example, detecting changes in the sleepiness score before and after listening to the music “A” and the music “B”. It is what.
  • the sleepiness score increase / decrease value in the music DB of the large-scale user in B of FIG. 19 is the sleepiness before and after listening to the music “A” and the music “B” to a plurality of users. Represents the average score change.
  • the music “A” and the music “B” are reproduced at the terminals of the respective users, the detected sleepiness score increase / decrease value is transmitted to the server, and the average value is obtained and managed by the server.
  • FIG. 20 is a diagram showing an example of the correspondence between sleepiness score increase / decrease values and sleep onset / wakefulness intensity. 20 is managed by the music selection unit 81, for example.
  • the wakefulness intensity when the sleepiness score increase / decrease value is 0 to -25, the wakefulness intensity is 1, and when the sleepiness score increase / decrease value is -25 to -50, the wakefulness intensity is 2.
  • the sleepiness score increase / decrease value is -50 to -75, the awakening intensity is 3, and when the sleepiness score increase / decrease value is -75 to -100, the awakening intensity is 4, and the sleepiness score increase / decrease value is -100 or more.
  • the arousal intensity is 5.
  • the sleepiness intensity when the sleepiness score increase / decrease value is 0-25, the sleepiness intensity is 1, and when the sleepiness score increase / decrease value is 25-50, the sleepiness intensity is 2.
  • the sleepiness score increase / decrease value when the sleepiness score increase / decrease value is 50 to 75, the sleepiness intensity is 3; when the sleepiness score increase / decrease value is 75 to 100, the sleepiness intensity is 4, and when the sleepiness score increase / decrease value is 100 or more, The strength is 5.
  • the music selection unit 81 acquires the sleepiness score obtained by the sleepiness determination unit 23 in step S72.
  • the sleepiness score obtained by the sleepiness determination unit 23 is also supplied to the information management unit 83.
  • step S73 the music selection unit 81 acquires the sleep onset score or the arousal score obtained by the sleep onset / wakefulness determination unit 22.
  • step S74 when the sleep onset score is obtained by the sleep onset / wakefulness determination unit 22, the music selection unit 81 obtains the sleep intensity based on the sleepiness score and the sleep onset score, and the sleepfulness score is obtained by the sleep onset / wakeup determination unit 22.
  • the arousal intensity is obtained based on the sleepiness score and the arousal score.
  • the sleep onset score or the arousal score can be considered as the sleepiness score that the user should be.
  • the music selection unit 81 obtains the difference between the sleepiness score and the sleepiness score, and obtains the sleepiness intensity of the sleepiness score increase / decrease value corresponding to the obtained difference from the conversion table of FIG.
  • the music selection unit 81 obtains the difference between the arousal score and the drowsiness score, and obtains the arousal intensity of the sleepiness score increase / decrease value corresponding to the obtained difference from the conversion table of FIG.
  • the music selection unit 81 obtains a difference ⁇ 70 between the sleepiness score and the sleepiness score, and the awakening intensity corresponding to the ⁇ 70 sleepiness score increase / decrease value Awakening intensity 3 is obtained.
  • step S75 the music selection unit 81 selects music having the sleep intensity or arousal intensity obtained in step S74 as metadata from the music registered in the music DB selected in step S71, and acquires data. .
  • the music selected in this way is a music that changes the sleepiness score of the user to the sleepiness score that should be present.
  • the music data selected by the music selection unit 81 and acquired from the music DB is supplied to the reproduction unit 82.
  • step S76 the playback unit 82 plays back the music selected by the music selection unit 81.
  • step S77 the drowsiness determination unit 23 obtains the user's drowsiness score again based on the sensor data detected by the sensor unit 12 after reproducing the music, and updates the drowsiness score.
  • the updated sleepiness score is closer to the sleepiness score or the awakening score than the sleepiness score before the music reproduction.
  • the updated sleepiness score is also supplied to the information management unit 83 and the detection unit 84.
  • step S78 the information management unit 83 obtains the difference between the sleepiness score after the music reproduction and the sleepiness score before the music reproduction as an increase / decrease value of the sleepiness score, and records it in a memory (not shown) or the like.
  • step S79 the detection unit 84 performs sleep / wakefulness determination processing.
  • the sleep / wakefulness determination process is a process for detecting that the user has fallen asleep when it is determined that the user should sleep, and when the user has determined that the user should wake up, It is a process to detect what happened.
  • the sleep / wakefulness determination process will be described later.
  • step S80 the information management unit 83 determines whether the user has fallen asleep or woke up based on the result of the sleep / wakefulness determination process.
  • step S80 When it is determined that the user should sleep, when it is determined in step S80 that the user has slept, or when it is determined that the user should wake up, it is determined that the user has occurred in step S80.
  • step S81 the information management unit 83 feeds back the sleepiness score increase / decrease value recorded in the memory.
  • the feedback of the sleepiness score increase / decrease value is performed by updating the sleepiness score increase / decrease value set as metadata in the reproduced music based on the new sleepiness score increase / decrease value recorded in the memory.
  • the sleepiness score increase / decrease value of the music is rewritten with the new sleepiness score increase / decrease value.
  • the sleepiness score increase / decrease value of the music is transmitted to the server.
  • the average value of the sleepiness score increase / decrease values of a plurality of users is obtained again based on the new sleepiness score increase / decrease value transmitted from the information processing apparatus 1, and the music metadata is rewritten.
  • step S15 in FIG. 13 After the sleepiness score increase / decrease value is fed back, the process returns to step S15 in FIG. 13, step S37 in FIG. 15, step S46 in FIG. 16, and steps S54 and S59 in FIG. Is called.
  • step S82 the score calculation unit 46 of the sleep / wakefulness determination unit 22 calculates and updates the sleepiness score or the sleepfulness score again. .
  • the processing after step S74 is performed. For example, when the user does not wake up even though the music for wake-up is played, the current time approaches the wake-up time, so that the wake-up score is updated, and the processes after step S74 are performed.
  • the sleep detection process is a process of detecting that the user has fallen asleep.
  • the sleep onset determination process is a process performed when it is determined that the user should sleep.
  • the detection unit 84 acquires a sleep threshold.
  • the sleep threshold is a sleepiness score that is a reference for detecting that the user has fallen asleep.
  • the sleep threshold is obtained in advance based on the sleepiness score of the user of the information processing apparatus 1 or the sleepiness scores of a plurality of users, and is stored in the storage unit 16 or the like. Has been. If the user's sleepiness score is higher than the sleep threshold, it is determined that the user has fallen asleep.
  • step S92 the detection unit 84 acquires the drowsiness score updated in step S77 of FIG.
  • step S93 the detection unit 84 determines whether or not the updated sleepiness score is equal to or higher than the sleep onset threshold. If it is determined that the updated sleepiness score is lower than the sleep onset threshold, the processing after step S92 is repeated.
  • step S93 determines in step S93 that the updated sleepiness score is greater than or equal to the sleep threshold.
  • the detection unit 84 determines in step S94 that the user has fallen asleep, and information indicating that is sent to the music selection unit 81 and the information management unit 83. Output.
  • step S94 If it is determined in step S94 that the user has fallen asleep, or if it is determined in step S93 that the drowsiness score is less than the sleep threshold value a predetermined number of times or more, the process returns to step S79 in FIG. 18 and the subsequent processing is performed. .
  • the awakening determination process is a process performed when it is determined that the user should wake up.
  • the detection unit 84 acquires an arousal threshold value.
  • the awakening threshold is a drowsiness score serving as a reference for detecting that the user has woken up, and is obtained in advance based on the drowsiness score of the user of the information processing apparatus 1 or the drowsiness scores of a plurality of users, and is stored in the storage unit 16 or the like Has been. If the user's sleepiness score is lower than the wakefulness threshold, it is determined that the user has woken up.
  • step S102 the detection unit 84 acquires the drowsiness score updated in step S77 of FIG.
  • step S103 the detection unit 84 determines whether or not the updated drowsiness score is equal to or lower than the wakefulness threshold value. If it is determined that the updated sleepiness score is greater than the wakefulness threshold value, the process from step S102 is repeated.
  • step S103 determines in step S104 that the user has occurred, and information indicating that is sent to the music selection unit 81 and the information management unit 83. Output.
  • step S104 If it is determined in step S104 that the user has woken up, or if it is determined in step S103 that the drowsiness score exceeds the awakening threshold value a predetermined number of times or more, the process returns to step S79 in FIG. Is called.
  • the process of FIG. 23 differs from the process of FIG. 21 in that the determination as to whether or not the user has fallen is performed based on the sensor data detected by the sensor unit 12.
  • step S111 the detection unit 84 acquires teacher data during sleep.
  • the sleep teacher data is the sensor data itself detected by the sensor unit 12 when the user goes to sleep, or data representing the characteristics of the sensor data extracted from the sensor data, and is stored in advance in the storage unit 16 or the like. Has been.
  • step S112 the detection unit 84 acquires the current sensor data.
  • step S113 the detection unit 84 performs matching between the acquired sensor data or the feature extracted from the sensor data and the teacher data to obtain a matching score.
  • step S114 the detection unit 84 determines whether or not the matching score is greater than or equal to a threshold value. If it is determined that the matching score is less than the threshold value, the process from step S112 is repeated.
  • step S114 determines that the matching score is greater than or equal to the threshold value
  • the detection unit 84 determines that the user has fallen asleep in step S115, and outputs information indicating that to the music selection unit 81 and the information management unit 83.
  • step S115 If it is determined in step S115 that the user has fallen asleep, or if it is determined in step S114 that the matching score is less than the predetermined number of times or more, the process returns to step S79 in FIG.
  • the process of FIG. 24 differs from the process of FIG. 22 in that the determination as to whether or not the user has occurred is performed based on the sensor data detected by the sensor unit 12.
  • step S121 the detection unit 84 acquires teacher data at awakening.
  • the teacher data at the time of awakening is the sensor data itself detected by the sensor unit 12 when the user wakes up, or data representing the characteristics of the sensor data extracted from the sensor data. Has been.
  • step S122 the detection unit 84 acquires current sensor data.
  • step S123 the detection unit 84 performs matching between the acquired sensor data or the feature extracted from the sensor data and the teacher data to obtain a matching score.
  • step S124 the detection unit 84 determines whether or not the matching score is greater than or equal to a threshold value, and if it is determined that the matching score is less than the threshold value, the process from step S122 is repeated.
  • step S124 determines in step S124 that the matching score is greater than or equal to the threshold value, the detection unit 84 determines in step S125 that the user has occurred, and outputs information indicating that to the music selection unit 81 and the information management unit 83.
  • step S125 If it is determined in step S125 that the user has occurred, or if it is determined in step S124 that the matching score is less than the predetermined number of times, the process returns to step S79 in FIG. 18 and the subsequent processing is performed.
  • the information processing apparatus 1 can lay the user down when it should sleep, and can wake up the user when it should wake up, improving the sleep efficiency of the user. It becomes possible.
  • FIG. 25 is a diagram illustrating an example of learning by the sleepiness discriminator.
  • information processing apparatuses 1A to 1D are connected to a server 101 via a network.
  • Each of the information processing apparatuses 1A to 1D has the same configuration and the same function as the information processing apparatus 1 described above.
  • Each of the information processing apparatuses 1A to 1D uploads sensor data detected by the sensor unit 12 to the server 101.
  • the server 101 accumulates the sensor data transmitted from the information processing apparatuses 1A to 1D and learns the sleepiness discriminator based on the sensor data transmitted from the information processing apparatuses 1A to 1D.
  • the server 101 transmits the data of the sleepiness discriminator updated by learning to the information processing apparatuses 1A to 1D.
  • each of the information processing apparatuses 1A to 1D can obtain a highly accurate sleepiness score.
  • various types of processing are performed in the information processing apparatus 1 including determination as to whether the user should wake up or should go to sleep.
  • the processing may be performed in the server 101.
  • the user is put to sleep or awaken by playing music, but the means for putting the user to sleep or awaken is not limited to playing music.
  • a means for causing the user to fall asleep or wake up a device that reproduces and displays an image, an air conditioner, a vibration generator, or the like that can be controlled by the information processing device 1 can be used.
  • the air conditioner when used as a means to put a user to sleep or wake up, the air conditioner is adjusted so that the room is adjusted to an appropriate temperature when the user is asleep, and the room is adjusted to be lower or higher than the appropriate temperature when the user is awakened. Processing to be controlled is performed by the information processing apparatus 1.
  • the degree to which the user should wake up is determined.
  • the degree of sleep should be determined. However, only the former determination or only the latter determination may be performed. That is, it is possible to make the information processing apparatus 1 only determine whether the user should wake up or go to sleep. It is also possible to cause the information processing apparatus 1 to make only the judgment of the degree to sleep.
  • FIG. 26 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processes using a program.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input / output interface 155 is further connected to the bus 154.
  • the input / output interface 155 is connected to an input unit 156 composed of a keyboard, a mouse, etc., and an output unit 157 composed of a display, a speaker, and the like.
  • the input / output interface 155 is connected to a storage unit 158 made up of a hard disk, a non-volatile memory, etc., a communication unit 159 made up of a network interface, etc., and a drive 160 that drives the removable media 161.
  • the CPU 151 loads the program stored in the storage unit 158 to the RAM 153 via the input / output interface 155 and the bus 154 and executes it, thereby executing the above-described series of processing. Is done.
  • the program executed by the CPU 151 is recorded on the removable medium 161 or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and is installed in the storage unit 158.
  • the program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology.
  • An acquisition unit for acquiring information representing a user's action schedule; In accordance with the user's action schedule, at least one of whether to wake up or whether to sleep and whether to wake up when to wake up, or to wake up when to sleep
  • An information processing apparatus comprising: a determination; and a first determination unit that determines at least one of the determination.
  • the first determination unit obtains a first score representing the degree to be awakened or the degree to be asleep when performing the determination of the degree to be awakened or the degree to be asleep.
  • Information processing apparatus according to (1) .
  • the information processing apparatus further including a second determination unit that obtains a second score representing the degree of sleepiness of the user based on data detected by the sensor.
  • a selection unit that selects content to be reproduced based on the first score and the second score;
  • the information processing apparatus further comprising: a reproduction unit that reproduces the content selected by the selection unit.
  • a storage unit that stores information representing a relationship between each of the content and a degree of change in sleepiness caused to a user who has viewed the content with respect to the plurality of content.
  • the selection unit selects the content that causes a change in sleepiness corresponding to a difference between the first score and the second score based on the information stored in the storage unit. ).
  • the second determination unit further obtains the second score based on data detected by the sensor after reproduction of the content, Based on the difference between the second score obtained before starting the reproduction of the content and the second score obtained after the reproduction of the content, the reproduction stored in the storage unit is performed.
  • the information processing apparatus further including an update unit that updates the information indicating a degree of change in sleepiness for the content.
  • An awakening unit that awakens the user according to the degree to be awakened when it is determined that the first judgment unit is to be awakened and the degree to be awakened is determined;
  • the (1) to (1) to (1) further comprising: a sleep unit that causes the user to fall asleep according to the degree to sleep when the first determination unit determines that the user should sleep.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Biophysics (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Operations Research (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Surgery (AREA)
  • Quality & Reliability (AREA)
  • Educational Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Anesthesiology (AREA)
  • Educational Administration (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Child & Adolescent Psychology (AREA)

Abstract

 本技術は、睡眠効率を向上させることができるようにする情報処理装置、情報処理方法、およびプログラムに関する。本技術の一側面の情報処理装置は、ユーザの行動予定を表す情報を取得する取得部と、前記ユーザの行動予定に応じて、起きるべきか寝るべきかを判断し、起きるべきと判断した場合には起きるべき程度を、寝るべきと判断した場合には寝るべき程度を判断する第1の判断部とを備える。本技術は、携帯電話機、PDA、デジタルカメラなどの携帯型の機器に適用することができる。

Description

情報処理装置、情報処理方法、およびプログラム
 本技術は、特に、睡眠効率を向上させることができるようにした情報処理装置、情報処理方法、およびプログラムに関する。
 睡眠の重要性が認識されている。慢性的な睡眠不足は、体力低下、免疫力の低下などの肉体的な影響を及ぼすとともに、うつ病などの精神的な影響を及ぼす可能性があることが分かってきている。
 一般の人も睡眠の重要性については分かっているものの、各種の事情により、睡眠時間を十分に確保することができなかったり、質の高い睡眠をとることができなかったりすることが多い。
特開2007-195664号公報
 寝ている状態から起きる場合であっても、急にたたき起こされるときと、ゆっくり起こされるときとでは、睡眠に対する起きたときの充実感が異なる。また、起きている状態から寝る場合であっても、なかなか寝付けないときと、スムーズに寝たときとでも、睡眠に対する充実感が異なる。
 このことは、睡眠時間が同じであっても、入眠の仕方、覚醒の仕方によって、睡眠効率に違いがあることを表す。
 本技術はこのような状況に鑑みてなされたものであり、睡眠効率を向上させることができるようにするものである。
 本技術の一側面の情報処理装置は、ユーザの行動予定を表す情報を取得する取得部と、前記ユーザの行動予定に応じて、起きるべきかどうかと寝るべきかどうかとのうちの少なくともいずれかの判断と、起きるべきである場合における起きるべき程度、または寝るべきである場合における寝るべき程度の判断と、のうちの少なくともいずれかの判断を行う第1の判断部とを備える。
 前記第1の判断部には、前記起きるべき程度または前記寝るべき程度の判断を行わせる場合、前記起きるべき程度または前記寝るべき程度を表す第1のスコアを求めさせることができる。
 センサにより検出されたデータに基づいて、前記ユーザの眠気の程度を表す第2のスコアを求める第2の判断部をさらに設けることができる。
 前記第1のスコアと前記第2のスコアに基づいて、再生するコンテンツを選択する選択部と、前記選択部により選択された前記コンテンツを再生する再生部とをさらに設けることができる。
 複数の前記コンテンツについて、それぞれの前記コンテンツと、前記コンテンツを視聴したユーザに生じさせる眠気の変化の程度との関係を表す情報を記憶する記憶部をさらに設けることができる。この場合、前記選択部には、前記記憶部に記憶されている前記情報に基づいて、前記第1のスコアと前記第2のスコアとの差に相当する眠気の変化を生じさせる前記コンテンツを選択させることができる。
 前記第2の判断部には、前記コンテンツの再生後に前記センサにより検出されたデータに基づいて前記第2のスコアをさらに求めさせ、前記コンテンツの再生開始前に求められた前記第2のスコアと、前記コンテンツの再生後に求められた前記第2のスコアとの差に基づいて、前記記憶部に記憶されている、再生が行われた前記コンテンツについての眠気の変化の程度を表す前記情報を更新する更新部をさらに設けることができる。
 前記第1の判断部により起きるべきであると判断されるとともに、前記起きるべき程度が判断された場合、前記起きるべき程度に応じて前記ユーザを覚醒させる覚醒部と、前記第1の判断部により寝るべきであると判断されるとともに、前記寝るべき程度が判断された場合、前記寝るべき程度に応じて前記ユーザを入眠させる入眠部とをさらに設けることができる。
 本技術の一側面においては、ユーザの行動予定を表す情報が取得され、前記ユーザの行動予定に応じて、起きるべきかどうかと寝るべきかどうかとのうちの少なくともいずれかの判断と、起きるべきである場合における起きるべき程度、または寝るべきである場合における寝るべき程度の判断と、のうちの少なくともいずれかの判断が行われる。
 本技術によれば、睡眠効率を向上させることができる。
本技術の一実施形態に係る情報処理装置を示す図である。 情報処理装置のユースケースの第1の例を示す図である。 情報処理装置のユースケースの第2の例を示す図である。 情報処理装置のユースケースの第3の例を示す図である。 情報処理装置のユースケースの第4の例を示す図である。 覚醒スコアと入眠スコアの例を示す図である。 情報処理装置のハードウェア構成例を示すブロック図である。 情報処理装置の機能構成例を示すブロック図である。 入眠/覚醒判断部の構成例を示すブロック図である。 眠気判断部の構成例を示すブロック図である。 選曲・再生部の構成例を示すブロック図である。 ユーザの起床時刻を学習する処理について説明するフローチャートである。 ユースケース1の場合の処理について説明するフローチャートである。 ユーザの最寄り駅を学習する処理について説明するフローチャートである。 ユースケース2の場合の処理について説明するフローチャートである。 ユースケース3の場合の処理について説明するフローチャートである。 ユースケース4の場合の処理について説明するフローチャートである。 楽曲選択・再生処理について説明するフローチャートである。 楽曲DBの例を示す図である。 眠気スコア増減値と入眠/覚醒強度の対応関係の例を示す図である。 入眠判定処理について説明するフローチャートである。 覚醒判定処理について説明するフローチャートである。 他の入眠判定処理について説明するフローチャートである。 他の覚醒判定処理について説明するフローチャートである。 眠気判別器の学習について示す図である。 コンピュータの構成例を示すブロック図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.情報処理装置による睡眠効率の向上の概念
 2.情報処理装置の構成例
 3.情報処理装置の動作
  第1の実施の形態(朝快適に起きる例)
  第2の実施の形態(電車での寝過ごしを防止する例)
  第3の実施の形態(早寝の例)
  第4の実施の形態(仮眠の例)
 4.楽曲選択・再生処理
 5.変形例
 1.<情報処理装置による睡眠効率の向上の概念>
 図1は、本技術の一実施形態に係る情報処理装置を示す図である。
 図1の情報処理装置1は、携帯電話機、PDA(Personal Digital Assistants)、デジタルカメラ、PND(Portable Navigation Device)などの携帯型の装置であり、ユーザが片手で把持可能な大きさの筐体を有している。情報処理装置1の筐体の前面にはLCD(Liquid Crystal Display)などよりなる表示部が設けられる。
 情報処理装置1は、ユーザの行動予定の情報が格納されたDB(Data Base)であるスケジュールDBを例えば内部のメモリに有している。情報処理装置1は、ユーザの行動予定に基づいて、ユーザがいま起きるべきであるのか、寝るべきであるのかを判断する。情報処理装置1は、ユーザが起きるべきであると判断した場合には、起きるべき程度(度合い)を数値で表す覚醒スコアを求め、寝るべきであると判断した場合には、その程度を数値で表す入眠スコアを求める。
 また、情報処理装置1は、各種のセンサにより検出されたセンサデータに基づいて、ユーザの睡眠欲、すなわち眠気を数値で表す眠気スコアを求める。
 情報処理装置1は楽曲の再生機能を有しており、眠気スコアを、覚醒スコアまたは入眠スコアに近づけるような眠気の変化をユーザに生じさせることができる楽曲を選択し、再生する。情報処理装置1が再生可能なそれぞれの楽曲には、その楽曲を聴いたユーザに生じさせる眠気の変化を表す情報がメタデータとして設定されている。情報処理装置1は、楽曲を再生して得られた音を、情報処理装置1のスピーカ、または情報処理装置1に装着されたイヤホンから出力し、ユーザに聴かせる。
 ユーザがいま寝ており、起きるべきであると判断した場合には、ユーザの眠気スコアと覚醒スコアを考慮して楽曲を選択して再生することにより、情報処理装置1は、ユーザの眠気スコアを覚醒スコアに近づけることができる。
 また、ユーザがいま起きており、寝るべきであると判断した場合には、ユーザの眠気スコアと入眠スコアを考慮して楽曲を選択して再生することにより、情報処理装置1は、ユーザの眠気スコアを入眠スコアに近づけることができる。
 起きるべき程度を表す覚醒スコア、および寝るべき程度を表す入眠スコアは、行動予定に基づいて決定される、いまあるべきユーザの眠気スコアを表すことになる。
 情報処理装置1のユースケースについて説明する。
[ユースケース1]
 図2は、情報処理装置1のユースケースの第1の例を示す図である。
 ユーザが自宅で寝ており、朝起床する場合を考える。情報処理装置1は、ユーザの行動予定に基づいて、現在時刻が午前7時などの起床時刻に近づいたことから、ユーザが起きるべきであると判断した場合、起きるべき程度を表す覚醒スコアを求める。ユーザの起床時刻は、例えばユーザの行動履歴に基づいて情報処理装置1により予め決定されている。このとき求められる覚醒スコアは、例えば、後述するように電車での寝過ごし防止のために起きるべきであると判断された場合に求められる覚醒スコアより小さいスコアになる。
 また、情報処理装置1は、センサデータに基づいてユーザの眠気スコアを求める。このとき求められる眠気スコアは、睡眠時間が長く、ユーザが既に十分に寝ている場合には小さいスコアとなり、睡眠時間が短く、ユーザがあまり寝ていない場合には大きいスコアとなる。
 情報処理装置1は、眠気スコアを覚醒スコアに近づけるような眠気の変化をユーザに生じさせることができる楽曲を選択し、再生する。覚醒スコアを一定とすると、眠気スコアが大きい場合には、大きな眠気の変化を生じさせる楽曲が再生され、眠気スコアが小さい場合には、小さな眠気の変化を生じさせる楽曲が再生されることになる。
 ユーザを覚醒させるためには眠気スコアを下げる必要がある。眠気スコアを下げる方向に大きな眠気の変化を生じさせる楽曲は、例えば、テンポが早い楽曲、音量が大きい楽曲、ボーカルの音声が含まれる楽曲である。また、眠気スコアを下げる方向に小さな眠気の変化を生じさせる楽曲は、例えば、大きな眠気の変化を生じさせる楽曲よりテンポが遅い楽曲、音量が小さい楽曲、ボーカルの音声が含まれない楽曲である。
 これにより、ユーザは、既に十分に寝ていて眠気が少ない場合には、ゆっくりとしたテンポの音楽などを聴いて快適に起きることができる。快適に起きることによって、睡眠効率が上がることになる。
[ユースケース2]
 図3は、情報処理装置1のユースケースの第2の例を示す図である。
 ユーザが電車に乗っており、座席に座って寝ている場合を考える。情報処理装置1は、ユーザの行動予定に基づいて、電車が降車駅に近づいたことからユーザがいま起きるべきであると判断した場合、起きるべき程度を表す覚醒スコアを求める。以下、降車駅がユーザの自宅または会社の最寄り駅であるとして説明するが、他の駅であってもよい。
 最寄り駅は例えばユーザの行動履歴に基づいて情報処理装置1により予め決定されている。また、乗っている電車が最寄り駅に近づいているか否かは、電車の時刻表などに基づいて情報処理装置1により決定される。このとき求められる覚醒スコアは、ユースケース1の場合に求められる覚醒スコアより大きいスコアとなる。
 また、情報処理装置1は、センサデータに基づいてユーザの眠気スコアを求める。情報処理装置1は、眠気スコアを覚醒スコアに近づけるような眠気の変化をユーザに生じさせることができる楽曲を選択し、再生する。ユースケース1の場合と同じ眠気スコアが求められたものとすると、覚醒スコアが大きいから、ユースケース1の場合と較べて、大きな眠気の変化を生じさせる楽曲が再生されることになる。
 これにより、ユーザは、大きな眠気の変化を生じさせる楽曲を聴くことにより、電車が最寄り駅に到達する前に起きることができ、寝過ごしてしまうことを防ぐことができる。寝過ごしを心配する必要がないため電車内でも安心して寝ることができ、睡眠効率が上がることになる。
[ユースケース3]
 図4は、情報処理装置1のユースケースの第3の例を示す図である。
 翌朝に早く起きなければならず、ユーザが普段より早い時刻に寝る場合を考える。情報処理装置1は、ユーザの行動予定に基づいてユーザが寝るべきであると判断した場合、推奨の就寝時刻を求める。推奨の就寝時刻は、例えば次の日の行動予定として、普段の起床時刻より早い時刻に出かける予定がある場合、出かける時刻を基準として8時間などの所定の時間だけ前の時刻を推奨するように情報処理装置1により決定される。
 情報処理装置1は、センサデータに基づいてユーザの眠気スコアを求める。このとき求められる眠気スコアは、現在時刻が普段の就寝時刻よりずいぶん前の時刻である場合には小さいスコアとなり、現在時刻が普段の就寝時刻に近い時刻である場合には大きいスコアとなる。
 また、情報処理装置1は、寝るべき程度を表す入眠スコアを求める。情報処理装置1は、眠気スコアを入眠スコアに近づけるような眠気の変化をユーザに生じさせることができる楽曲を選択し、再生する。
 ユーザを入眠させるためには眠気スコアを上げる必要がある。眠気スコアを上げる方向に小さな眠気の変化を生じさせる楽曲は、例えば、テンポが遅い楽曲、音量が小さい楽曲、ボーカルの音声が含まれない楽曲である。また、眠気スコアを上げる方向に大きな眠気の変化を生じさせる楽曲は、例えば、小さな眠気の変化を生じさせる楽曲よりテンポが非常に遅い楽曲、音量が非常に小さい楽曲、ボーカルの音声が含まれない楽曲である。
 推奨の就寝時刻に寝ることができるタイミングで再生が開始される楽曲を聴くことによって眠気が大きくなり、ユーザは、翌朝に早く起きる場合であっても早い時刻に就寝することができる。図4に示すようになかなか寝付けない場合に較べてスムーズに入眠することができ、睡眠効率が上がることになる。
[ユースケース4]
 図5は、情報処理装置1のユースケースの第4の例を示す図である。
 会社での就業時間中、次の会議までに時間があり、仮眠をとる場合を考える。情報処理装置1は、ユーザの行動予定に基づいて、次の会議の開始時刻まで時間があることを特定した場合、ユーザが寝るべきであると判断し、寝るべき程度を表す入眠スコアを求める。このとき求められる入眠スコアは、例えば、前日の仕事の終了時刻が遅いほど大きなスコアとなり、また、次の会議の開始時刻まで時間があるほど大きなスコアになる。
 また、情報処理装置1は、センサデータに基づいてユーザの眠気スコアを求める。情報処理装置1は、眠気スコアを入眠スコアに近づけるような眠気の変化をユーザに生じさせることができる楽曲を選択し、再生する。
 現在時刻が会議の開始時刻に近づいたとき、ユースケース1または2の場合と同様にしてユーザを覚醒させる処理が情報処理装置1により行われる。
 楽曲を聴くことによって眠気が大きくなり、ユーザは、次の会議まで時間がある場合には図5に示すように会社の机などで仮眠をとることができる。時間がある場合にスムーズに入眠することができ、睡眠効率が上がることになる。
[スコアの具体例]
 図6は、覚醒スコアと入眠スコアの例を示す図である。
 図6において、0より小さいスコアは覚醒スコアを表し、0より大きいスコアは入眠スコアを表す。覚醒スコアの最大を100(-100)、入眠スコアの最大を100とする。
 例えばユースケース1の場合、徐々に覚醒させたいために覚醒スコアは40(-40)として求められる。また、ユースケース2の場合、急に覚醒させたいために覚醒スコアは80(-80)として求められる。
 ユースケース3の場合、強めに入眠させたいために入眠スコアは60(+60)として求められる。また、ユースケース4の場合、仮眠であるため、入眠スコアは20(+20)として求められる。
 以上のような各ユースケースにおける情報処理装置1の動作についてはフローチャートを参照して後述する。
 2.<情報処理装置の構成例>
 図7は、情報処理装置1のハードウェア構成例を示すブロック図である。
 情報処理装置1は、コントローラ11に対して、センサ部12、カメラ13、操作部14、表示部15、記憶部16、通信部17、および再生音出力部18が接続されることによって構成される。
 コントローラ11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などより構成される。コントローラ11のCPUは、ROMからプログラムをロードしてRAMを用いて実行し、情報処理装置1の全体の動作を制御する。
 センサ部12は、ユーザの身体に関する情報である生体情報を検出するセンサ、情報処理装置1に関する情報である機器情報を検出するセンサなどの各種のセンサから構成される。ユーザの身体に関する情報を検出するセンサには、ユーザの脈拍を検出する脈拍センサ、体温を検出する体温センサ、脳波を検出する脳波センサが含まれる。これらのセンサにより検出された脈拍、体温、脳波を表すデータがコントローラ11に出力される。
 一方、情報処理装置1に関する情報を検出するセンサには、加速度センサ、ジャイロセンサ、GPS(Global Positioning System)が含まれる。これらのセンサにより検出された、情報処理装置1に生じた加速度、角度を表すデータ、情報処理装置1の位置を表すデータがコントローラ11に出力される。
 カメラ13は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子よりなり、情報処理装置1の筐体の背面側に設けられたレンズにより取り込まれた光の光電変換を行い、画像データを生成する。例えば、カメラ13は、ユーザを撮影し、顔の画像をコントローラ11に出力する。
 操作部14は、情報処理装置1の筐体表面に設けられたボタンや、表示部15を構成するLCDなどのディスプレイに積層して設けられたタッチパネルなどより構成される。操作部14は、ユーザの操作を検出し、検出した操作の内容を表す情報をコントローラ11に出力する。
 表示部15は、コントローラ11による制御に従って、画像やテキストなどの各種の情報を表示する。
 記憶部16はフラッシュメモリなどより構成される。記憶部16は、ユーザの行動予定を表すスケジュール情報のDBであるスケジュールDB、楽曲のDBである楽曲DBなどの各種の情報を記憶する。
 通信部17は、基地局からの電波を受信し、ネットワークを介して、LAN(Local Area Network)やインターネットなどのネットワーク上のサーバと通信を行う。
 再生音出力部18は、情報処理装置1に設けられたスピーカや、情報処理装置1のイヤホンジャックに装着されたイヤホンに楽曲の信号を出力する信号処理部から構成される。再生音出力部18は、コントローラ11により再生された楽曲を出力し、ユーザに聴かせる。
 図8は、情報処理装置1の機能構成例を示すブロック図である。図8に示す機能部のうちの少なくとも一部は、図7のコントローラ11により所定のプログラムが実行されることによって実現される。
 情報処理装置1においては、制御部21、入眠/覚醒判断部22、眠気判断部23、選曲・再生部24、スケジュールDB25、および楽曲DB26が実現される。
 制御部21は、センサ部12から供給されたセンサデータなどに基づいてユーザの行動を学習し、ユーザの起床時刻、および最寄り駅を特定する。制御部21は、特定した起床時刻と最寄り駅の情報をスケジュールDB25に登録する。また、制御部21は、入眠/覚醒判断部22を制御して覚醒スコアまたは入眠スコアを算出させ、眠気判断部23を制御して眠気スコアを算出させる。
 入眠/覚醒判断部22は、スケジュール情報をスケジュールDB25から読み出し、ユーザの行動予定に基づいて、ユーザが起きるべきであるのか、寝るべきであるのかを判断する。スケジュールDB25には、ユーザの業務関連(仕事関連)のスケジュール情報を格納するDBと、私生活関連のスケジュール情報を格納するDBが含まれる。
 入眠/覚醒判断部22は、ユーザが起きるべきであると判断した場合には覚醒スコアを求め、寝るべきであると判断した場合には入眠スコアを求める。入眠/覚醒判断部22は、求めた覚醒スコアまたは入眠スコアを選曲・再生部24に出力する。
 眠気判断部23は、センサ部12から供給されたセンサデータに基づいて眠気スコアを求める。眠気判断部23は、求めた眠気スコアを選曲・再生部24に出力する。
 選曲・再生部24は、入眠/覚醒判断部22により求められた覚醒スコアまたは入眠スコアと、眠気判断部23により求められた眠気スコアに基づいて楽曲を選択し、再生する。選曲・再生部24による楽曲の選択は、楽曲DB26に記憶されている楽曲を対象として行われる。
 楽曲DB26には複数の楽曲のデータが記憶されている。情報処理装置1に対する楽曲データの取り込みはユーザにより予め行われている。楽曲DB26にデータが記憶されているそれぞれの楽曲には、その楽曲を聴いたユーザに生じさせる眠気の変化を表す情報がメタデータとして設定されている。
 なお、スケジュールDB25と楽曲DB26は、ネットワーク上のサーバにおいて実現されるようにすることも可能である。この場合、スケジュールDB25、楽曲DB26と、図8の各部の間で行われるデータの送受信は通信部17を介して行われる。
 図9は、入眠/覚醒判断部22の構成例を示すブロック図である。
 入眠/覚醒判断部22は、業務関連スケジュール取得部41、納期・達成状況・重要度管理部42、就寝/起床時刻決定部43、私生活関連スケジュール取得部44、就寝/起床時刻決定部45、およびスコア算出部46から構成される。
 業務関連スケジュール取得部41は、スケジュールDB25を構成する業務関連スケジュールDB25Aから、ユーザの業務関連のスケジュール情報を読み出して取得する。業務関連のスケジュールには、例えば会議の開始時刻、出張の出発時刻、所定の書類の作成期限、昼食の時刻などが含まれる。業務関連スケジュール取得部41は、取得したスケジュール情報を納期・達成状況・重要度管理部42に出力する。
 納期・達成状況・重要度管理部42は、商品の納期、仕事の達成状況、スケジュールとして登録されている各項目の重要度などの情報を管理する。納期・達成状況・重要度管理部42が管理する情報は例えばユーザにより予め設定される。
 納期・達成状況・重要度管理部42は、業務関連スケジュール取得部41から供給されたスケジュール情報を、商品の納期、仕事の達成状況、スケジュールの重要度などの情報とともに就寝/起床時刻決定部43に出力する。例えば、納期・達成状況・重要度管理部42は、会議の開始時刻を含む情報が業務関連スケジュール取得部41から供給された場合、業務関連スケジュール取得部41から供給された情報とともに、その会議の重要度の情報を出力する。
 就寝/起床時刻決定部43は、納期・達成状況・重要度管理部42から供給された情報を取得し、スケジュールに応じて、ユーザが起きるべきであるのか、寝るべきであるのかを判断する。就寝/起床時刻決定部43は、ユーザが起きるべきであると判断した場合には起床時刻を決定し、寝るべきであると判断した場合には就寝時刻を決定する。
 例えば、就寝/起床時刻決定部43は、次の会議の開始時刻まで時間があることを特定した場合、ユーザが寝るべきであると判断する。また、就寝/起床時刻決定部43は、次の会議の開始時刻から所定の時間だけ前の時刻を起床時刻として決定する。就寝/起床時刻決定部43は、このようにして決定した起床時刻または就寝時刻の情報をスコア算出部46に出力する。
 私生活関連スケジュール取得部44は、スケジュールDB25の私生活関連スケジュールDB25Bからユーザの私生活関連のスケジュール情報を読み出して取得する。私生活関連のスケジュールには、例えばユーザの普段の起床時刻、就寝時刻、最寄り駅などが含まれる。私生活関連スケジュール取得部44は、取得したスケジュール情報を就寝/起床時刻決定部45に出力する。
 就寝/起床時刻決定部45は、私生活関連スケジュール取得部44から供給されたスケジュール情報を取得し、スケジュールに応じて、ユーザが起きるべきであるのか、寝るべきであるのかを判断する。就寝/起床時刻決定部45は、ユーザが起きるべきであると判断した場合には起床時刻を決定し、寝るべきであると判断した場合には就寝時刻を決定する。
 例えば、就寝/起床時刻決定部45は、ユーザの普段の起床時刻を含むスケジュール情報を取得し、現在時刻が起床時刻に近づいた場合、ユーザが起きるべきであると判断する。就寝/起床時刻決定部45は、普段の起床時刻から所定の時間だけ前の時刻を起床時刻として決定する。就寝/起床時刻決定部45は、このようにして決定した起床時刻または就寝時刻の情報をスコア算出部46に出力する。
 スコア算出部46は、就寝/起床時刻決定部43または就寝/起床時刻決定部45により起床時刻が決定された場合、起床時刻と現在時刻に基づいて覚醒スコアを算出する。一方、スコア算出部46は、就寝/起床時刻決定部43または就寝/起床時刻決定部45により就寝時刻が決定された場合、就寝時刻と現在時刻に基づいて入眠スコアを算出する。
 例えば、スコア算出部46は、就寝/起床時刻決定部43または就寝/起床時刻決定部45により決定された起床時刻が、現在時刻から10分後の時刻である場合、現在時刻から30分後の時刻である場合より大きな覚醒スコアを算出する。このように、スコア算出部46は、現在時刻から起床時刻までの時間が長いほど小さなスコアを求め、反対に、現在時刻から起床時刻までの時間が短いほど大きなスコアを求めるようにして覚醒スコアを算出する。
 同様に、スコア算出部46は、就寝/起床時刻決定部43または就寝/起床時刻決定部45により決定された就寝時刻が、現在時刻から10分後の時刻である場合、現在時刻から30分後の時刻である場合より大きな入眠スコアを算出する。このように、スコア算出部46は、現在時刻から就寝時刻までの時間が長いほど小さなスコアを求め、反対に、現在時刻から就寝時刻までの時間が短いほど大きなスコアを求めるようにして入眠スコアを算出する。
 スコア算出部46は、算出した入眠スコアまたは覚醒スコアを選曲・再生部24に出力する。
 図10は、眠気判断部23の構成例を示すブロック図である。
 眠気判断部23は、センサデータ取得部61、特徴量抽出部62、眠気判別部63、顔認識部64、顔動作判別部65、およびスコア算出部66から構成される。センサデータ取得部61は、生体情報取得部71、機器情報取得部72、および撮像画像取得部73から構成される。
 センサデータ取得部61の生体情報取得部71は、センサ部12を構成するセンサのうちの生体情報を検出するセンサから出力されたセンサデータを取得する。生体情報取得部71は、脈拍センサにより検出されたユーザの脈拍、体温センサにより検出されたユーザの体温、脳波センサにより検出されたユーザの脳波の情報である生体情報を特徴量抽出部62に出力する。
 機器情報取得部72は、センサ部12を構成するセンサのうちの機器情報を検出するセンサから出力されたセンサデータを取得する。機器情報取得部72は、加速度センサにより検出された加速度、ジャイロセンサにより検出された角度の情報である機器情報を特徴量抽出部62に出力する。
 撮像画像取得部73は、カメラ13により撮影されたユーザの顔の画像を取得し、顔認識部64に出力する。
 特徴量抽出部62は、生体情報取得部71から供給された生体情報を解析し、生体情報の特徴量を抽出する。また、特徴量抽出部62は、機器情報取得部72から供給された機器情報を解析し、機器情報の特徴量を抽出する。特徴量抽出部62は、抽出した生体情報の特徴量と機器情報の特徴量を眠気判別部63に出力する。
 眠気判別部63は、予め与えられている教師データと、眠気判別部63から供給された特徴量とのマッチングを行うことによってユーザの眠気を判別する眠気判別器である。眠気判別部63に対しては、例えば、人が寝ているときの生体情報から抽出された特徴量と、機器情報から抽出された特徴量とが教師データとして与えられている。
 眠気判別部63は、生体情報の教師データと、特徴量抽出部62により生体情報から抽出された特徴量とのマッチングを行い、マッチングスコアを求める。また、眠気判別部63は、機器情報の教師データと、特徴量抽出部62により機器情報から抽出された特徴量とのマッチングを行い、マッチングスコアを求める。例えば、眠気判別部63は、求めたマッチングスコアを、ユーザの眠気を表す情報としてスコア算出部66に出力する。
 なお、眠気判別部63による眠気の判別は、生体情報と機器情報に含まれる複数のセンサデータのうちの少なくとも一部のセンサデータを用いて行われる。例えば、ユーザが外出中であり、生体情報を取得することができない場合、機器情報のみに基づいてユーザの眠気が判別される。
 顔認識部64は、撮像画像取得部73により取得された画像を解析することによって、画像に写るユーザの顔を認識する。また、顔認識部64は、認識した顔の特徴を抽出し、顔動作判別部65に出力する。例えば、ユーザの目の特徴が顔認識部64により抽出される。
 顔動作判別部65は、顔認識部64から供給された特徴量に基づいて、ユーザの目が開いているか否か、まばたきをしているか否かなどの、寝ているか否かを判別する基準となるユーザの顔の動作の判別を行う。顔動作判別部65は、ユーザの顔の動作の判別結果を表す情報をスコア算出部66に出力する。
 ユーザの顔の動作の判別結果として、例えば、ユーザの目が開いている、または開いていない可能性を表すスコア、ユーザがまばたきをしている、またはまばたきをしていない可能性を表すスコアがスコア算出部66に出力される。例えば、所定の単位時間あたりのユーザのまばたきの回数が閾値の回数より少ない場合、ユーザが眠い可能性が高いとして判断される。
 スコア算出部66は、眠気判別部63から供給されたユーザの眠気を表す情報と、顔動作判別部65から供給されたユーザの顔の動作の判別結果に基づいて眠気スコアを算出する。眠気スコアの算出には現在時刻も考慮される。スコア算出部66は、算出した眠気スコアの情報を選曲・再生部24に出力する。
 生体情報などに基づいて人の眠気を検出する技術については、例えば特開2011-48531号公報、特開2011-22738号公報に開示されている。
 図11は、選曲・再生部24の構成例を示すブロック図である。
 選曲・再生部24は、選曲部81、再生部82、情報管理部83、および検出部84から構成される。入眠/覚醒判断部22から供給された入眠スコアまたは覚醒スコアは選曲部81に入力され、眠気判断部23から供給された眠気スコアは選曲部81、情報管理部83、および検出部84にそれぞれ入力される。
 選曲部81は、楽曲DB26に記憶されている楽曲の中から、再生する楽曲を入眠/覚醒判断部22から供給された入眠スコアまたは覚醒スコアと、眠気判断部23から供給された眠気スコアとに基づいて選択する。選曲部81は、選択した楽曲のデータを楽曲DB26から読み出し、再生部82に出力する。
 再生部82は、選曲部81により選択された楽曲を再生し、再生して得られた音を再生音出力部18から出力する。
 情報管理部83は、再生部82による楽曲再生前の眠気スコアと、楽曲再生後に検出されたセンサデータから求められた眠気スコアとに基づいて、再生した楽曲のメタデータを更新する。メタデータの更新は、例えば、楽曲を再生することによってユーザが寝たことが検出されたとき、または、楽曲を再生することによってユーザが起きたことが検出されたときに行われる。
 検出部84は、入力された眠気スコアに基づいて、ユーザが起きているか寝ているかを検出する。検出部84は、ユーザが寝るべきであると判断された場合において、楽曲を再生することによってユーザが寝たことを検出したとき、そのことを表す情報を選曲部81と情報管理部83に出力する。また、検出部84は、ユーザが起きるべきであると判断された場合において、楽曲を再生することによってユーザが起きたことを検出したとき、そのことを表す情報を選曲部81と情報管理部83に出力する。
 選曲部81による楽曲の選択、情報管理部83によるメタデータの更新、および、検出部84によるユーザの状態の検出については後に詳述する。
 3.<情報処理装置の動作>
 次に、以上のような構成を有する情報処理装置1の動作について説明する。
[第1の実施の形態(朝快適に起きる例)]
 朝の起床時刻に合わせて楽曲を再生し、ユーザを快適に起こすユースケース1の場合の処理について説明する。
 はじめに、図12のフローチャートを参照して、ユーザの普段の起床時刻を学習する情報処理装置1の処理について説明する。図12の処理は、例えば、情報処理装置1が有するアラーム機能によって起床時刻が設定された後に行われる。起床時刻になったとき、制御部21は、再生音出力部18からアラーム音を出力する。
 ステップS1において、制御部21は、ユーザの起床を検出したか否かを判定し、起床を検出したと判定するまで待機する。ユーザが起床したか否かは、アラーム音の停止操作がユーザにより行われたか否かに基づいて判定される。ユーザが起床したか否かが、後述するようにして眠気スコアやセンサデータに基づいて判定されるようにしてもよい。
 アラーム音の停止操作が行われたことから、ユーザの起床を検出したとステップS1において判定した場合、ステップS2において、制御部21は現在時刻を取得する。
 ステップS3において、制御部21は、現在時刻を含む時間帯の起床頻度を求める。例えば、制御部21は、毎日のユーザの起床時刻の履歴をスケジュールDB25に記憶させて管理している。制御部21は、スケジュールDB25に記憶させている履歴に基づいて、15分毎などの所定の時間帯のうち、現在時刻を含む時間帯の起床頻度を求める。
 ステップS4において、制御部21は、現在時刻を含む時間帯の起床頻度が閾値となる所定の回数以上であるか否かを判定する。現在時刻を含む時間帯の起床頻度が所定の回数未満であるとステップS4において判定した場合、ステップS1に戻り、以上の処理が繰り返される。
 一方、現在時刻を含む時間帯の起床頻度が所定の回数以上であるとステップS4において判定した場合、ステップS5において、制御部21は、現在時刻を含む時間帯を起床時間帯として決定する。制御部21は、決定した起床時間帯の開始時刻などの、起床時間帯のうちの所定の時刻を起床時刻とし、起床時刻の情報をスケジュールDB25の私生活関連スケジュールDB25Bに記憶させる。その後、処理は終了する。
 次に、図13のフローチャートを参照して、ユーザの起床時刻に合わせて楽曲を再生する情報処理装置1の処理について説明する。図13の処理は、例えばユーザが寝ているときに行われる。
 ステップS11において、入眠/覚醒判断部22の私生活関連スケジュール取得部44(図9)は、学習によって得られた普段の起床時刻の情報を私生活関連スケジュールDB25Bから取得する。就寝/起床時刻決定部45は、私生活関連スケジュールDB25Bから取得した普段の起床時刻を起床時刻として決定する。
 ステップS12において、スコア算出部46は、ユーザが起きるべきであると判定し、現在時刻が起床時刻の一定時間前の時刻であるか否かを判定する。スコア算出部46は、現在時刻が起床時刻の一定時間前の時刻であるとステップS12において判定するまで待機する。
 現在時刻が起床時刻の一定時間前の時刻であるとステップS12において判定された場合、ステップS13において、眠気判断部23は、センサ部12により検出されたセンサデータに基づいて眠気スコアを算出する。
 ステップS14において、入眠/覚醒判断部22のスコア算出部46は覚醒スコアを求める。
 ステップS15において、選曲・再生部24は楽曲選択・再生処理を行う。楽曲選択・再生処理により、眠気スコアを覚醒スコアに近づけるような眠気の変化をユーザに生じさせることができる楽曲が選択され、再生が行われる。楽曲選択・再生処理については後述する。楽曲選択・再生処理が行われ、ユーザが起きた後、処理は終了する。
 以上の処理により、情報処理装置1は、ユーザの眠気が少ない場合にはゆっくりとしたテンポの音楽を再生することによってユーザを快適に起こすことが可能になる。
[第2の実施の形態(電車での寝過ごしを防止する例)]
 最寄り駅に近づくことに合わせて楽曲を再生し、電車での寝過ごしを防止するユースケース2の場合の処理について説明する。
 はじめに、図14のフローチャートを参照して、ユーザの最寄り駅を学習する情報処理装置1の処理について説明する。図14の処理は、例えばユーザが電車に乗っていることが検出されたときに開始される。
 例えば、GPSにより検出された現在位置が電車の線路上の位置であり、位置の移動速度が電車の速度と同等の速度である場合に電車に乗っていることが検出される。また、センサ部12により検出された振動の特徴が、電車内で検出される振動の特徴と一致する場合に電車に乗っていることが検出されるようにすることも可能である。電車の速度、電車内で検出される振動の特徴を表す情報は例えば記憶部16に予め記憶されている。ユーザによる操作に応じて、電車に乗っていることが検出されるようにしてもよい。
 ステップS21において、制御部21は、ユーザの降車を検出したか否かを判定し、降車を検出したと判定するまで待機する。例えば、GPSにより検出された現在位置が電車の駅の位置であり、移動速度が徒歩の速度である場合に降車したことが検出される。ユーザによる操作に応じて、降車したことが検出されるようにしてもよい。
 ステップS22において、制御部21は日時情報と位置情報を取得する。位置情報はGPSにより取得される。
 ステップS23において、制御部21は、取得した位置情報に基づいて降車駅を特定する。例えば、制御部21は、位置情報により表される位置を地図上において特定し、特定した位置が駅の位置である場合にはその駅を降車駅として特定する。制御部21に予め与えられている地図には、各駅の位置の情報が含まれている。
 ステップS24において、制御部21は、特定した降車駅での所定期間内の降車頻度を求める。例えば、制御部21は、降車駅の特定を毎日行い、降車駅の履歴をスケジュールDB25に記憶させて管理している。制御部21は、スケジュールDB25に記憶させている履歴に基づいて、1週間などの所定の期間内の降車頻度を求める。
 ステップS25において、制御部21は、ステップS24で求めた降車頻度が閾値となる所定の回数以上であるか否かを判定する。降車頻度が所定の回数未満であるとステップS25において判定された場合、ステップS21に戻り、以上の処理が繰り返される。
 一方、降車頻度が所定の回数以上であるとステップS25において判定した場合、ステップS26において、制御部21は、特定した降車駅を最寄り駅として決定する。制御部21は、最寄り駅の情報をスケジュールDB25の私生活関連スケジュールDB25Bに記憶させ、処理を終了させる。
 次に、図15のフローチャートを参照して、降車に合わせて楽曲を再生する情報処理装置1の処理について説明する。
 ステップS31において、制御部21は、ユーザが電車に乗ったか否かを判定し、電車に乗ったと判定するまで待機する。ユーザが電車に乗っているか否かは、例えば上述したようにGPSにより検出された現在位置と地図とを用いて判定される。
 ユーザが電車に乗ったとステップS31において判定した場合、ステップS32において、私生活関連スケジュール取得部44は、ユーザが乗った電車の時刻表の情報を取得する。ユーザが乗った電車は、例えば、乗車駅の位置と、GPSにより検出されたユーザの移動方向に基づいて検出される。ユーザが乗車した電車の時刻表の情報は、例えば、所定のサーバから予めダウンロードされ、私生活関連スケジュールDB25Bに記憶されている。
 ステップS33において、就寝/起床時刻決定部45は、私生活関連スケジュール取得部44により取得された時刻表を参照し、ユーザが乗っている電車が最寄り駅に到着する時刻を特定する。スコア算出部46は、特定した到着時刻を降車時刻、すなわち電車の中で寝ているユーザの起床時刻として決定する。
 ステップS34において、スコア算出部46は、現在時刻が降車時刻の一定時間前の時刻であるか否かを判定し、降車時刻の一定時間前の時刻であると判定するまで待機する。
 現在時刻が降車時刻の一定時間前の時刻であるとステップS34において判定された場合、ステップS35において、眠気判断部23は、センサ部12により検出されたセンサデータに基づいて眠気スコアを算出する。
 ステップS36において、スコア算出部46は覚醒スコアを求める。
 ステップS37において、選曲・再生部24は楽曲選択・再生処理を行う。ここでの楽曲選択・再生処理により、ユースケース1の場合と較べて大きな眠気の変化を生じさせる楽曲が選択され、再生が行われる。楽曲選択・再生処理が行われ、ユーザが起きた後、処理は終了する。
 以上の処理により、情報処理装置1は、大きな眠気の変化を生じさせる楽曲を聴かせることによって、電車が最寄り駅に到達する前にユーザを起こすことができる。
[第3の実施の形態(早寝の例)]
 図16のフローチャートを参照して、推奨の就寝時刻に合わせて楽曲を再生し、早寝を促すユースケース3の場合の情報処理装置1の処理について説明する。
 ステップS41において、入眠/覚醒判断部22の業務関連スケジュール取得部41は、ユーザの翌朝の起床時刻を取得する。例えば、翌朝の起床時刻を含むスケジュール情報がスケジュールDB25の業務関連スケジュールDB25Aに記憶されている場合、業務関連スケジュール取得部41は、そのスケジュール情報から翌朝の起床時刻を取得する。業務関連スケジュールDB25Aに、情報処理装置1のユーザと出張などに同行する人のスケジュール情報が登録されている場合、そのスケジュール情報に基づいて情報処理装置1のユーザの起床時刻が取得されるようにしてもよい。
 ステップS42において、就寝/起床時刻決定部43は、ステップS41において取得された起床時刻に応じて推奨の就寝時刻を求める。例えば、就寝/起床時刻決定部43は、ステップS41において取得された起床時刻の所定の時間だけ前の時刻を推奨の就寝時刻として求める。
 同行する人が有する端末によりその同行する人が就寝していることが検出され、そのことを表す情報がサーバなどを介して情報処理装置1により受信されたことに応じて、推奨の就寝時刻が求められるようにしてもよい。例えば同行する人が就寝した時刻から所定の時間だけ後の時刻が推奨の就寝時刻として求められる。推奨の就寝時刻の決定には、適宜、納期・達成状況・重要度管理部42により管理されている翌朝の予定の重要度なども考慮される。
 ステップS43において、就寝/起床時刻決定部43は、現在時刻が推奨の就寝時刻の一定時間前の時刻であるか否かを判定する。就寝/起床時刻決定部43は、現在時刻が推奨の就寝時刻の一定時間前の時刻であるとステップS43において判定するまで待機する。
 現在時刻が推奨の就寝時刻の一定時間前の時刻であるとステップS43において判定された場合、ステップS44において、眠気判断部23は、センサ部12により検出されたセンサデータに基づいて眠気スコアを算出する。
 ステップS45においてスコア算出部46は入眠スコアを求める。
 ステップS46において、選曲・再生部24は楽曲選択・再生処理を行う。ここでの楽曲選択・再生処理により、眠気スコアを入眠スコアに近づけるような眠気の変化をユーザに生じさせることができる楽曲が選択され、再生される。楽曲選択・再生処理が行われ、ユーザが寝た後、処理は終了する。
 以上の処理により、情報処理装置1は、眠気が大きくなる楽曲を聴かせることによって、ユーザを早い時刻に入眠させることが可能になる。
[第4の実施の形態(仮眠の例)]
 図17のフローチャートを参照して、次の会議までの時間に仮眠をとらせるために楽曲を再生し、仮眠を促すユースケース4の場合の情報処理装置1の処理について説明する。
 ステップS51において、入眠/覚醒判断部22の業務関連スケジュール取得部41は、スケジュールDB25の業務関連スケジュールDB25Aに記憶されているスケジュール情報を取得する。ここでは、例えば次の会議の開始時刻を含む情報が取得される。業務関連スケジュール取得部41により取得された情報は、会議の重要度などの情報とともに、納期・達成状況・重要度管理部42と就寝/起床時刻決定部43を介してスコア算出部46に出力される。
 ステップS52において、スコア算出部46は、次の会議の開始時刻まで所定の時間以上の空き時間がある場合、入眠スコアを求める。
 ステップS53において、眠気判断部23は、センサ部12により検出されたセンサデータに基づいて眠気スコアを算出する。
 ステップS54において、選曲・再生部24は楽曲選択・再生処理を行う。ここでの楽曲選択・再生処理はユーザを入眠させるための処理であり、再生された楽曲を聴いたユーザは適宜仮眠に入ることになる。
 ユーザが仮眠に入った後、ステップS55において、就寝/起床時刻決定部43は、ユーザが起きるべきであると判定し、起床時刻を設定する。例えば、眠気スコアが高いほど、起床時刻は遅い時刻になる。
 ステップS56において、就寝/起床時刻決定部43は、現在時刻が起床時刻の一定時間前の時刻であるか否かを判定し、起床時刻の一定時間前の時刻であると判定するまで待機する。
 現在時刻が起床時刻の一定時間前の時刻であるとステップS56において判定された場合、ステップS57において、眠気判断部23は、センサ部12により検出されたセンサデータに基づいて眠気スコアを算出する。
 ステップS58において、スコア算出部46は覚醒スコアを求める。
 ステップS59において、選曲・再生部24は楽曲選択・再生処理を行う。ここでの楽曲選択・再生処理は、仮眠をとっているユーザを覚醒させるための処理であり、楽曲を聴いたユーザは仮眠から起きることになる。楽曲選択・再生処理が行われ、ユーザが起きた後、処理は終了する。
 以上の処理により、情報処理装置1は、次の予定までに時間がある場合にはユーザに仮眠をとらせることができ、また、次の予定の前に起床させることが可能になる。
 4.<楽曲選択・再生処理>
 ここで、図18のフローチャートを参照して、図13のステップS15、図15のステップS37、図16のステップS46、および図17のステップS54,S59において行われる楽曲選択・再生処理について説明する。
 ステップS71において、選曲・再生部24の選曲部81は楽曲DBを選択する。楽曲DBには、情報処理装置1内にある個人用のDBである楽曲DB26の他に、複数のユーザがアクセス可能なサーバ上の大規模ユーザのDBがある。情報処理装置1は大規模ユーザの楽曲DBから楽曲データを取得して再生することが可能とされている。例えば、個人用のDBである楽曲DB26と、大規模ユーザの楽曲DBのうちのいずれかがユーザにより指定され、選択される。
 図19は、楽曲DBに記憶されている楽曲のメタデータの例を示す図である。図19のAは楽曲DB26(個人用の楽曲DB)を示し、図19のBは大規模ユーザの楽曲DBを示している。
 図19のA、図19のBに示すように、楽曲DBにおいては、楽曲名、眠気スコア増減値、入眠/覚醒強度(入眠強度、覚醒強度)のメタデータが、各楽曲と対応付けて管理されている。眠気スコア増減値は、その楽曲を聴いたユーザに生じさせる眠気スコアの変化を表す値である。入眠強度は入眠の程度を表し、覚醒強度は覚醒の程度を表す。
 例えば、図19のAの楽曲“A”の眠気スコア増減値が-10であることは、楽曲“A”を情報処理装置1のユーザが聴いたときに、ユーザの眠気スコアを10だけ減らすことができる、すなわち、値10の分だけユーザを覚醒させることができることを表す。この場合、楽曲“A”の覚醒強度は1となる。
 また、図19のAの楽曲“B”の眠気スコア増減値が+50であることは、楽曲“B”を情報処理装置1のユーザが聴いたときに、ユーザの眠気スコアを50だけ増やすことができる、すなわち、値50の分だけユーザを入眠させることができることを表す。この場合、楽曲“B”の入眠強度は3となる。
 楽曲DB26の眠気スコア増減値は、例えば、楽曲“A”と楽曲“B”をユーザに聴かせたときの、聴かせる前と聴かせた後の眠気スコアの変化を検出することによって予め登録されているものである。
 また、図19のBの大規模ユーザの楽曲DBの眠気スコア増減値は、楽曲“A”と楽曲“B”を複数のユーザに聴かせたときの、聴かせる前と聴かせた後の眠気スコアの変化の平均値を表す。それぞれのユーザの端末において楽曲“A”と楽曲“B”が再生され、検出された眠気スコア増減値がサーバに送信され、サーバにおいて平均値が求められて管理される。
 図20は、眠気スコア増減値と入眠/覚醒強度の対応関係の例を示す図である。図20の対応関係を表す変換表のデータが例えば選曲部81により管理される。
 図20の例においては、眠気スコア増減値が0~-25である場合、覚醒強度1とされ、眠気スコア増減値が-25~-50である場合、覚醒強度2とされている。また、眠気スコア増減値が-50~-75である場合、覚醒強度3とされ、眠気スコア増減値が-75~-100である場合、覚醒強度4とされ、眠気スコア増減値が-100以上である場合、覚醒強度5とされている。
 一方、眠気スコア増減値が0~25である場合、入眠強度1とされ、眠気スコア増減値が25~50である場合、入眠強度2とされている。また、眠気スコア増減値が50~75である場合、入眠強度3とされ、眠気スコア増減値が75~100である場合、入眠強度4とされ、眠気スコア増減値が100以上である場合、入眠強度5とされている。
 図18の説明に戻り、ステップS71において楽曲DBを選択した後、ステップS72において、選曲部81は、眠気判断部23により求められた眠気スコアを取得する。眠気判断部23により求められた眠気スコアは情報管理部83にも供給される。
 ステップS73において、選曲部81は、入眠/覚醒判断部22により求められた入眠スコアまたは覚醒スコアを取得する。
 ステップS74において、選曲部81は、入眠スコアが入眠/覚醒判断部22により求められた場合、眠気スコアと入眠スコアに基づいて入眠強度を求め、覚醒スコアが入眠/覚醒判断部22により求められた場合、眠気スコアと覚醒スコアに基づいて覚醒強度を求める。上述したように、入眠スコアまたは覚醒スコアはユーザのいまあるべき眠気スコアとして考えられる。選曲部81は、入眠スコアと眠気スコアの差を求め、求めた差に相当する眠気スコア増減値の入眠強度を図19の変換表から求める。また、選曲部81は、覚醒スコアと眠気スコアの差を求め、求めた差に相当する眠気スコア増減値の覚醒強度を図19の変換表から求める。
 例えば、ユーザの眠気スコアが50であり、入眠スコアが-20であるとすると、選曲部81は、入眠スコアと眠気スコアの差-70を求め、-70の眠気スコア増減値に対応する覚醒強度である覚醒強度3を求める。
 ステップS75において、選曲部81は、ステップS71で選択した楽曲DBに登録されている楽曲の中から、ステップS74で求めた入眠強度または覚醒強度をメタデータとして有する楽曲を選択し、データを取得する。このようにして選択された楽曲は、ユーザの眠気スコアを、いまあるべき眠気スコアに変化させるような楽曲となる。選曲部81により選択され、楽曲DBから取得された楽曲データは再生部82に供給される。
 ステップS76において、再生部82は、選曲部81により選択された楽曲を再生する。
 ステップS77において、眠気判断部23は、楽曲再生後にセンサ部12により検出されたセンサデータに基づいてユーザの眠気スコアを再度求め、眠気スコアを更新する。通常、更新後の眠気スコアは、楽曲再生前の眠気スコアから、入眠スコアまたは覚醒スコアに近づくことになる。更新された眠気スコアは情報管理部83と検出部84にも供給される。
 ステップS78において、情報管理部83は、楽曲再生後の眠気スコアと、楽曲再生前の眠気スコアとの差を眠気スコア増減値として求め、図示せぬメモリなどに記録させる。
 ステップS79において、検出部84は入眠/覚醒判定処理を行う。入眠/覚醒判定処理は、ユーザが寝るべきであると判定されている場合には、ユーザが寝たことを検出する処理となり、ユーザが起きるべきであると判定されている場合には、ユーザが起きたことを検出する処理となる。入眠/覚醒判定処理については後述する。
 ステップS80において、情報管理部83は、入眠/覚醒判定処理の結果に基づいて、ユーザが寝たか、または起きたかを判定する。
 ユーザが寝るべきであると判定されている場合において、ユーザが寝たとステップS80で判定されたとき、または、ユーザが起きるべきであると判定されている場合において、ユーザが起きたとステップS80で判定されたとき、ステップS81において、情報管理部83は、メモリに記録させておいた眠気スコア増減値をフィードバックする。
 眠気スコア増減値のフィードバックは、再生した楽曲にメタデータとして設定されている眠気スコア増減値を、メモリに記録させておいた新たな眠気スコア増減値に基づいて更新するようにして行われる。
 例えば、再生した楽曲が楽曲DB26から選択された楽曲である場合、その楽曲の眠気スコア増減値が新たな眠気スコア増減値によって書き換えられる。また、再生した楽曲が大規模ユーザの楽曲DBから選択された楽曲である場合、その楽曲の眠気スコア増減値がサーバに対して送信される。サーバにおいては、情報処理装置1から送信されてきた新たな眠気スコア増減値に基づいて複数のユーザの眠気スコア増減値の平均値が再度求められ、楽曲のメタデータが書き換えられる。
 眠気スコア増減値のフィードバックが行われた後、図13のステップS15、図15のステップS37、図16のステップS46、および図17のステップS54,S59の各処理に戻り、それ以降の処理が行われる。
 一方、ユーザが寝ていない、または起きていないとステップS80において判定された場合、ステップS82において、入眠/覚醒判断部22のスコア算出部46は、入眠スコアまたは覚醒スコアを再度計算して更新する。入眠スコアまたは覚醒スコアが更新された後、ステップS74以降の処理が行われる。例えば、起床用の楽曲が再生されたにも関わらずユーザが起きない場合、現在時刻が起床時刻に近づくことによってより大きな覚醒スコアに更新され、ステップS74以降の処理が行われる。
 ここで、図18のステップS79において行われる入眠/覚醒判定処理について説明する。
 はじめに、図21のフローチャートを参照して、ユーザが寝たことを検出する処理である入眠判定処理について説明する。入眠判定処理は、ユーザが寝るべきであると判定されている場合に行われる処理である。
 ステップS91において、検出部84は入眠閾値を取得する。入眠閾値は、ユーザが寝たことを検出する基準となる眠気スコアであり、情報処理装置1のユーザの眠気スコアや、複数のユーザの眠気スコアに基づいて予め求められ、記憶部16などに記憶されている。ユーザの眠気スコアが入眠閾値より高い場合、ユーザが寝たとして判定される。
 ステップS92において、検出部84は、図18のステップS77で更新された眠気スコアを取得する。
 ステップS93において、検出部84は、更新された眠気スコアが入眠閾値以上であるか否かを判定し、入眠閾値未満であると判定した場合、ステップS92以降の処理を繰り返す。
 一方、更新された眠気スコアが入眠閾値以上であるとステップS93において判定した場合、ステップS94において検出部84はユーザが寝たと判定し、そのことを表す情報を選曲部81と情報管理部83に出力する。
 ステップS94においてユーザが寝たと判定された場合、または、ステップS93において眠気スコアが入眠閾値未満であると所定の回数以上判定された場合、図18のステップS79に戻り、それ以降の処理が行われる。
 次に、図22のフローチャートを参照して、ユーザが起きたことを検出する処理である覚醒判定処理について説明する。覚醒判定処理は、ユーザが起きるべきであると判定されている場合に行われる処理である。
 ステップS101において、検出部84は覚醒閾値を取得する。覚醒閾値は、ユーザが起きたことを検出する基準となる眠気スコアであり、情報処理装置1のユーザの眠気スコアや、複数のユーザの眠気スコアに基づいて予め求められ、記憶部16などに記憶されている。ユーザの眠気スコアが覚醒閾値より低い場合、ユーザが起きたとして判定される。
 ステップS102において、検出部84は、図18のステップS77で更新された眠気スコアを取得する。
 ステップS103において、検出部84は、更新された眠気スコアが覚醒閾値以下であるか否かを判定し、覚醒閾値を超えていると判定した場合、ステップS102以降の処理を繰り返す。
 一方、更新された眠気スコアが覚醒閾値以下であるとステップS103において判定した場合、ステップS104において検出部84はユーザが起きたと判定し、そのことを表す情報を選曲部81と情報管理部83に出力する。
 ステップS104においてユーザが起きたと判定された場合、または、ステップS103において眠気スコアが覚醒閾値を超えていると所定の回数以上判定された場合、図18のステップS79に戻り、それ以降の処理が行われる。
 次に、図23のフローチャートを参照して他の入眠判定処理について説明する。図23の処理は、ユーザが寝たか否かの判定が、センサ部12により検出されたセンサデータに基づいて行われる点で図21の処理と異なる。
 ステップS111において、検出部84は入眠時の教師データを取得する。入眠時の教師データは、ユーザが寝たときにセンサ部12により検出されたセンサデータ自体、または、センサデータから抽出された、センサデータの特徴を表すデータであり、記憶部16などに予め記憶されている。
 ステップS112において、検出部84は現在のセンサデータを取得する。
 ステップS113において、検出部84は、取得したセンサデータ、またはセンサデータから抽出した特徴と、教師データとのマッチングを行い、マッチングスコアを求める。
 ステップS114において、検出部84は、マッチングスコアが閾値以上であるか否かを判定し、閾値未満であると判定した場合、ステップS112以降の処理を繰り返す。
 一方、マッチングスコアが閾値以上であるとステップS114において判定した場合、ステップS115において検出部84はユーザが寝たと判定し、そのことを表す情報を選曲部81と情報管理部83に出力する。
 ステップS115においてユーザが寝たと判定された場合、または、ステップS114においてマッチングスコアが閾値未満であると所定の回数以上判定された場合、図18のステップS79に戻り、それ以降の処理が行われる。
 次に、図24のフローチャートを参照して他の覚醒判定処理について説明する。図24の処理は、ユーザが起きたか否かの判定が、センサ部12により検出されたセンサデータに基づいて行われる点で図22の処理と異なる。
 ステップS121において、検出部84は覚醒時の教師データを取得する。覚醒時の教師データは、ユーザが起きたときにセンサ部12により検出されたセンサデータ自体、または、センサデータから抽出された、センサデータの特徴を表すデータであり、記憶部16などに予め記憶されている。
 ステップS122において、検出部84は現在のセンサデータを取得する。
 ステップS123において、検出部84は、取得したセンサデータ、またはセンサデータから抽出した特徴と、教師データとのマッチングを行い、マッチングスコアを求める。
 ステップS124において、検出部84は、マッチングスコアが閾値以上であるか否かを判定し、閾値未満であると判定した場合、ステップS122以降の処理を繰り返す。
 一方、マッチングスコアが閾値以上であるとステップS124において判定した場合、ステップS125において検出部84はユーザが起きたと判定し、そのことを表す情報を選曲部81と情報管理部83に出力する。
 ステップS125においてユーザが起きたと判定された場合、または、ステップS124においてマッチングスコアが閾値未満であると所定の回数以上判定された場合、図18のステップS79に戻り、それ以降の処理が行われる。
 以上の一連の処理により、情報処理装置1は、寝るべきである場合にはユーザを寝かせることができ、また、起きるべきである場合にはユーザを起こすことができ、ユーザの睡眠効率を向上させることが可能になる。
 5.<変形例>
 以上においては、入眠スコアまたは覚醒スコアと、眠気スコアとに基づいて異なる楽曲が選択され、再生されるものとしたが、入眠スコアまたは覚醒スコアと、眠気スコアとに応じた編曲が所定の楽曲に対して行われ、異なる雰囲気の楽曲が再生されるようにしてもよい。
 眠気判別部63を構成する眠気判別器の学習がサーバにより行われるようにしてもよい。図25は、眠気判別器の学習の例を示す図である。図25の例においては、情報処理装置1A乃至1Dがネットワークを介してサーバ101に接続されている。情報処理装置1A乃至1Dは、それぞれ上述した情報処理装置1と同じ構成、同じ機能を有する。
 情報処理装置1A乃至1Dは、それぞれ、センサ部12により検出されたセンサデータをサーバ101にアップロードする。サーバ101は、情報処理装置1A乃至1Dから送信されてきたセンサデータを蓄積するとともに、情報処理装置1A乃至1Dから送信されてきたセンサデータに基づいて眠気判別器の学習を行う。サーバ101は、学習によって更新した眠気判別器のデータを情報処理装置1A乃至1Dに送信する。
 更新後の眠気判別器を用いることにより、情報処理装置1A乃至1Dのそれぞれは、精度の高い眠気スコアを求めることが可能になる。
 以上においては、ユーザが起きるべきであるか、寝るべきであるかの判定を含めて、各種の処理が情報処理装置1において行われるものとしたが、例えばセンサデータの検出と楽曲の再生以外の処理は、サーバ101において行われるようにすることも可能である。この場合、図8乃至図11に示す構成のうち、図10のセンサデータ取得部61と図11の再生部82以外の構成が、適宜、サーバ101において実現される。
 また、以上においては、楽曲を再生することによってユーザを入眠、または覚醒させるものとしたが、ユーザを入眠、または覚醒させる手段は楽曲を再生することに限られない。ユーザを入眠させる、または覚醒させる手段として、情報処理装置1が制御可能な、映像を再生して表示する装置、エアコンディショナー、振動発生装置などを用いることが可能である。
 例えば、ユーザを入眠させる、または覚醒させる手段としてエアコンディショナーを用いる場合、ユーザを入眠させるときには室内を適温に調整し、ユーザを覚醒させるときには室内を適温より低め又は高めに調整するようにエアコンディショナーを制御する処理が情報処理装置1により行われることになる。
 以上においては、ユーザの行動予定に応じて、ユーザが起きるべきであるかまたは寝るべきかであるかを判断し、起きるべきであると判断した場合には起きるべき程度を判断し、一方、寝るべきであると判断した場合には寝るべき程度を判断するものとしたが、前者の判断のみ、また後者の判断のみを行うようにしてもよい。すなわち、ユーザが起きるべきであるか寝るべきかであるかの判断のみを情報処理装置1に行わせることも可能であるし、起きるべきである場合における起きるべき程度、または寝るべきである場合における寝るべき程度の判断のみを情報処理装置1に行わせることも可能である。
 さらに、ユーザが起きるべきであるかまたは寝るべきかであるかを両方判断させるのではなく、起きるべきであるかどうかの判断のみを行わせることも可能であるし、寝るべきであるかどうかの判断のみを行わせることも可能である。起きるべきであるかどうかの判断を行わせる場合、起きるべき程度を情報処理装置1に判断させるようにすることも可能である。また、寝るべきであるかどうかの判断を行わせる場合、寝るべき程度を情報処理装置1に判断させるようにすることも可能である。
[コンピュータの構成例]
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図26は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 CPU(Central Processing Unit)151、ROM(Read Only Memory)152、RAM(Random Access Memory)153は、バス154により相互に接続されている。
 バス154には、さらに、入出力インタフェース155が接続されている。入出力インタフェース155には、キーボード、マウスなどよりなる入力部156、ディスプレイ、スピーカなどよりなる出力部157が接続される。また、入出力インタフェース155には、ハードディスクや不揮発性のメモリなどよりなる記憶部158、ネットワークインタフェースなどよりなる通信部159、リムーバブルメディア161を駆動するドライブ160が接続される。
 以上のように構成されるコンピュータでは、CPU151が、例えば、記憶部158に記憶されているプログラムを入出力インタフェース155及びバス154を介してRAM153にロードして実行することにより、上述した一連の処理が行われる。
 CPU151が実行するプログラムは、例えばリムーバブルメディア161に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部158にインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
[変形例]
 本技術は、以下のような構成をとることもできる。
(1)
 ユーザの行動予定を表す情報を取得する取得部と、
 前記ユーザの行動予定に応じて、起きるべきかどうかと寝るべきかどうかとのうちの少なくともいずれかの判断と、起きるべきである場合における起きるべき程度、または寝るべきである場合における寝るべき程度の判断と、のうちの少なくともいずれかの判断を行う第1の判断部と
 を備える情報処理装置。
(2)
 前記第1の判断部は、前記起きるべき程度または前記寝るべき程度の判断を行う場合、前記起きるべき程度または前記寝るべき程度を表す第1のスコアを求める
 前記(1)に記載の情報処理装置。
(3)
 センサにより検出されたデータに基づいて、前記ユーザの眠気の程度を表す第2のスコアを求める第2の判断部をさらに備える
 前記(2)に記載の情報処理装置。
(4)
 前記第1のスコアと前記第2のスコアに基づいて、再生するコンテンツを選択する選択部と、
 前記選択部により選択された前記コンテンツを再生する再生部と
 をさらに備える前記(3)に記載の情報処理装置。
(5)
 複数の前記コンテンツについて、それぞれの前記コンテンツと、前記コンテンツを視聴したユーザに生じさせる眠気の変化の程度との関係を表す情報を記憶する記憶部をさらに備え、
 前記選択部は、前記記憶部に記憶されている前記情報に基づいて、前記第1のスコアと前記第2のスコアとの差に相当する眠気の変化を生じさせる前記コンテンツを選択する
 前記(4)に記載の情報処理装置。
(6)
 前記第2の判断部は、前記コンテンツの再生後に前記センサにより検出されたデータに基づいて前記第2のスコアをさらに求め、
 前記コンテンツの再生開始前に求められた前記第2のスコアと、前記コンテンツの再生後に求められた前記第2のスコアとの差に基づいて、前記記憶部に記憶されている、再生が行われた前記コンテンツについての眠気の変化の程度を表す前記情報を更新する更新部をさらに備える
 前記(5)に記載の情報処理装置。
(7)
 前記第1の判断部により起きるべきであると判断されるとともに、前記起きるべき程度が判断された場合、前記起きるべき程度に応じて前記ユーザを覚醒させる覚醒部と、
 前記第1の判断部により寝るべきであると判断されるとともに、前記寝るべき程度が判断された場合、前記寝るべき程度に応じて前記ユーザを入眠させる入眠部と
 をさらに備える前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
 ユーザの行動予定を表す情報を取得し、
 前記ユーザの行動予定に応じて、起きるべきかどうかと寝るべきかどうかとのうちの少なくともいずれかの判断と、起きるべきである場合における起きるべき程度、または寝るべきである場合における寝るべき程度の判断と、のうちの少なくともいずれかの判断を行う
 ステップを含む情報処理方法。
(9)
 ユーザの行動予定を表す情報を取得し、
 前記ユーザの行動予定に応じて、起きるべきどうかとか寝るべきかどうかとのうちの少なくともいずれかの判断と、起きるべきである場合における起きるべき程度、または寝るべきである場合における寝るべき程度の判断と、のうちの少なくともいずれかの判断を行う
 ステップを含む処理をコンピュータに実行させるプログラム。
 1 情報処理装置, 21 制御部, 22 入眠・覚醒判断部, 23 眠気判断部, 24 選曲・再生部, 25 スケジュールDB, 26 楽曲DB

Claims (9)

  1.  ユーザの行動予定を表す情報を取得する取得部と、
     前記ユーザの行動予定に応じて、起きるべきかどうかと寝るべきかどうかとのうちの少なくともいずれかの判断と、起きるべきである場合における起きるべき程度、または寝るべきである場合における寝るべき程度の判断と、のうちの少なくともいずれかの判断を行う第1の判断部と
     を備える情報処理装置。
  2.  前記第1の判断部は、前記起きるべき程度または前記寝るべき程度の判断を行う場合、前記起きるべき程度または前記寝るべき程度を表す第1のスコアを求める
     請求項1に記載の情報処理装置。
  3.  センサにより検出されたデータに基づいて、前記ユーザの眠気の程度を表す第2のスコアを求める第2の判断部をさらに備える
     請求項2に記載の情報処理装置。
  4.  前記第1のスコアと前記第2のスコアに基づいて、再生するコンテンツを選択する選択部と、
     前記選択部により選択された前記コンテンツを再生する再生部と
     をさらに備える請求項3に記載の情報処理装置。
  5.  複数の前記コンテンツについて、それぞれの前記コンテンツと、前記コンテンツを視聴したユーザに生じさせる眠気の変化の程度との関係を表す情報を記憶する記憶部をさらに備え、
     前記選択部は、前記記憶部に記憶されている前記情報に基づいて、前記第1のスコアと前記第2のスコアとの差に相当する眠気の変化を生じさせる前記コンテンツを選択する
     請求項4に記載の情報処理装置。
  6.  前記第2の判断部は、前記コンテンツの再生後に前記センサにより検出されたデータに基づいて前記第2のスコアをさらに求め、
     前記コンテンツの再生開始前に求められた前記第2のスコアと、前記コンテンツの再生後に求められた前記第2のスコアとの差に基づいて、前記記憶部に記憶されている、再生が行われた前記コンテンツについての眠気の変化の程度を表す前記情報を更新する更新部をさらに備える
     請求項5に記載の情報処理装置。
  7.  前記第1の判断部により起きるべきであると判断されるとともに、前記起きるべき程度が判断された場合、前記起きるべき程度に応じて前記ユーザを覚醒させる覚醒部と、
     前記第1の判断部により寝るべきであると判断されるとともに、前記寝るべき程度が判断された場合、前記寝るべき程度に応じて前記ユーザを入眠させる入眠部と
     をさらに備える請求項1に記載の情報処理装置。
  8.  ユーザの行動予定を表す情報を取得し、
     前記ユーザの行動予定に応じて、起きるべきかどうかと寝るべきかどうかとのうちの少なくともいずれかの判断と、起きるべきである場合における起きるべき程度、または寝るべきである場合における寝るべき程度の判断と、のうちの少なくともいずれかの判断を行う
     ステップを含む情報処理方法。
  9.  ユーザの行動予定を表す情報を取得し、
     前記ユーザの行動予定に応じて、起きるべきかどうかと寝るべきかどうかとのうちの少なくともいずれかの判断と、起きるべきである場合における起きるべき程度、または寝るべきである場合における寝るべき程度の判断と、のうちの少なくともいずれかの判断を行う
     ステップを含む処理をコンピュータに実行させるプログラム。
PCT/JP2012/059958 2011-04-20 2012-04-12 情報処理装置、情報処理方法、およびプログラム WO2012144396A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/111,018 US9891592B2 (en) 2011-04-20 2012-04-12 Information processing to improve sleep efficiency
EP12774646.9A EP2701117A4 (en) 2011-04-20 2012-04-12 INFORMATION PROCESSING DEVICE AND METHOD AND PROGRAM
CN201280019132.8A CN103518204B (zh) 2011-04-20 2012-04-12 信息处理设备、信息处理方法及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-093701 2011-04-20
JP2011093701A JP2012226564A (ja) 2011-04-20 2011-04-20 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2012144396A1 true WO2012144396A1 (ja) 2012-10-26

Family

ID=47041506

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/059958 WO2012144396A1 (ja) 2011-04-20 2012-04-12 情報処理装置、情報処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US9891592B2 (ja)
EP (1) EP2701117A4 (ja)
JP (1) JP2012226564A (ja)
CN (1) CN103518204B (ja)
WO (1) WO2012144396A1 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5942717B2 (ja) * 2012-09-10 2016-06-29 カシオ計算機株式会社 情報通知装置およびプログラム
JP6119369B2 (ja) * 2013-03-28 2017-04-26 富士通株式会社 情報処理装置、警報発生方法およびプログラム
JP2015040783A (ja) * 2013-08-22 2015-03-02 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
CN103823562B (zh) * 2014-02-28 2017-07-11 惠州Tcl移动通信有限公司 自动提醒用户睡觉的方法、系统及可穿戴设备
JP2015222466A (ja) * 2014-05-22 2015-12-10 株式会社ナカヨ 服薬情報を自動表示する服薬管理装置
US9808185B2 (en) 2014-09-23 2017-11-07 Fitbit, Inc. Movement measure generation in a wearable electronic device
WO2016067028A2 (en) * 2014-10-28 2016-05-06 Mclaren Applied Technologies Limited Device for physiological assistance
US20160343229A1 (en) * 2015-05-18 2016-11-24 Frank Colony Vigilance detection method and apparatus
US9692874B2 (en) 2015-09-30 2017-06-27 Apple Inc. Adjusting alarms based on sleep onset latency
US11642077B2 (en) 2016-04-29 2023-05-09 Fitbit, Inc. Sleep monitoring system with optional alarm functionality
US10325514B2 (en) * 2016-06-02 2019-06-18 Fitbit, Inc. Systems and techniques for tracking sleep consistency and sleep goals
US11207021B2 (en) 2016-09-06 2021-12-28 Fitbit, Inc Methods and systems for labeling sleep states
US10245408B2 (en) * 2016-09-23 2019-04-02 Nokia Technologies Oy Method, apparatus and computer program product for providing a dynamic wake-up alert
KR101951565B1 (ko) * 2016-10-18 2019-02-22 서울대학교산학협력단 자세 및 작업 감지를 통한 안구 건조증 경고 시스템
CN106845928A (zh) * 2016-12-29 2017-06-13 北京小米移动软件有限公司 叫醒方法及装置
EP3594892A4 (en) * 2017-03-08 2020-02-12 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
US10699247B2 (en) 2017-05-16 2020-06-30 Under Armour, Inc. Systems and methods for providing health task notifications
JP2019140571A (ja) * 2018-02-13 2019-08-22 三菱電機株式会社 コンテンツ再生制御装置、コンテンツ再生システムおよびプログラム
JP2020044222A (ja) * 2018-09-21 2020-03-26 株式会社ポケモン ゲームサーバ、プログラム、方法、ゲームシステムおよび情報処理端末
WO2020203015A1 (ja) * 2019-04-02 2020-10-08 公立大学法人横浜市立大学 重症化推定システム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09294731A (ja) * 1996-05-07 1997-11-18 Matsushita Electric Ind Co Ltd 睡眠モニター装置と目覚まし装置
JPH11331369A (ja) * 1998-05-21 1999-11-30 Toshiba Corp 情報端末装置
JP2005261737A (ja) * 2004-03-19 2005-09-29 Daikin Ind Ltd 生体リズム調整方法、生体リズム調整装置、生体リズム調整システム
JP2006296940A (ja) * 2005-04-25 2006-11-02 Denso Corp 生体センサ、脈波センサ、睡眠情報処理方法、睡眠情報処理装置、プログラム、及び記録媒体
JP2007108081A (ja) * 2005-10-14 2007-04-26 Sharp Corp スケジュール管理装置、スケジュール連動型タイマー設定システム、タイマー機能保有装置、付加データ提供サーバ、ユーザ属性データ提供サーバ、スケジュール連動型タイマー設定プログラム、および記録媒体
JP2007179239A (ja) * 2005-12-27 2007-07-12 Kenwood Corp スケジュール管理装置及びプログラム
JP2007195664A (ja) 2006-01-25 2007-08-09 Yamaha Corp 睡眠導入楽音再生装置、睡眠導入楽音再生システム及び睡眠導入楽音再生方法
JP2011022738A (ja) 2009-07-15 2011-02-03 Nissan Motor Co Ltd 運転者状態推定装置及び方法
JP2011048531A (ja) 2009-08-26 2011-03-10 Aisin Seiki Co Ltd 眠気検出装置、眠気検出方法、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1551281A4 (en) * 2002-10-09 2007-11-21 Bodymedia Inc METHOD AND DEVICE FOR AUTOMATIC RECORDING OF CONTINUOUS OR DISCRETE BODY STATES BASED ON PHYSIOLOGICAL AND / OR CONTEXT PARAMETERS
CA2533014A1 (en) * 2003-06-23 2004-12-29 Seiko Instruments Inc. Health care system, biological information terminal
JP4052274B2 (ja) * 2004-04-05 2008-02-27 ソニー株式会社 情報提示装置
US7542816B2 (en) * 2005-01-27 2009-06-02 Outland Research, Llc System, method and computer program product for automatically selecting, suggesting and playing music media files
JP4528710B2 (ja) * 2005-11-09 2010-08-18 株式会社東芝 睡眠状態計測装置、睡眠状態計測方法及び睡眠状態計測システム
US20090157672A1 (en) * 2006-11-15 2009-06-18 Sunil Vemuri Method and system for memory augmentation
EP2249908B1 (en) * 2008-01-25 2014-01-01 Medtronic, Inc. Sleep stage detection
US8000694B2 (en) * 2008-09-18 2011-08-16 Apple Inc. Communications device having a commute time function and methods of use thereof

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09294731A (ja) * 1996-05-07 1997-11-18 Matsushita Electric Ind Co Ltd 睡眠モニター装置と目覚まし装置
JPH11331369A (ja) * 1998-05-21 1999-11-30 Toshiba Corp 情報端末装置
JP2005261737A (ja) * 2004-03-19 2005-09-29 Daikin Ind Ltd 生体リズム調整方法、生体リズム調整装置、生体リズム調整システム
JP2006296940A (ja) * 2005-04-25 2006-11-02 Denso Corp 生体センサ、脈波センサ、睡眠情報処理方法、睡眠情報処理装置、プログラム、及び記録媒体
JP2007108081A (ja) * 2005-10-14 2007-04-26 Sharp Corp スケジュール管理装置、スケジュール連動型タイマー設定システム、タイマー機能保有装置、付加データ提供サーバ、ユーザ属性データ提供サーバ、スケジュール連動型タイマー設定プログラム、および記録媒体
JP2007179239A (ja) * 2005-12-27 2007-07-12 Kenwood Corp スケジュール管理装置及びプログラム
JP2007195664A (ja) 2006-01-25 2007-08-09 Yamaha Corp 睡眠導入楽音再生装置、睡眠導入楽音再生システム及び睡眠導入楽音再生方法
JP2011022738A (ja) 2009-07-15 2011-02-03 Nissan Motor Co Ltd 運転者状態推定装置及び方法
JP2011048531A (ja) 2009-08-26 2011-03-10 Aisin Seiki Co Ltd 眠気検出装置、眠気検出方法、及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MAHO OKI ET AL.: "MediAlarm : alarm-type interface integrating various media", DAI 72 KAI (HEISEI 22 NEN) ZENKOKU TAIKAI KOEN RONBUNSHU (3) NETWORK SECURITY, 8 March 2010 (2010-03-08), pages 3-187 - 3-188, XP008169471 *
See also references of EP2701117A4

Also Published As

Publication number Publication date
JP2012226564A (ja) 2012-11-15
EP2701117A4 (en) 2014-10-01
US20140058703A1 (en) 2014-02-27
CN103518204B (zh) 2016-06-08
EP2701117A1 (en) 2014-02-26
CN103518204A (zh) 2014-01-15
US9891592B2 (en) 2018-02-13

Similar Documents

Publication Publication Date Title
WO2012144396A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20210225488A1 (en) Optimal Sleep Phase Selection System
US10485474B2 (en) Sleep monitoring system
TWI604302B (zh) 用於可變觸覺輸出之處理器實施方法、運算器件實施方法、電腦程式產品及資訊處理裝置
CN107784357B (zh) 基于多模态深度神经网络的个性化智能唤醒系统及方法
WO2018188587A1 (zh) 一种语音响应方法、装置及智能设备
WO2016042889A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
WO2011100890A1 (zh) 一种环境声音提醒方法和移动终端
CN106170041A (zh) 闹钟提醒方法、装置和终端
CN105847525A (zh) 一种控制移动终端信息提醒功能的方法、装置和系统
JP2019111182A (ja) ゲームプログラムおよびゲーム装置
JP2014130467A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2015130907A (ja) 音楽再生装置、音楽情報共有システム、および音楽再生プログラム
CN110418011A (zh) 生成提示音的方法、装置及智能设备
CN109213892A (zh) 一种音频播放方法、装置、设备及存储介质
Shaikh et al. Automatic life-logging: A novel approach to sense real-world activities by environmental sound cues and common sense
CN106845928A (zh) 叫醒方法及装置
JP6759826B2 (ja) 報知装置、報知方法およびプログラム
JP6217003B2 (ja) 端末装置、睡眠言動記録方法及び睡眠言動記録プログラム
JP2020039909A (ja) ゲームプログラムおよびゲーム装置
CN110933232B (zh) 一种闹钟提醒方法、电子设备
CN109714472B (zh) 一种铃声控制方法、装置、存储介质及空调
WO2024080009A1 (ja) 音響装置、音響制御方法及び音響制御プログラム
JP2005261669A (ja) 生体状態推定装置
JP2023530259A (ja) 被験者の睡眠を誘発するためのシステム及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12774646

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14111018

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE